当前位置:新笔趣阁>科幻小说>科研系学霸> 第6章 今天的面试就先到这里,几位回去等通知吧
阅读设置(推荐配合 快捷键[F11] 进入全屏沉浸式阅读)

设置X

第6章 今天的面试就先到这里,几位回去等通知吧(2 / 2)

两人心里不约而同地冒出一个想法:“新来的学弟,有点狠啊!”

要说现在最淡定的就是邓永华了,毕竟像周昀这种自带方向进组的学生他也见过不少。

“AI调教AI?听上去确实挺有意思的,但是想要实现起来恐怕不是那么容易的吧?”

“没错,复杂的 AI驱动的决策过程本就是一个“黑盒”,这也是其中最大的难点之一,所以我设计了这套AgileEdge框架,尽可能地去避免这些问题。”

手指轻敲键盘,将PPT翻到下一页,也是这次汇报的核心内容,AgileEdge的框架图,虽然代码一行没有,但是只要逻辑上能够说服老师就够了。

“这套框架主要都是基于Attention,也就是Transformer,虽然其存在计算量大的问题,但是毫无疑问,这是现阶段所有深度学习的核心基础。

AgileEdge的作用概括来说就是两个字——打包!PPT上所展示的是AgileEdge最为核心的三个组件,分别是:

感知与状态编码层,它的作用是收集并预处理来自边缘环境的原始、多模态数据,

AI协同优化决策引擎,采用分层强化学习架构,实现大模型的缩小,

执行与反馈层,将缩小的大模型打包到相对应的边缘环境中。

最终达到AI边缘部署的目的,理论上来说,无论什么样的大模型,经过这一流程都能被塞到边缘设备中。”

邓永华看着大屏幕上的PPT思考了一会儿,缓缓开口:“我有一个问题,

既然AgileEdge框架具有高度的自适应性,它有没有可能会在运行时为了满足短期性能目标而频繁地对边缘设备上的 AI模型进行极端压缩,或者进行激进的在线剪枝。

这种持续且可能激进的“调教”行为,长此以往是否会导致模型在未被直接监控的复杂场景或长尾数据分布上出现不可预知的精度漂移甚至灾难性遗忘?

还有一点就是AgileEdge如何在动态模型“打包”的过程中,系统性地量化并约束这种潜在的、累积性的精度损失?”

周昀眉头不自觉微微皱起,这个问题确实是他的疏忽,这和智商没有关系,完全就是科研经验上的不足。

但是这并不妨碍他回答,在大脑的高速运转下,他就想到应对方式:“老师的这个问题我确实想过,所以我设计了一个全新的指标对打包后的模型进行评价,不过因为还没有完善,所以PPT上没有展示。”

别问,问就是有,只不过他还没想出来。

邓永华也没追着刨根问底,毕竟还只是一个研零的学生,没必要太过严格,就周昀现在的表现来看,他已经很满意了。

最为核心的部分讲完了,接下来就是一些实际应用场景的讲解,比如工控领域,医疗领域等等。

“以上就是我的汇报,老师还有什么问题吗?”

邓永华摇摇头:“就先这样吧,邱彦,沈瑞,你们有什么问题吗?”其实问题还是有一些的,但还是那句话,没必要太过难为新生,现在这种程度已经够了。

身边两人听到自家导师提问,直接被吓了一激灵,同时摇头:“没问题。”

这让邓永华深深的看了两人一眼:“那今天的面试就先到这里,几位回去等通知吧?”

其实如果不是考虑到另外四位学生,他是想直接宣布周昀通过的,但是想了想还是算了。

上一页 目录 +书签 下一章