比如比人类更精确地识别图片,又或者直接凭空生成完全不存在的图像。而这些了不起的成就,主要是通过求解的方式来完成。
例如,对于任一图像问题,我们感兴趣的是从图片到具体意义的映射函数,比如图像到它的内容的类别。
目前惯常的训练做法是,基于一个有限的数据,给出目标函数的一个高效逼近。又或者是利用没有标签的有限样本,逼近采用背后的未知概率。”
“神经网络的基本组成部分即为:线性变换与一维非线性变换。深度神经网络,一般就是上述结构的反复复合。
对于已经构建的网络,设计一个最优化问题,根据经验误差去拟合数据,有时加上一些正则化项,并求解该优化问题。”
韩辞的幻灯片上开始展示密密麻麻的一些公式,“由此,我们便可以把误差分解成三部分,逼近误差完全由假设空间的选取所决定,估计误差由数据集的大小和质量而带来的额外误差,以及优化误差,这是由优化,或者说训练带来的额外误差。”
虽然之前已经大概了解了韩辞在这方面的想法,但在如此正式的场合,看到她有些紧张却仍旧十分自信的展示这些专业高深的内容。
孟繁岐还是相当敬佩的。
这里面的不少结论都是后来世人熟知的,不过大都是通过大量的实验观察,总结归纳出的一些经验性结论。
虽然今生,孟繁岐将会在诸多AI应用领域开天辟地,可内在的数理证明,终将是他两辈子都无法越过的鸿沟。
对那些可以做到这些事情的人,人们难免会另眼相待。
而此时此刻,会场当中,看好韩辞的并不只是懵懵懂懂觉得厉害的孟繁岐。
以辛顿为首的学院派,比如牛津团队的几位老教授,眼中满是赞许的目光。
这个待遇是连孟繁岐刚刚也没有的。
“可能这就是老学究们对于理论的偏爱吧。”孟繁岐笑着摇了摇头,自己这个做AI应用技术的,可能永远没有办法获得这几个怪老头的如此偏爱。
请记住本书首发域名:。看小说吧手机版阅读网址: