当前位置:笔趣阁>都市言情>重生之AI教父> 第86章 视觉新范式
阅读设置(推荐配合 快捷键[F11] 进入全屏沉浸式阅读)

设置X

第86章 视觉新范式(2 / 2)

至于分割网络,则是这两天随着DreamNet的论文一起放出的U-Net工作。至此,可以说视觉类几大任务的基础范式已经被孟繁岐奠基。

今后不论是识别分类,分割检测,还是迁移生成,都很难绕得开这些轻便又好用的办法了。

“可以看到,这种思想席卷视觉领域之后,使得目前主要的研究方向都有了颠覆性的突破。”

孟繁岐将这几篇论文的主要试验结论摆在了幻灯片的第二页,就是要先以结果震撼众人。

“显然,这些算法在诸多领域都与第二名拉开了巨大的差距,而相当一部分的功劳应当属于残差思想对网络深度的革命。”

“在10年11年,我们仍在使用人工设计的SIFT,HOG还有SVM,12年,阿里克斯的八层AlexNet取得了巨大的突破。”

“而今年,残差思想引发的深度革命,使得训练150+层的神经网络成为可能。”

“深度神经网络是很多任务场景,尤其是视觉任务场景的基础引擎和骨干,这也是为什么它能够迅速影响几个主流的任务。”

“从结构上看,DreamNet并没有什么特别的,比起之前每一层都单独设计的网络,我其实故意希望它变得简单,重复。”

孟繁岐身后的幻灯片展示了一个极其细长的图案,这就是一百多层深的DreamNet结构图。

放大展示它的基本设计,众人发现,它的单层设计非常简洁朴素,只采用了最常规的算子操作。

长长的结构图滚动了起来,观众们都发现,原来每一层并没有任何区别,只是单纯在重复。

由于一百多层的滚动需要太久,在这个严肃的场合显得有些喜感,场内发出了一阵阵笑声。

“那么这里就引出了一个问题,那就是是否单纯地把网络做大作深,就总是可以取得更好的结果呢?”

孟繁岐的这个问题,直到2023年也没有一个理论上的答复,但很显然,巨大的模型还在持续地创造一个个奇迹。

不管是绘画,对话,还是图像操作,都还远没有到达极限。

“我非常希望自己能够清楚地从理论上告诉大家这个答案,但由于能力有限,我也只能给出自己的猜测,那就是Yes。”

“我相信,只要更多更好的GPU,更多更好的数据,以及更大大模型和更好的优化办法,我们就可以持续地创造奇迹。”

“而之前的网络在深度上遇到的阻碍,我认为并不是网络的能力问题,而是我们没有找到合适的办法去优化好它。”

让网络多重复几次,这是很多人都试过的事情,很显然,得到的结果是比原本要差的。

这在传统方法中,不是什么奇怪的现象,很多人都将这个现象解释为维度灾难或者过拟合,没有进行足够深度的探索。

“稍加思索,这显然是一个反直觉的现象,对于更深的网络,我们完全可以将小版本网络的所有参数复制进来,而多出来的部分只要什么事情都不做,这个模型就至少不会更差。”

“但事实上,却并非如此,我相信很多人都观察到了这样的普遍现象,那就是更深的模型反而变差了不少。”

请记住本书首发域名:。看小说吧手机版阅读网址:

上一页 目录 +书签 下一章