越到后期,各种包装就做得越好,即便是小学生来了也可以两行代码直接构造一个高性能的前沿模型。
但那到底是十年后了,如今距离TF发布最初版本还有两年多,孟繁岐有点烦躁。
他目前的计划是去看一看去年AlexNet最初版的源码,再去看看阿里克斯本人的主页,应当会有一些收获。
实在不行,就只能乘着阿里克斯如今春风得意,又还没有签约谷歌的这段当口,多套近乎,向他请教。
由于AlexNet是深度学习时代的里程碑事件,其模型名称又以本人命名,因而孟繁岐对其论文,网络乃至本人都稍有些了解。点开网页搜索其人的姓名,很容易就能在多伦多大学的网站上找到其简洁的个人主页。
不仅如此,这个个人主页上还详细记载了他在校期间自己开发加速的一些代码。主要是C++和基于英伟达显卡的CUDA代码,基本上在10年-12年这个时间段。
“好人一生平安啊!”孟繁岐点开链接,发现他不仅是代码和结果记录在里面,就连每次的改动修正了什么也都记得清清楚楚,甚至旁边还留了一句言,“如果有任何代码跑不起来,请随时联系我。”
孟繁岐的眼中流出了两行热泪,正是因为一代代算法开创者如此无私的奉献和分享,AI行业才在十年中发展的如此迅猛。
“好代码,我抄!”数据和代码都在下载之中,如果这个cuda-convnet的框架可以使用,那代码的问题其实就算解决了一半,孟繁岐完全可以基于这个雏形框架先初步实现一些比较关键的算法。