几天的国庆假期很快结束了,顾玩带着妹妹和女朋友回到学校,恢复到正常的学习生活中。随着gps和ams项目都告一段落,顾玩手头的科研任务确实闲下来一些。每天只要上上课,考考试,泡泡图书馆,连实验室都可以不去了。不过,他就像黑夜中的萤火虫,注定是不会让自己生蛆的。所以没过几天,他就找到了丁院长。“院长,我想发一些跨专业的论文,搞一些跨专业的课题,这事儿不违反学校纪律吧?”顾玩也不预约,当天中午径直走进院长办公室,直接就摊牌。当时还有个副院长、以及院长的助理在旁边看着呢。丁院长都微微吓了一跳:“咋了?受委屈了?还是突然脑子犯抽,想换专业了?”旁边那个副院长出言打圆场:“院长您别多虑,说不定是小顾同学能者多劳,兴趣涉猎广泛而已。”顾玩还没接话,丁院长倒是跟副院长一问一答,自我脑补起来了:“原来你是想修二专业啊,以你现在的成绩,这当然是没问题的了。你可是科技部表彰过的人了,校长也会给你特批的。何况,我们学校本来就允许修二专业。”这事儿就这么决定了?自己可没打算双修二专业啊,只是想跨圈稍微搞一搞深度学习人工智能的基础有木有!但学校领导已经这么决定了,顾玩也就接受咯。一切手续很快搞定。上面标示学分什么的不重要,有空稍微多修几门数学课,就算二专业的标准达到了。实在不想修,只要论文够,一样算过。得到这个承诺后,顾玩让麻依依也去试试双修,看能不能申请下来。麻依依就没那么大面子了,毕竟没在科技部表彰大会上挂过号,所以一切还是要公事公办。最终咨询的结果是双修可以,但学分不能打折没有优惠。面对困难,麻依依不禁要多问几句老公的打算:“你到底希望我修个啥?”顾玩回答得很直接:“修个心理学分支下的认知神经科学方向好了这是一个心理学跟脑科学交集的专业。”麻依依一脸懵逼。顾玩却知道,他选的这个方向,与地球上杰夫辛顿当年搞深度学习时的路径,几乎是如出一辙的。凭心而论,杰夫辛顿的能力也不算多逆天的科学家,但他成功了。这里面努力和方向正确占八成,但还有至少两成是运气和环境。深度学习型人工智能的成功,得益于其他地球人的固有技术偏见在此之前,很少有人从“挖掘人脑的深层学习机理究竟是怎样的”这个角度,来思考训练机器学习的问题。所以,谁这么想了,而且第一个付诸实践了,就能捡到漏。当然了,这个漏也不是阿猫阿狗都能捡的,论证过程比较复杂。通俗地说,你至少得是个世界名校的计算机和神经认知科学领域双博士,你才有资格在方向对的前提下,捡到这个漏。连个盟校双博士都做不到的人,天大的机会白白送到他面前,他捡都捡不起来。另外一方面,顾玩也深谙地球上人工智能发展的另一个重要契机在深度学习和卷积神经网络发展起来之前,这条技术路线的认可度并不高,因为这条技术路线哪怕试水到04年,初步原理略微跑通了,学界也依然发现有问题:这个算法的缺点,是训练效率太低。也就是说消耗的算力极大,而机器学习的进步速度其实很慢,还无法进行白盒逻辑解释,也就无法通过人工干预/“教导”来让机器的学习速度加快。当时还有另外两三条技术路线,那些路线的优缺点正好与深度学习相反。那些训练方法白盒化程度更高,也就是机器学习的决策过程的可解释性,人类更能理解,也就更容易干预,便于人类“手把手教机器快速进步”。而这些算法的缺点,就是“学习进化的上限比较低”(这里是笼统概括,实际科学原理比这个复杂得多。但是写给外行人看,只能这样不太准确地类比一下了。)换句话说,要是人类继续被摩尔定律束缚、靠电脑cpu运算速度的技术提升,来满足训练算力的话,那么那些白盒度更高、更容易用少量算力就初步训练出成绩的人工智能学习路径,说不定就能在历史选择中胜出“深度学习/卷积神经网络”这条技术路线了。但是,地球上偏偏在你2007~2009年,诞生了分布式架构算力设计。这玩意儿,最初是出现在很多硅谷it公司,那些程序员嫌弃代码写好后、编译速度太慢,甚至觉得光靠专门的编译服务器都不够用,所以天马行空地创新出一个“分布式编译架构”,让一家公司里所有同一局域网内的电脑,都可以加入这个架构,然后把编译任务拆分分配给所有电脑,让所有cpu共同分包编译。分布式编译是从07年出现的,一两年之内,这玩意儿就成长成了“云计算”。有了云计算之后,应用就很广泛,而云计算对人工智能训练的最大影响,就是某个智能在执行机器学习的时候,不用再受限于这个机器人本身那颗cpu的算力了机器人自己的cpu不够快,可以接入云,用云上的几千几万台机器的cpu帮你一起算。这时候,摩尔定律就不重要了。只要算力任务能高效拆分,单颗cpu弱一点就弱一点了,咱可以芯海战术堆数量嘛。如此一来,其他那些“算力效率更高、白盒可解释性更强、但训练上限和自动化程度更低的算法”,一下子就争不过深度学习了。因为深度学习原先最大的瓶颈,就是黑盒,算力效率低下。但云计算的出现,让算力瞬间没那么值钱了,可以大水漫灌狂训你。……这些道理,顾玩心知肚明,不过他没法全部告诉麻依依。他只能鼓励麻依依,让她往这个领域布局,夫妻俩暂时把外围科技先凑起来。幸好,时间上也不是非常紧急。地球上杰夫辛顿让学界接受深度学习,就花了两年。至于后来从学界承认到产业界承认,又花了四年其中三年都是在等云计算的出现。他的成绩06年在学界就初步被认可了,但09年云计算才正式出现,2010年杰夫辛顿才被谷歌高薪挖走。后世的人工智能,用一句话概括运作原理,就是“使用云计算的算力,用深度学习算法处理学习大数据”。算力,算法,大数据。三要素里,从技术难度来说,最先有的是大数据,这是一种资源,有稀缺性,但却没有技术含量,所以是最早出现的。算法,或者说深度学习的思路,是第二个出现的(06年)用这种算法处理这些数据的算力,是最后出现的(09年)三要素都齐了之后,第二年地球上谷歌就开始在这条路上狂奔了。顾玩觉得,就算自己开了挂,也有1年多的时间,先把基础算法方面的架构性论文发完。具体追求产业界应用的事儿,将来去留学开公司期间再说好了。而且,把算法渊薮阶段的论文,在中国念书的时候就发表,将来也好撇清跟老外的关系咱可不是去斯坦索姆留学后,才琢磨出这些玩意儿来的,一开始在中央科大念书,就已经有这方面的建树了,功劳都是中国人的。让麻依依认识清楚这一切节奏后,顾玩明确分配了任务:“你今年除了修学分之外,我就给你两个发论文的任务。第一,你在计算机本专业领域,琢磨一个分布式编译的活儿。把架构想出来,在你们数科院的项目公司也好,研究所也好,先试着干起来。确有提高效率,就可以把这篇实验性的论文发出去了。第二,在你双修的认知神经科学领域,我希望你发一些人脑神经学习效率方面的研究跟计算机没关系,就是研究活人的学习效率,多做对照组,具体实验设计,我会帮你一起参详的。这些论文不会直接产生商业价值,但是会让你我有资格在相关领域的顶级期刊稍微混点脸熟,进入圈子。”顾玩原先也发表不少论文了,但可惜都是物理类的。正所谓隔行如隔山,一旦他想进入数学/计算机算力架构/认知神经科学,重新刷脸刷声望,肯定是免不了的。就跟你打魔兽,哪怕奥格瑞玛崇拜了,幽暗城还得重新刷不是。当然了,你奥格瑞玛崇拜,对于你幽暗城声望的刷速度肯定略有帮助,比你一个所有声望都没有的纯萌新,肯定要容易一些。麻依依还是没太明白老公分配的具体任务,但她觉得这不妨碍她搞个人崇拜,盲目迷信跟着老公的思路走。“我这学期还是先从分布式编译下手吧。我本来就是学计算机的,我觉得这个容易写,也容易发表。”麻依依读大学这一年多来,也是发过论文的,不过一共只发了两篇,还都是在本校的《中央科大学报》上。这个成绩跟其他本科生,甚至是其他想当交流生的顶级优等生相比,已经很牛逼了。但是跟她老公一比,那就简直是菜的不行。这次的分布式编译架构,她决定鼓捣出来后,发到外面的期刊上,最好还是外国的。