前几天,李晓军教授的确在相关论坛发帖,称自己团队拟合的准确率达到了100%。
王栋设定过,如果发生了这种情况,机器应该第一时间通知他。
所以,在那条消息发出一分钟后,他就出现在李晓军教授面前了,当然,顶着的是王梁的脸。
他向李晓军说明了身份,并要求核查他的工作。
李晓军态度有点奇怪,但还是痛快地同意了他的要求。
李晓军团队的方法其实很简单,就是用了一个非常庞大的深度模型来拟合。
之前,各种结构的深度模型王栋都一一尝试过,其中就包括李晓军采用的这个模型。
模型没有什么特殊之处,李团队的训练过程也没有什么特殊之处。
所以,这里一定有什么东西搞错了。
王栋在测试集上跑了一下,准确率的确是100%。
他对模型各层的潜在表示进行了分析,很快就发现了问题。
网络里第二层的表示就已经是正确的输出结果了,后面的几百层实际上一直在做恒等变换。
仅用一层神经网络就能拟合智能解译模型?真是离了大谱了。
算法如果没有问题,那就是李晓军用的这台计算机有问题了。
他在超级机器的帮助下,对这台计算机的工作原理进行了解析,原因马上就找到了。
李晓军教授成功申请到的自由行走资格,是去研究连续学习算法。
这个王栋印象深刻,因为他们对计算速度和算力的要求极其离谱,是他看过的申请书中最离谱的一个。
离谱到,虽然那是五年前的事情,王栋还是马上就想起来了。
他审核申请书时,觉得那样的计算平台根本不可能存在,然而,机器竟然承诺可以提供。
王栋当时也没有深究,机器说行就行呗。
现在看来,机器的承诺竟然是以智能解译模型为基础的。
也就是说,在计算过程中,该计算平台进行了大量的智能决策,对数据进行了筛选和压缩,才达到大规模减少实际算力开销,并加快计算速度的目的。
用这么一个计算平台来拟合,不就相当于用智能解译模型来拟合智能解译模型自己么?拟合准确率当然是100%了。
当时,王栋很坦率地把情况通报给了李晓军,并劝他把刚才那个消息撤回来,今后也别再用这个计算平台进行拟合实验了。
李晓军从善如流,在消息发出二十几分钟后就把它撤了回来。
然而,在别的研究者看来,这就是一个学术大乌龙。
对这任务非常上头的那些人,一致认为李晓军是在对他们发动群嘲技能,所以一个个恨得牙痒痒的,找到机会就要刺上两句。
王栋对此也没什么好办法,他总不能自曝身份跑过去替李晓军辩解吧。
看着在台上低着头一言不发的李晓军,王栋觉得自己似乎欠了他一份人情。