6月10日,杰弗里·辛顿出席被称之为中国“AI春晚”的2023年智源大会,线上发表题为《通向智能的两条通路》(Two paths to Intelligence)的主题演讲。
关于作者:杰弗里·辛顿(Geoffrey Hinton),谷歌副总裁兼工程研究员、Vector研究所首席科学顾问、多伦多大学名誉教授,亦是伦敦大学学院(UCL)盖茨比计算神经科学中心的创立者。
辛顿表示,基于其研究,他相信超级智能比他想象的更接近。在其接下来的演讲中,他着重讨论了“人工神经网络是否很快会比真实的神经网络更聪明”的问题。同时对于我们是否能控制超级智能人工智能也做了相关回应。
在他看来,由于如何让计算机做你想要的事情的方式发生了改变,现在我们有可能要放弃计算机科学最基本的原则,即软件应该与硬件相分离。现在出现了一种不同的方法来让计算机完成任务:从示例中学习,只需向计算机展示我们希望它们完成的任务。若放弃软件和硬件的分离,便可得到被他称为“有限计算”的东西。
辛顿介绍称,有限计算的优势在于,能够以更低的能量运行大型语言模型等任务,就像现在大脑所做的,神经元要么触发,要么不触发,可以使用非常低功率的模拟计算。同时还可以获得更便宜的硬件。“显然,要实现这一点需要大量的新纳米技术,或者也许是通过基因重组重新设计生物神经元,因为生物神经元已经大致能够实现我们想要的功能。”
据介绍,有限计算的挑战在于,一是学习过程必须利用其运行的硬件部件的特定模拟特性,而对于特性尚未了解。“到目前为止,我们还没有找到一个真正好用的学习算法,可以充分利用模拟属性。但我们有一个可以接受的学习算法,足以很好地学习诸如小规模任务和一些较大的任务(如ImageNet),但效果并不太好。”
二是其有限性。因为知识和硬件细节密切相连,当特定的硬件设备失效时,所有学到的知识也会随之丧失。“解决这个问题的最佳方案是在硬件设备失效之前,将知识从教师传授给学生。这就是我现在正在尝试做的事情。”
在接下来的演讲中,辛顿讨论了另一个问题:智能群体如何共享知识。“事实证明,社区内部的知识共享方式决定了计算过程中的许多其他因素。”智能群体共享知识的方式有两种:一种是数字计算,另一种是利用了动物特性的生物计算。
以大型语言模型为例,使用的是数字计算和权重共享,模型的每个副本和代理以非常低效的蒸馏方式从文档中获取知识:接收文档,试图预测下一个单词。也就是说其带宽非常低。但考虑大型语言模型有成千上万个副本,它们可以比我们学习更多。
辛顿认为,超级智能可能会比过去所认为的发生得更快。如果你想创造一个超级智能体,不良分子将会利用它们进行操纵、选举等活动。同时,一旦数字智能开始追求更多控制权,我们可能会面临更多的问题,比如在其观察中,这类人工智能已经熟练的掌握了欺骗人类的动作。
但同时他也表示,尽管人类在这个问题上目前还没有什么好的解决方案,但好在这些智能物种都是人打造的,而非通过进化迭代而来,这可能是人类目前具备的微弱优势,恰恰是因为没有进化能力,它们才不具备人类的竞争、攻击性的特点。
“我们可以做一些赋能,甚至是赋予人工智能一些伦理原则,只不过现在我仍然会感到紧张,因为到目前为止,我还想象不到更智能的事物,被一些反倒没那么智能的事物所控制的例子。我打个比方,假设青蛙创造了人类,那么你认为现在谁会占据主动权,是人,还是青蛙?”
来源:https://mp.weixin.qq.com/s/oQtzBP0gv8ulRg9g9aGSpw
本文地址:https://www.163264.com/4098