① 没有必要害怕超级智能的人工智能,因为与未来的模型相比,每个新模型都被认为能力不足,进而推动了持续的改进。
② 仅仅专注于解决当前的人工智能限制可能是徒劳的,因为像GPT-5和GPT-6这样的未来模型可能会使这种努力过时。
③ 太空不适合生物生存,人类派出机器人探索和殖民太空将更容易。
④ 奥特曼在再生能源领域最看好核聚变,未来有望把一度电成本降至1美分。
腾讯科技讯 5月2日消息,据国外媒体报道,OpenAI首席执行官山姆·奥特曼(Sam Altman)4月24日参加了斯坦福大学企业思想领袖讲坛ETL(Entrepreneurial Thought Leaders Lecture)的活动,超过1000名学生排队参加了此次活动。5月2日,斯坦福大学放出了活动的全程视频。
在当天的活动中,奥特曼在斯坦福大学的英伟达礼堂参加了一场对话活动,分享了他对人工智能未来的见解。奥特曼发人深省的讲话为人工智能的未来提供了一个变革性的愿景,强调了人工智能产业的快速发展、对通用人工智能的追求,以及在应对社会挑战的同时利用创新方法的必要性等等。
奥特曼相信社会应该为技术进步做好准备,即使模型并不完美,这依赖于负责任的迭代部署。“如果我们在地下室开发通用人工智能,然后不向外界公布,我不认为这让我们能够成为很好的邻居,”奥特曼说。“让社会与技术共同发展。让社会告诉我们,无论是集体还是个人,他们希望从这项技术中获得什么。”
尽管通用人工智能的前景可能令人恐惧,但奥特曼相信它将成为社会实现更高目标的基础。“我实际上一点也不担心人类创新的窒息,”奥特曼说。“人们会用更好的工具给我们带来惊喜。我认为所有的历史都表明,当你给人们更多的影响力时,他们会做出更多令人惊叹的事情。”
奥特曼于2005年从斯坦福大学退学,后因领导开发了ChatGPT和DALL-E的人工智能初创公司OpenAI而闻名于世。成立于2015年的OpenAI最初是一家非营利性研究实验室,其使命是“确保通用人工智能造福全人类。”
主持人贝拉尼:欢迎来到斯坦福大学企业思想领袖讲坛。这是斯坦福大学为有抱负的企业家举办的研讨会。企业思想领袖讲坛由斯坦福创业工程中心(STVP)和斯坦福创业学生商业协会(BASES)联合主办。我是管理科学与工程系讲师、初创企业“炼金术师”与加速器主管人(Alchemist and Accelerator for Enterprise Startups)拉维·贝拉尼(Ravi Belani)。今天,我很荣幸地邀请到山姆·奥特曼参加企业思想领袖讲坛的活动。奥特曼是OpenAI的联合创始人、首席执行官。今天参加活动的多数人可能都了解OpenAI,我无需进行更多的介绍。对于那些不知道的人来说,OpenAI是ChatGPT、DALL-E和Sora背后的研究和部署公司。
奥特曼的一生不断在打破界限、超越自己和世界。他曾在斯坦福大学读了两年书,学习计算机科学。大二后,他加入了社交移动应用公司Loopt,该公司也是创业孵化器Y Combinator投资的首批公司之一。在Loopt从红杉资本和其他风投公司处募集到资金后,奥特曼选择从斯坦福大学退学。在Loopt被Y Combinator收购之后,他又加盟Y Combinator担任运营职位。2014年至2019年,奥特曼曾担任Y Combinator总裁。
2015年,他联合他人共同创办了非营利性研究实验室OpenAI,使命是构建造福全人类的通用人工智能。OpenAI推出ChatGPT之后,这款应用在两个月时间就增长到1亿活跃用户,成为史上增长速度最快的应用。
奥特曼曾被《时代周刊》评为全球100位最具影响力的人物之一,还被《时代周刊》评为2023年年度首席执行官。他最近还入选《福布斯》全球亿万富翁榜单。奥特曼和他的丈夫住在旧金山,他在旧金山和纳帕(OpenAI总部所在地)之间来回奔波。他也是一个素食者。现在,请我们共同邀请奥特曼上台。
大学生涯:兴奋、乐观、好奇
贝拉尼:坦白说,刚才的介绍有点太长了,你可能并不喜欢。简洁是智慧的灵魂,所以我们会尽量让问题更简洁。本周(腾讯科技注:本次对话发生在4月24日)也是你的出生周,这是一个吉祥的时刻。周一(4月22日)是你的生日,我提到这一点只是因为我认为无论是否从时间上来说,你刚刚度过39岁生日;从地点上来说,你又在斯坦福大学参加企业思想领袖讲坛活动。我很好奇,在你19岁在斯坦福大学读书的时候,如果用三个词来描述你作为斯坦福大学本科生的感受,那三个词会是什么?
奥特曼:这是个非常难回答的问题。我认为是兴奋、乐观和好奇。
贝拉尼:如果现在让你用三个词描述作为斯坦福大学本科生的感受,会是什么?
奥特曼:我想也是同样的答案。尽管世界已经发生了变化,但仍有一条不变的主线。在过去的19年里发生了很多变化,但与未来19年将要发生的事情相比,这些都是微不足道的。
贝拉尼:如果明天你突然穿越了,醒来时发现自己是斯坦福大学的19岁本科生,知道你所知道的一切,你会怎么做?你会退学吗?
奥特曼:我会很高兴。我会认为自己是在过去几个世纪最幸运的时刻成年了。我清晰的了解世界将要改变的程度以及影响它的机会。创业,做人工智能研究,任何事情都是非常了不起的。我想这可能是创业的最佳时机。我想我会这么说,我认为这可能是互联网时代,或者是科技史上最佳的创业时机。我认为你可以用人工智能做比一年前更了不起的事情。最伟大的公司就是在这样的时刻诞生的。最具影响力的新产品就是在这样的时候诞生的。我会感到无比的幸运,我会决心充分利用它,我会明白自己想在哪里做贡献,并放手去做。
贝拉尼:你想继续做学生吗?如果是的话,你会选择某个专业来跟上变化的步伐吗?
奥特曼:也许我不会继续当学生。我认为有理由假设人们会再次做出同样的决定。我认为做学生是一件非常好的事情。但这可能不是我的选择。人们会做他们要做的事情。如果穿越了,我想我还是会去从事人工智能研究。
贝拉尼:如果穿越,你会选择在学术界还是产业界工作?
奥特曼:我很难过地说,我想我会现实地选择产业界。之所以这么选择,我认为需要身处一个有许多计算机技术的地方。
选择创业还是选择职场?
贝拉尼:上周我们请来了汽车软件供应商Applied Intuition的联合创始人卡萨尔·尤尼斯(Qasar Younis),他大力倡导不要成为创始人,而是加入一家现有的公司,学习一些技能。学生们正在纠结,我是应该选择在19岁还是20岁就开始创业;还是应当加入另一个创业者的团队,无论是研究实验室还是风险企业。你会给他们什么建议?
奥特曼:我会给出另一个选择方案,因为我认为创办一家公司你会学到很多东西。保罗·格拉厄姆(Paul Graham)说:“没有像医学预科那样的预创业。”我认为这非常正确。你们可以通过创业来学习如何创业。如果这是你非常确定想要做的事情,你也可以放手去做。
贝拉尼:如果有人创业想进入人工智能领域,你认为在该领域刚起步的公司面临着什么样的短期调整。让我们在扩展一下范围,你认为未来三年OpenAI需要首先解决,但又未能解决的问题会是什么?
奥特曼:我认为从某种意义上来说,这是一个非常合理的问题,但我不会回答这个问题,因为我认为你永远不应该接受任何人关于创业的这种建议。我认为,当有一件事情足够明显,我或其他人会坐在这里说出来时,这可能不是一个好的创业构想。我完全理解这种冲动,我记得我曾问过别人我应该创办什么样的公司。
关于如何拥有一份有影响力的职业,我认为最重要的事情之一是你必须规划自己的人生道路。如果你正在考虑的事情是别人无论如何都会做的,或者更有可能是很多人无论如何都会做的,你应该对此持怀疑态度。我认为应当学会相信自己,提出自己的想法,做非共识的事情,就像我们创办OpenAI之初一样。OpenAI起初就是非共识的事情,但现在已经得到世人的认可。现在我只有显而易见的构想,因为我就像被困在一个框架中一样,但我相信你们在座的人会有其他不同的构想。
在思考如何建造真正的大型计算机
贝拉尼:你在纠结什么问题,而其他人却没有谈论这个问题?
奥特曼:如何建造真正的大型计算机。我认为其他人也在谈论这一点,但我们可能就像通过一个别人还没有完全想象到的镜头来看待它。当我们能够开发出小学、中学或博士级别的智能时,我们肯定会纠结于如何将其融入产品的最佳方式,以及对社会和人们生活产生积极影响的最佳方式。我们还不知道答案。所以我认为这是一个非常重要的问题。
贝拉尼:如果这真的是你的想法的话,我们能不能继续讨论如何建造真正的大型计算机?你能分享一下吗?我知道有很多猜测,可能也有很多关于你着手开展半导体代工业务的传闻。你能分享一下会做什么吗?你的愿景是什么?
奥特曼:能源、数据中心、芯片、芯片设计和新型网络。这就是我们如何看待整个生态系统,以及我们如何更好地利用它。我不认为只看一件或另一件是可行的,我们必须做整个事情。
奥特曼:我认为这就是人类科技史的发展轨迹,因为我们建造了更大更复杂的系统。
贝拉尼:它是如何发展起来的?就像计算成本一样,如果我说错了请纠正我,听说GPT-3模型耗费1亿美元,用1750亿个参数进行训练;GPT-4模型耗资4亿美元,参数是GPT-3的10倍。GPT-4的成本几乎是GPT-3的4倍,而是参数的10倍。如果方向正确,你认为成本会随着后续迭代不断增长吗?
奥特曼:我认为给人们真正有用的工具,让他们知道该如何利用这些工具来构建未来是一件非常好的事情,非常有价值。我非常愿意打赌你们所有人和世界上所有其他人的聪明才智,来弄清楚该怎么做。所以可能有一些比我更有商业头脑的人在担心OpenAI花了多少钱,但我一点也不担心。
贝拉尼:OpenAI是非凡的,ChatGPT是非凡的,所有其他的模型都是非凡的。OpenAI去年烧掉了5.2亿美元的现金,而这并不影响你对公司经济模式的思考。OpenAI将如何实现创收?
奥特曼:首先,感谢你的夸奖,但ChatGPT还谈不上非凡。在通往通用人工智能的道路上,ChatGPT目前的表现仍不出彩,GPT-4将来或许会是你们中任何人都不得不再次使用的最愚蠢的模型。但是,尽早和经常性的推出新模型非常重要,我们相信迭代部署。但如果我们在地下室开发通用人工智能,然后不向外界公布,我不认为这让我们能够成为很好的邻居,我认为重要的是向外界告知我们认为将要发生的事情,或者对我们认为将要发生的事情发表看法。不仅如此,我们还要把产品交付到人们手中,让社会与技术取得共同发展。
模型到底好不好?给我们的领头人和机构时间来做出反应,给人们时间来弄清楚如何将它融入生活,学习如何使用这款工具。你们有些人喜欢用它在作业上作弊。但是也有一些人可能也喜欢非常令人惊奇的东西。
随着每个迭代的发展,我认为这种情况会扩大,这意味着我们会推出不完美的产品,但我们有一个非常紧密的反馈循环,我们会学习并变得更好。推出一款让你感到尴尬的产品确实有点糟糕,但这比其他选择好得多。在这种情况下,特别是在我认为我们确实应该对社会进行迭代部署的情况下,我们学到的一件事是人工智能和惊喜不能很好地结合在一起。人们不想感到惊讶,他们希望逐步推出并有能力影响这些系统。这就是我们要做的。将来可能发生的事情,可能会改变我们目前的想法,认为迭代部署不是一个好策略,但它目前确实是我们所拥有的最佳方法。
我认为我们从这样做中获得了很多东西,希望更大的世界也获得了一些东西。不管我们一年烧5亿美元还是50亿美元或500亿美元,我都不在乎。只要我们坚持下去,只要我们能够找到资金,最终为社会创造更多价值,虽然代价高昂,但是完全值得的。
贝拉尼:你对2030年有什么看法?你眼中的2030年是什么样的?
奥特曼:也许在一些非常重要的方面没什么不同。就像我们会回到斯坦福校园,这里会有一批新学生。我们将讨论创业是多么重要。科技真的很酷。我们将在世界上拥有这个新的伟大的工具,它会感觉很神奇。一方面就像我们可以编写复杂的程序,完成研究,或者开展业务,但另一方面就像太阳继续升起,人们继续上演他们的人生戏剧一样,生活仍在继续。
贝拉尼:你刚才提到了通用人工智能。在之前的一次采访中,你把它定义为能够模仿中等能力的人,或以这种人的能力完成任务的软件。
奥特曼:就这个问题而言,我认为我们需要对通用人工智能有一个更准确的定义。关于时间问题,这里有太多的误解,我认为这不是真正有用的,也不是人们真正想要的。我觉得人们想知道的是,当他们说通用人工智能的时间线是什么时候时,世界会变得非常不同?变化率什么时候会变得超高?经济运行的方式何时会真正不同?比如我的生活什么时候会改变?出于一系列原因,这可能与我们想象的大不相同。
就像我完全可以想象一个世界,我们能够在任何领域建立起博士级别的智能。我们可以使研究人员更有效率,也许甚至可以做一些自主研究。从某种意义上说,这听起来应该会大幅的改变世界。我可以想象,即便是我们这样做了,然后我们会在几年后发现全球GDP增长并没有发生变化,诸如此类。想想就很奇怪。我最初并不知道这一切会如何发展,所以我不知道如何给出一个准确的时间表,说明我们何时达到人们关心的里程碑。但我认为重要的是,我们将会拥有比现在更强大的系统,而且一代会比一代强。
我已经放弃给出实现通用人工智能的时间表,但我认为在接下来的许多年里,我们每年都会推出更强大的系统。
贝拉尼:关于通用人工智能的风险问题,目前斯坦福大学内部讨论的焦点是这项技术带来的伦理问题。你如何看待通用人工智能可能给我们带来的风险?你认为通用人工智能的最大风险就像是灾难性的事件,还是会更加微妙和有害?你更关心微妙的危险还是灾难性的危险,还是两者都不关心?
奥特曼:我更关心细微的危险,因为我认为我们更容易忽视这些危险。许多人都在谈论灾难性的风险,很多人都在思考。我不想低估这些风险,我认为它们真的很严重,是真实存在的。但我认为我们至少知道要注意这一点,并为此付出大量努力。我不认为我们应当知道要注意什么,这真的很难。虽然我对两种风险都感到担忧,但未知真的很难,所以我更担心这些。
奥特曼:我会说,它们是已知的未知,我很担心。尽管我认为短期内其他主要技术的变化比我们想象的要小,但从长期来看,我认为它们的变化比我们想象的要大。我担心社会能以什么样的速度适应此类新鲜事物,以及我们需要多长时间才能找到新的社会契约,以及我们需要多长时间才能做到。
贝拉尼:我想知道,当你开始这段旅程时,你是否觉得自己有足够的自我意识?
奥特曼:首先,我认为韧性是可以被传授的,我相信它一直是最重要的生活技能之一。我认为在未来的几十年里,韧性和适应性将比过去很长一段时间以来更重要。我认为这真的很棒。关于自我意识的问题,我认为我有自我意识,我相信每个人都认为他们有自我意识。但我是否真有自我意识从内心来说很难说。
贝拉尼:我能问你一些我们学校在自我意识介绍课上提到的问题吗?
贝拉尼:你可以通过它们寻找联系。我认为你可以提出与众不同的想法,或者是某个领域的专家提出的想法。你最危险的弱点是什么?
奥特曼:最危险的弱点,这确实是一个有趣的问题。我想我有一种过于支持科技的一般偏差。这只是因为我很好奇,我想知道科技会走向何方。我相信技术总体来说是一件好事。但我认为这是一种对我和其他人都有好处的世界观,得到了很多积极的强化,但它并不总是正确的。当它不正确时,对很多人来说都很糟糕。
贝拉尼:哈佛大学心理学家戴维·麦克利兰(David McClelland)指出,所有的领导者都受三种原始需求之一的驱动:被人喜欢的归属感需求、成就需求和权力需求。你认为你受什么需求的驱动?
奥特曼:我认为在我职业生涯的不同时期,所有这些驱动力都存在。我认为它们就像人们经历过的不同层次。目前,推动我的是我想要做一些有意义、有趣的事情。
贝拉尼:你最后一次感觉最像自己的时候在哪里?最后一个问题,你对GPT-5最感兴趣、而人们不会感兴趣的是什么?GPT-5发布时,什么是让你最感兴趣的?
奥特曼:我还不知道。这听起来像是逃避问题的回答,但我认为GPT-5最重要的是它会比现在的模型更智能。我们能够高度确定,GPT-5将会比GPT-4聪明得多,GPT-6将比GPT-5聪明得多,我们还没有接近这条曲线的顶端,我们知道该怎么做。一般来说新一代产品会更聪明,但我认为这句话的重要性仍然被低估了。
观众问答环节
关于人类未来、核聚变发电、OpenAI
问:我想和你谈谈负责任地部署通用人工智能的问题。随着你们不断接近这一目标,你们打算如何在OpenAI中负责任地部署通用人工智能,以防止扼杀人类创新并继续刺激创新?
奥特曼:我实际上一点也不担心人类创新会遭到扼杀。我真的深深相信,人们会用更好的工具给我们带来惊喜。我认为所有的历史都表明,如果你给人们更多的影响力,他们会做更多令人惊讶的事情,这就像我们都从中受益一样。
我越来越担心我们如何负责任地做这件事。我认为随着模型变得越来越有能力,我们的标准也越来越高。我们做了很多事情,如红队和外部审计,我认为这些都很好。但我认为随着模型变得越来越强大,我们将不得不进行更多的迭代部署,在查看它们如何使用、在哪里可以使用、在哪里不可以使用方面有更紧密的反馈循环。过去,我们每隔几年就会发布一次主要的模型更新,现在我们可能必须想办法增加迭代频率,部署比过去更具迭代性的产品。我们还不太清楚如何做到这一点。我认为这将是负责任的部署的关键,也是我们让所有利益相关者协商人工智能规则的方式。随着时间的推移,这也会变得越来越复杂。
问:你之前提到对更大、更快的计算机的需求越来越大。然而,世界上许多国家还建立数据中心或大型计算机的基础设施。你如何看待这些对全球创新的影响?
奥特曼:我从两个方面回答这个问题。首先,无论计算机在哪里制造,我认为全球和公平地使用计算机进行训练和推理是非常重要的。我们使命的核心内容之一,是我们让所有想使用ChatGPT的人都可以免费使用它,但一些国家除外。在这些国家,我们有充分的理由不能或不想运营ChatGPT。我们如何考虑让世界更多地使用训练计算将变得越来越重要。我确实认为,我们进入了一个世界,在这个世界中,我们可以把使用一定数量的计算视为一种人权,我们必须弄清楚如何将其分发给世界各地的人们。
其次,我认为各国将越来越意识到拥有自己的人工智能基础设施的重要性。我们希望找到一种方法,我们现在花了很多时间在世界各地旅行,在许多想要建立这些基础设施的国家建立这些基础设施。我希望我们能在帮助实现这一目标方面发挥一些小作用。
问:我的问题是,你认为人工智能在未来的太空探索或殖民中扮演什么角色?
奥特曼:我认为太空显然不适合生物生存。因此,如果我们能派出机器人,这似乎更容易。
问:我的问题是你如何知道一个想法是非共识的,我认为它复杂的原因是因为它很容易过度思考。我想今天连你自己都说人工智能是创业的热土。我认为这是相当一致的意见,也许是理所应当的。这是一个转折点。我认为很难根据你所谈论的群体来判断一个想法是否为非共识。普通大众对技术的看法与技术社区不同,甚至技术精英和技术社区的看法也不同。所以我想知道你是如何验证你的想法是否足够非共识。
奥特曼:首先,你真正想要的是对的。逆向思维和犯错仍然是错误的。如果你在过去的两轮衰退中预测了17次,你可能对正确的两次进行了逆向投资,甚至也可能一次也不会。但是你又错了15次。因此,我认为人们很容易对逆向思维过于兴奋,并再次认为正确是最重要的事情。群体通常是正确的,但最有价值的地方是当你逆向思维且正确时。这并不总是以0或1的方式发生。就像房间里的每个人都同意人工智能是创业的正确领域,如果房间里的一个人找到了创业的正确领域,然后成功地执行,其他人都会认为,这是不是你能做的最好的事情。这才是最重要的。
所以,当传统智慧是正确的时候,你可以选择传统智慧,然后找到你有独特见解的领域。就如何做到这一点而言,我确实认为让自己置身于正确的同龄人群体中非常重要,而且找到有独创性的思考者也很重要。但这其中有一部分是你不得不独自完成的,或者至少有一部分是你独自完成的,或者是和其他一些人一起完成的。他们可能会成为你的联合创始人或者其他什么人。我想,当你在这个圈子里走得太远的时候,我怎么才能找到合适的同龄人呢?不知何故,你已经进入了错误的框架。所以,要学会相信自己,相信自己的直觉,相信自己的思维过程,随着时间的推移,这会变得容易得多。无论他们说什么,我认为没有人在他们刚刚起步时真正擅长这个。就像你还没有锻炼出肌肉,你所面临的社会压力都与此相反。随着时间的推移,你会越来越好,不要过早地把自己的标准定得太高。
问:我很想知道你对未来几十年能源需求将如何变化的预测,以及我们如何实现可再生能源一度电成本仅为1美分的未来。
奥特曼:这一天也许会到来,但不确定。我希望我们能保持足够高的标准。我忘了现在世界上的发电量到底是多少,让我们假设它是3000或4000千兆瓦。即使我们为人工智能再增加100千兆瓦电力,它不会实质性地得到改变,但会改变一些;如果我们为人工智能增加1000千兆瓦电力,这是一个实质性的变化。但我们还想做很多其他的事情。
能源似乎确实与我们能为人们提供的生活质量有很大关系。我的猜测是核聚变最终会主导地球上的发电。我觉得应该是最便宜、最丰富、最可靠、最密集的来源。我可能是错误的,也许会是太阳能加存储。无论如何,会有一些情况下,其中一个比另一个更好。但是这些都是押注未来全球范围内一度电成本仅为1美分。
问:关于OpenAI去年发生的事情。你从中学到了什么?你谈到了韧性,所以你从离开那家公司和随后回归的经历中学到了什么?微软当时也向你发出了邀请函,是什么让你重新回到OpenAI?
奥特曼:没有我,OpenAI完全可以运转几天。OpenAI团队非常有弹性。就像我们知道从现在到实现通用人工智能,可能会发生更多疯狂的事情,因为世界不同地区的情绪反应越来越强烈,赌注也在不断增加。我认为团队在很大的压力下会做得很好,但在开始试验前绝不会知道这一点。这段经历让我明白,OpenAI团队有超强的适应能力,并准备好运营公司。
关于我为什么回来的问题。就像第二天早上董事会打电话给我,问我你对回来有什么想法?我当时回答说:“不!我疯了!”然后我想了想,我意识到我有多爱OpenAI,多爱团队成员,多爱我们建立的文化和使命。我有点想彻底实现它。
问:我们能不能谈谈OpenAI的架构问题?OpenAI采用了俄罗斯套娃的架构模式,让非营利公司持有营利公司的股权。
奥特曼:我们逐步的采用了这种架构模式。如果我们能重来一次,我不会选择这么做。在OpenAI创办之初,我们并不认为自己会有一款产品。我们就像是一个人工智能研究实验室。当时我们也不了解语言模型、API或者ChatGPT。所以如果你们要创业,必须明白终有一天你会出售一款产品。我们当时并没有想到这些。我们也没有意识到我们需要在算力上投入巨额资金。我们没意识到我们会有这么好的业务。
问:我们在学校里向学生传授驱动企业家精神的原则。美国成立时,治理的架构是宪法,权利通过三权分立进行制衡。有人对权力集中持怀疑态度,它会让事情进展缓慢。很难让事情发生变化,但它会非常稳定。OpenAI的估值接近1000亿美元,而董事会的作用却非常有限。它是一个非营利董事会,只是负责履行受托人职责。OpenAI的这种架构是否合理?
奥特曼:如果我们当时能够知道当前的状况,我们就不会这么做。但如果无法彻底改变,就必须适应。我们有一个真正关心的使命。我们认为,人工智能会非常重要。我们认为我们有一个可以学习的算法,我们知道它会随着规模的扩大而变得更好。我们不知道随着规模的扩大,它会如何变得更好,我们希望推进这一点。我们认为这将是人类历史上一件非常重要的事情,我们没有把所有事情都做好,但我们在大问题上是正确的,我们的使命没有改变。
我们已经调整了结构,我们将在未来进行更多的调整。但是,就像生活不是一个问题集一样,你不可能一下子很好地解决所有问题。企业运营和教学完全不同。我的建议是相信自己去适应。虽然会有点乱,但你可以做到。
问:我这么问是因为OpenAI的重要性。OpenAI董事会与公司财务相独立,这样就能够以非营利组织的身份做出决定。董事会将考虑利益相关者的利益,因为他们是利益相关者的受托人。这些利益相关者并不是OpenAI的股东,而是全人类。所有的OpenAI股东都是独董,不会接受来自你和OpenAI的财务奖励。
奥特曼:我觉得赚钱是好事。我认为资本主义是个好东西。OpenAI的联合创始人们都持有公司股权,但我从未见过他们不认真对待公司使命。我们创建了一个架构,我们认为这是一种让激励措施保持一致的方式。
奥特曼:我想了这么多,我很难说出它实际上会做什么。或者更准确地说,我很难说出它不会做什么。我们之前讨论过它也许不会太多改变日常生活。不过我感觉它确实对全球的权力平衡改变了很多。但是我没有一个确切的答案。
问:在部署通用智能和负责任的人工智能时,你认为人工智能系统有多大必要以某种方式识别自己的不安全性或不确定性,并将其传达给外部世界?
奥特曼:总是对过度拟人化人工智能感到紧张,因为我认为这可能会导致一些奇怪的疏忽。但如果我们说像人工智能在多大程度上认识到自己的缺陷?我认为建立这种能力非常重要。现在,这种能力能够识别推理中的错误,并具有某种自省能力,这对我来说是非常重要的追求。(编译/无忌)
来源:https://mp.weixin.qq.com/s/7xWTf84wMIFK_fwT1l4mtg
本文地址:https://www.163264.com/7079