Custom Thumbnail

萨姆·奥尔特曼深度专访:谈OpenAI创业、埃隆·马斯克和特朗普时期的人工智能

2022年11月30日,OpenAI网站的访问量仅为个位数。彼时,这家初创公司规模如此之小、日常也没什么动静,以至于公司高管都未曾关注过网站的流量。那是最后一个平静的日子。

接下来的两个月内,超过一亿访客涌入OpenAI,体验ChatGPT并为之震撼。从那时起,一切都改变了,尤其是萨姆·奥尔特曼的生活。在这次任职期间最全面的访谈中,奥尔特曼详述了他备受关注的“四天离职风波”,分享了他执掌OpenAI的经验,阐述了他对特朗普-马斯克政府时期的应对策略,以及他对通用人工智能(AGI)坚持不懈的追求。

您的团队建议,现在是回顾过去两年、反思一些事件和决策、澄清一些事情的好时机。但在我们这样做之前,您能否再次讲述OpenAI成立晚宴的故事?因为随着时间的推移,这段历史的价值越来越高。

每个人都想要一个精彩的故事,其中某件事情发生的那一刻。保守估计,那一年(2015年)大概有20次成立晚宴,然后其中一次最终被载入史册,也就是每个人都在谈论的那一次。对我个人来说,最重要的一次是伊利亚·苏茨克弗(Ilya Sutskever)和我在山景城的The Counter餐厅。只有我们两个人。

回想起来,我一直对人工智能非常感兴趣。我在本科时就学习过它。有一段时间我分心了,然后就到了2012年。伊利亚和其他人开发了AlexNet。我一直在关注这一进展,心想:“深度学习似乎是真的。而且,它似乎可以扩展。这是一件非常重要的事情。应该有人做点什么。”

所以我开始跟很多人会面,询问谁适合一起做这件事。2014年,你无法想象AGI有多么不受主流关注。人们害怕与我交谈,因为我说我想开始一个AGI项目。这简直是痴人说梦,它可能会毁掉你的事业。但很多人说,你真的必须和一个人谈谈,那就是伊利亚。所以我在一场会议上跟踪伊利亚,在走廊里把他叫住,聊了起来。我说:“他是个聪明人。”我大致告诉他我在想什么,我们同意一起吃顿饭。在我们第一次晚餐时,他基本上阐述了我们构建AGI的策略,虽然不是现在说的这种术语。

那次晚餐的精神在公司中至今还剩下什么?

差不多都有。除此之外还有更多的东西,我们相信深度学习,相信通过特定技术方法可以实现这一目标,相信可以走研究和工程结合这条路。这些想法的效果让我难以置信。通常情况下,这些想法并不会完全奏效,显然我们最初的想法有些地方也的确根本行不通,包括公司架构等等。但是我们相信AGI是可能的,这是值得押注的方向,如果可能的话,它是否将对社会产生重大影响?现在已经被证明是正确的。

最初OpenAI团队的优势之一是招聘。不知何故,你们成功地垄断了大量顶尖人工智能研究人才,而提供的薪酬往往远低于竞争对手。你们的宣传策略是什么?

宣传口号就是来构建AGI。当时我们说自己要构建AGI,兼职就是异端邪说。而它之所以有效,正是因为这样恰好过滤掉了99%的人,只留下真正有才华、有独创思想的人。这非常强大。如果你去做别人都在做的事情,比如去开发第10000个照片分享应用程序,那么招募人才就真的很难。而如果我说服他们没有人这样做,并吸引一小部分真正有才华的人,那么你就可以把他们招到手里。他们都想一起工作。所以我们当时有一个听起来大胆或荒谬的主张,它排斥了该领域的所有资深专家,我们得到了那些适合从头开始的、不成体系的、年轻有为的人。

你们花了多久才确定各自的角色?

大多数人都是全职投入的。我当时还有另一份工作,所以一开始参与得很少,但随着时间推移,我投入得越来越多。到2018年,我已经完全投入其中。在最初那段时期,我们就像《兄弟连》里的战友一样。虽然伊利亚和格雷格·布罗克曼(Greg Brockman)在带领团队,但每个人都能自主行动。

看来你对最初几年抱有一种浪漫的情怀。

的确,那绝对是OpenAI历史上最美好的时光。我的意思是现在也很有趣,但我认为,能亲身参与有史以来最伟大的科学发现之一(相对于它对世界的影响而言),这种经历千载难逢。那需要足够幸运,非常非常幸运。

2019年你接任CEO,这是怎么发生的?

我当时在同时管理OpenAI和Y Combinator,这确实很有挑战。我完全被“我们真的要打造AGI了”这个想法吸引。有趣的是,我记得当时我们预计会在2025年实现这个目标,但这其实只是基于我们最初设定的10年期限随便选的一个时间。那时候,大家经常开玩笑说我唯一会做的就是走进会议室喊:“扩大规模!”虽然这不完全准确,但确实反映了当时的主要方向。

ChatGPT在2022年11月30日正式发布。现在回想起来,感觉像是一百万年前还是就在昨天?

[笑]我明年就40岁了。30岁生日时,我写了篇博客,标题是“日子很长,但十年很短”。今天早上有人发邮件给我说:“这是我最喜欢的博客文章,我每年都会读。40岁时你会写一篇更新吗?”我笑了,因为我肯定写不了更新了,根本没时间。不过如果要写,标题就得改成“日日漫长,而十年也同样漫长”。所以确实感觉过了很久。

萨姆·奥尔特曼深度专访:谈ChatGPT创业前两年、埃隆·马斯克和特朗普时期的人工智能
2023年3月13日,OpenAI高级管理人员在其位于旧金山的公司总部。

当第一批用户开始涌入,而且明显这将成为一个重大突破时,你有没有“天啊”的感觉?

嗯,有几件事。首先,我觉得它会很成功!但公司其他人却说:“为什么要让我们现在发布?这是个糟糕的决定,还没准备好。”我很少强制做决定,但这是其中之一。

YC有个保罗·格雷厄姆(Paul Graham)经常画的著名图表,展示了潜力的起伏、新鲜感的消退、长期低迷,然后是真正的产品市场匹配,最后开始腾飞。这是YC的经典理论。在ChatGPT运行的最初几天,使用量白天高晚上低。团队当时的反应是:“哈哈,在下降了。”但我从YC学到一点:如果每个新低点都高于之前的最高点,那就意味着发生了非常不一样的事情。最初五天就是这样,我想:“我们手上有些特别的东西,我们可能还没意识到。”

这引发了一场疯狂的竞争,要获得大量当时并没有的计算资源。因为我们推出产品时,根本没有商业模式或相关想法。我记得12月的一次会议,我说:“我愿意考虑任何能解决支付这笔费用的想法,但我们不能继续这样下去了。”有人提了一些很糟糕的想法,最终也没有好的解决方案。所以我们就说:“好吧,先试试订阅模式,其他以后再说。”就这样定下来了。我们发布了GPT-3.5,并知道GPT-4即将推出,所以确信情况会更好。当我开始和用户交流他们使用产品的方式时,我意识到:“这些都是我们能够改进的地方。”我们一直在快速改进,这最终引发了全球性的关注,不管你怎么称呼这个现象。

你是一个享受成功的人吗?你能接受它吗?还是已经在担心下一阶段的扩张?

关于我的职业生涯有一件很特别的事:通常人们是先经营一家大型成功公司,到了50或60岁厌倦了拼命工作,才去做风险投资。而我是先做风险投资,有了相当长的从业经历,然后才来经营公司,这不太常见。这种经历有许多挑战,但也给了我一个独特的优势:我能预见将要发生在自己身上的事,因为我曾观察和指导过许多人经历这个过程。我知道自己既兴奋不已,又在想:“天啊,我将被绑在火箭上,我的生活会彻底改变,而且可能不会那么有趣。”我经常用黑色幽默来看待这件事。

我的丈夫会讲一些那时的趣事,说我回到家,他会说:“这太棒了!”而我却说:“这真的很糟。对你来说也一样糟。你现在还没意识到,但确实很糟。”[笑]

你在硅谷已经很出名了,但随着GPT的出现,你以类似塞布丽娜·卡彭特或提莫西·查拉梅这些明星的速度成为了全球名人。这是否影响了你管理员工的能力?

这确实让我的生活变得复杂。但在公司里,无论你是不是知名CEO,人们只关心一件事:“我的GPU在哪里?”

在生活中的其他方面,我都能感受到这种距离,这很奇怪。除了最亲近的人,和老朋友、新朋友在一起时,我都能感觉到这一点。如果和不常接触的同事一起工作,或者和几乎没见过面的团队开会,我也能感觉到这种距离。不过我大部分时间都在和研究人员一起工作,相信我,在研究会议上,你只会看到他们对我的不敬。这反而挺好的。

你还记得自己第一次意识到,一家接受数十亿美元外部投资、向非营利组织董事会汇报的营利性公司可能会出问题的那一刻吗?

肯定有很多这样的时刻。但从2022年11月到2023年11月那一年简直是一场疯狂的混乱,我几乎记不清了。感觉我们实际上是在12个月内从零开始建立了一整家公司,而且是在全世界的注视下完成的。回顾这段经历,我学到一个教训:每个人都说他们不会搞混重要事项和紧急事项的优先级,但最终每个人都会被紧急的事情所左右。我第一次清醒地意识到“这样行不通”是在那个星期五下午12:05左右。

  • 紧急且重要:需要立即完成的任务。
  • 重要但不紧急:需要安排在以后完成的任务。
  • 紧急但不重要:需要授权的任务。
  • 既不紧急也不重要:需要消除的任务。

理解艾森豪威尔矩阵的智慧,然后在事情变得忙碌时忽略它,是一种创业传统。

2023年11月17日,OpenAI董事会在加利福尼亚时间中午通知奥尔特曼,他被立即免去CEO职务。当时他正在参加谷歌会议并观看拉斯维加斯大奖赛,在公开宣布前约5至10分钟收到了解雇通知。

当董事会解雇你担任CEO的消息传出时,大家都很震惊。但你似乎是一个情商很高的人。在那之前,你有没有察觉到任何紧张迹象?你意识到你本人就是紧张的根源吗?

我不认为我是一个情商很高的人,但即使对我来说,这也超出了我能察觉到的紧张程度。你知道,关于安全与能力、董事会的职责以及如何平衡这些问题,我们一直都存在分歧。所以我知道有紧张关系,但由于我不擅长察言观色,可能还有更多我没注意到的。

第一个周末发生了很多令人沮丧的事。关于那段时间的记忆,我可能记错一些细节,他们在星期五中午解雇了我。当晚,许多同事辞职了。深夜时我想:“我们该开始一个新的AGI项目了。”后来,一些执行团队成员说:“等等,我们觉得这事可能还能挽回。让我们冷静一下。”

星期六早上,两位董事会成员打来电话,想讨论我回归的可能。起初我非常愤怒,直接拒绝了。但后来我说:“好吧,可以谈谈。”我确实很在乎OpenAI。不过我提出条件:“除非整个董事会辞职。”现在想来我希望当时采取不同的策略,但当时这要求似乎很合理。

接着我们就董事会的问题进行了争论。我们试图协商组建新的董事会。他们提出了一些我认为荒谬的想法,我也提出了一些他们认为荒谬的建议。但我觉得我们基本达成了共识。然后在我最愤怒的时候,整个星期天都在吵架。

从周六到周日,他们一直说:“快完成了,只是在等法律意见,董事会同意书正在起草中。”我一直在说:“我在维持公司运营。你们掌握着所有权力。你们确定告诉我的是实话吗?”他们回答:“是的,你会回来的。你一定会回来。”

然而到了周日晚上,他们突然宣布任命埃米特·谢尔(Emmett Shear)为新任首席执行官。我当时想:“好吧,这下真完了,”因为这是赤裸裸的欺骗。周一早上,许多人威胁要辞职,然后他们说,“好吧,我们需要改变方向了。”

萨姆·奥尔特曼深度专访:谈ChatGPT创业前两年、埃隆·马斯克和特朗普时期的人工智能
2023年3月10日,OpenAI旧金山办公室。

董事会表示,内部调查发现你在与他们沟通时“并非始终坦诚”。这是个具体的指控,暗示你在撒谎或隐瞒信息,但又很模糊,因为没有说明具体哪些方面不坦诚。你现在知道他们指的是什么吗?

我听过不同的说法。整件事大致是这样的:“萨姆甚至没有告诉董事会他要推出ChatGPT。”我对这件事的记忆和理解都不同。但确实,我没有明确表示“我们即将推出一个重大项目”。我认为很多类似的事情都被不公平地解读了。有一点我更清楚:我对某些董事会成员在我看来存在利益冲突或其他问题的行为表示关切,而他们对我试图将他们赶出董事会的做法感到不满。这件事我确实吸取了教训。

我可以提供一个理论吗?

当然。

你在某个时点意识到OpenAI的结构可能会扼杀公司。因为一个使命驱动的非营利组织无法在计算能力上竞争,也无法做出公司蓬勃发展所需的快速转变。董事会由那些将纯粹理想置于生存之上的原教旨主义者组成。所以你开始做出一些决策来提升OpenAI的竞争力,这需要一些隐秘的操作,而董事会——

我认为我没有做任何偷偷摸摸的事。最多可以说,为了快速发展,董事会没有完全了解全局。有人提出“萨姆拥有创业基金却没有告知我们”的质疑。这种情况的出现是因为我们的结构比较复杂:OpenAI本身不能拥有它,持有OpenAI股权的人也不能拥有它。而我恰好不持有OpenAI的股权。所以在建立转移结构之前,我暂时担任它的所有者或GP。

我与董事会在是否应该知晓此事上看法不同。但是否应该更清晰地沟通这类事务,即使是表面上的事情?是的,我接受这个建议。但这并非隐秘行为。那是疯狂的一年,对吧?公司正以惊人的速度在多个方向上发展。我建议你去询问任何现任董事会成员,看看他们是否认为我做过任何鬼鬼祟祟的事,因为我刻意避免这样做。

我认为前任董事会真诚地担忧AGI可能出现问题。那个周末,一位董事会成员对团队说的某些话后来被人们嘲笑,这符合非营利董事会的使命,即在必要时可以关闭公司。这体现了信念的力量。我相信她是真诚的。虽然我完全不认同其具体结论和行动,但我尊重这种信念。我认为旧董事会是出于错误但真诚的信念行事的,他们相信这么做是对的,可能也是因为他们认为AGI即将到来,而我们没有为此做好准备。所以我可以尊重这一点,尽管我不同意其他所有细节。

编者注:GP,即普通合伙人。根据2024年3月29日提交给证券交易委员会(SEC)的文件,OpenAI创业基金的新普通合伙人是伊安·哈萨维(Ian Hathaway)。该基金大约有1.75亿美元可用于投资专注于人工智能的创业公司。
OpenAI目前的董事会成员包括奥尔特曼和:

据报道,前 OpenAI 董事会成员海伦·托纳 (Helen Toner)曾表示,在某些情况下,摧毁公司“实际上符合董事会的使命”。奥尔特曼此前曾与乔治城大学安全与新兴技术中心战略总监托纳对峙,就她撰写的一篇批评 OpenAI 过快发布 ChatGPT 的论文展开争论。她还称赞了 OpenAI 的竞争对手之一 Anthropic,称其没有等待发布聊天机器人而“煽动人工智能炒作的火焰”。

你显然赢了,因为你现在坐在这里。但换位思考一下,这些经历没有给你留下创伤吗?

确实留下了创伤。最难熬的不是那四天的经历本身,因为肾上腺素激增时你可以应对很多事。看到公司和更广泛的社群支持我,这让我很受鼓舞。但事情结束后,我手上留下了一堆烂摊子,而且情况每天都在恶化。又是政府调查,又是前董事会成员向媒体泄露虚假消息。

那些我认为欺骗了我和公司的人都已经离开,现在我必须收拾他们留下的烂摊子。就在那时(12月),下午4:45天就黑了,天气又冷又下雨,我会独自在家里踱步,感到疲惫和沮丧。这一切太不公平了。经历这些后却没有时间恢复,因为公司仍在危机中,这真是疯狂。

当你回到公司时,你是否因为担心别人如何看待你而在做重大决定或发布公告时感到不自在?让我说得更直白些:你是否觉得有人可能认为你是个坏人,所以你需要证明自己是好人?

情况比这更糟。等一切尘埃落定后就好了,但最初几天里,没人知道发生了什么。我走在走廊上,人们会避开我的目光,就像我得了绝症一样。他们很同情,也很理解,但都不知道该说什么。这真的很艰难。但我当时想:“我们还有复杂的工作要做,我得继续前进。”

你能描述一下你是如何实际管理公司的吗?你的一天是怎么安排的?比如,你会和个别工程师交谈吗?你会在办公室走动吗?

让我看看我的日历。每周一我们有三小时的执行团队会议。昨天和今天,我进行了六次与工程师的一对一会谈,之后还要参加研究会议。明天的日程包括几个重要合作伙伴会议和多个计算相关会议,有五个会议专门讨论计算能力建设。还有三个产品头脑风暴会议,晚上要和一家主要硬件合作伙伴共进晚餐。这就是典型的工作日,有些是每周固定的,其他则是根据需要安排的。

你在内部和外部沟通上花多少时间?

主要是内部沟通。我不是那种喜欢写激励性邮件的人,但会进行很多一对一和小组会议,还经常使用Slack交流。

哦天啊,保重。你会陷入其中吗?

我是个重度Slack用户。你能在这个平台上获取大量信息。当然,没有什么比和小型研究团队开会更能深入了解情况,但就信息广度而言,Slack确实很有效。

你之前提到过对ChatGPT的外观和用户体验有很强的见解。在哪些方面你觉得需要更多地充当参与者而不是指导者?

在现在这个规模下?基本没有。我昨晚和Sora团队共进晚餐时,写了整整一页详细建议,但这种情况很少见。或者就像接下来的会议,我给研究团队提出了一个很具体的建议,说明我认为他们未来三个月该做什么,还包括很多细节,但这也很少见。

编者注:Sora是OpenAI先进的视觉AI生成器,于2024年12月9日公开发布。

我们谈到科研有时会与公司架构产生冲突。你把研究部门安排在离公司其他部门几英里远的另一栋楼里,这背后有什么象征意义吗?

呃,没有,这纯粹是后勤和空间规划的考虑。我们最终会有一个大型园区。研究部门仍会有自己的专属区域。保护研究的核心对我们的工作至关重要。

保护它免受什么?

典型的硅谷公司发展路径是这样的:先创建一家产品公司,在这方面做到精通,然后发展到相当规模。当规模达到一定程度时,收入增长自然会放缓。这时,CEO往往会决定建立研究实验室,希望能产生新想法推动进一步增长。

这种模式在历史上确实有过成功案例,最著名的是贝尔实验室和施乐帕洛阿尔托研究中心。但这种成功其实很罕见。更常见的结果是:你得到一家出色的产品公司,却只建立了一个效果不佳的研究实验室。我们很幸运,我们新增的产品部门可能是增长最快的科技公司,至少在相当长一段时间内是如此。但这种增长很容易吞噬研究的精髓,我不希望这种情况发生。

我们的使命是开发AGI和超级智能及其相关技术。在这条道路上,会有许多诱人的机遇,任何一个都可能让我们偏离最终目标。保持专注对我们来说至关重要。

作为一家公司,你们似乎已经不再公开讨论AGI,转而谈论AI和不同级别的发展。但在私下里,你们仍在谈论AGI。

我认为“AGI”已经变成了一个模糊的概念。如果你看看我们定义的五个级别,你会发现有人会把每个级别都称作AGI。这些级别的设定是为了让我们能更具体地衡量所处的位置和进展,而不是简单地判断它是否达到AGI。

你会在什么时候说“好了,我们现在实现了AGI”?

我对这个问题的初步思考是:当AI系统能够胜任高技能人类在重要岗位上的工作时,我会认为那就是AGI。当然,这还引发了一系列后续问题:它是否能胜任整个工作,还是只能完成部分任务?它能否从一个计算机程序起步,然后决定要成为一名医生?它能否达到该领域顶尖人才或前2%专业人士的水平?它有多大的自主性?我还没有对这些问题形成详尽的答案,但如果你能雇用一个AI系统作为远程员工,让它成为一名优秀的软件工程师,我想很多人会说:“好吧,这就接近AGI了。”

目标总是在移动,这就是为什么定义AGI如此困难,但我会坚持这个标准。至于超智能,对我来说最关键的衡量标准是:这个系统能否显著加快地球上科学发现的速度?

你们现在有超过3亿用户。从他们的行为中,你对ChatGPT有了哪些新的认识?

通过与用户交流他们如何使用ChatGPT,我们获得了宝贵的产品开发见解。一个重要发现是,用户经常将ChatGPT用作搜索工具,这其实不是我们最初设计的用途。虽然这出乎意料,但显然满足了用户的重要需求。事实上,自从我们在 ChatGPT 中添加搜索功能后,我几乎完全不用谷歌了。这是我在只见过内部原型时完全没有预想到的转变。

另一个重要发现是用户对医疗咨询的需求。OpenAI的员工经常收到感人的反馈,比如:“我患病多年却一直找不到病因。当我把所有症状和检查结果输入ChatGPT后,它识别出了一种罕见疾病。我去看医生确认后开了药,现在已经完全康复了。”虽然这是个极端案例,但类似情况并不罕见。这表明用户确实需要这样的功能,我们应该在这个方向继续努力。

你们的产品定价从免费到20美元,再到200美元不等,彭博社还报道可能会涨到2000美元。对于这样一项全新技术,你们是如何确定定价的?是通过市场调研还是随机尝试?

我们最初免费提供ChatGPT,但随着用户量激增,我们需要寻找维持运营的方式。我们测试了两个价位:20美元和42美元。用户觉得42美元略贵,但对20美元接受度很高,所以我们选择了这个价格。这大约是在2022年 12月底或1月初的事。这并不是通过正式的市场调研得出的结论。

我们也探索了其他定价模式。很多客户希望采用基于使用量的收费方式。他们说:“有些月份我可能会在计算上花费 1000 美元,有些月份可能只需要很少。”作为一个年长些的人,我还记得拨号上网时代,AOL提供每月 10小时或5小时等不同套餐。我很讨厌那种按时计费的方式,所以不想重蹈覆辙。不过,我认为还有其他合理的定价方案,可以在一定程度上考虑使用量。

你们的安全委员会现在是什么样子的?过去一年或一年半里它有什么变化?

有一点令人困惑的是,即便对我们内部人员来说也是如此,我们有多个不同的安全事务机构。我们有内部安全顾问小组(SAG),负责系统的技术研究和建议。我们有SSC(安全与保障委员会),这是董事会的一部分。我们还与微软共同设立了DSB简而言之,我们有内部机构、董事会机构和与微软的联合机构。我们正在努力寻找简化这一架构的方法。

编者注:DSB,由OpenAI 和微软成员组成的部署安全委员会负责批准任何超过一定能力阈值的模型部署。

您参加过这三个机构的工作吗?

这是个好问题。SAG会向我提交报告,但我并不是其正式成员。流程是这样的:他们撰写报告发给我,我会表示“同意”或“不同意”,然后将其转交董事会。我不在SSC里,但我在DSB里。现在我们对安全流程有了更深入的了解,我希望能找到简化这些机制的方法。

您是否已经意识到可能存在的危险?

我对短期、中期和长期风险的看法基本保持一致。我预计在网络安全和生物方面,我们将面临需要缓解的严重或潜在严重的短期问题。从长远来看,当我们考虑一个具有惊人能力的系统时,可能会出现一些难以准确预测和模拟的风险。但我认为,即使这些风险确实存在,解决它们的唯一正确方法就是推出产品并从中学习。

编者注:2024 年 9 月,OpenAI 承认其最新的 AI 模型增加了被滥用于制造生物武器的风险。2023 年 5 月,阿尔特曼与其他数百名签署人一起发表声明,强调人工智能带来的生存风险。

就近期而言,该行业似乎已经将发展障碍归结为三大方面:模型扩展、芯片稀缺和能源稀缺。我知道这些问题相互关联,但您能根据担忧程度对它们进行排序吗?

我们已经为每个领域制定了计划,这让我很有信心。通过扩展模型,我们将在技术、能力和安全等方面继续取得进步。我相信2025年将是非常不平凡的一年。

你了解ARC-AGI挑战赛吗?五年前,这个团队设立了这个奖项作为AGI的指标。他们制定了一个他们认为极其困难的基准。我们将于周五宣布的模型已经通过了这一基准。这个基准五年来一直未被攻克。他们表示,如果能在这方面获得87.5%的分数就算“及格”。而我们的系统获得了 87.5% 的分数,并且完全是开箱即用,无需任何定制。我们在研究方面还有很多令人期待的进展,更好的模型也在开发中。

编者注:OpenAI于12月20日推出了模型o3,计划在2025年初向用户开放。此前的模型是o1,而据《Information》报道,OpenAI跳过了o2版本,以避免与英国电信运营商o2产生潜在商标冲突。

奥尔特曼在笔记本电脑上打开ARC-AGI网站,展示了一系列复杂的抽象网格。这些抽象设计别有用意:要“解决”这些网格并实现AGI,AI模型需要依靠逻辑推理能力,而非仅仅依赖训练数据。

ARC-AGI表示:“OpenAI的新型o3系统(在ARC-AGI-1公共训练集上训练)在公共排行榜上取得突破性进展,在10000 美元计算限制下的半私人评估集达到了75.7%的成绩。在高计算力配置(172倍)下,o3的得分达到87.5%。”

我们正在全力构建完整的芯片供应链和合作伙伴网络。我们有专门的团队负责建设数据中心和芯片制造。我们在这里拥有自己的芯片业务。我们还与英伟达建立了强有力的合作关系。明年,核聚变技术将取得突破。

核聚变即将实现?具体时间表是怎样的?

就在不久的将来。很快我们就能看到净能量增益的核聚变演示。接下来需要建立一个稳定的系统,扩大规模,规划工厂建设。不是一个,是多个工厂,还要获得监管批准。这整个过程需要几年时间。但我相信Helion公司很快就能向大家证明核聚变的可行性。

编者注:Helion 是一家专注于核聚变开发的清洁能源创业公司,由奥尔特曼、达斯汀·莫斯科维茨和里德·霍夫曼共同创立。

在短期内,有什么方法可以在不影响气候目标的前提下维持人工智能的增长?

有的,但我认为没有比加速部署核聚变反应堆更好的方案了。我们开发的核聚变技术是一个绝佳的解决方案,我们应该朝这个方向努力,最终就能解决这个问题。

您刚才提到了很多与政府相关的内容。我们即将迎来新总统。您个人向就职基金捐赠了 100 万美元,这是为什么?

他是美国总统。我会支持任何一位总统。

我理解OpenAI支持一位以关注支持者而闻名的总统是有道理的,但这是一笔个人捐款。唐纳德·特朗普反对你之前支持的许多事情。我认为这更像是一种忠诚而非爱国的表现,我说得对吗?

我并不赞同特朗普或拜登的所有言行和想法。但我确实支持美利坚合众国,我会尽己所能与任何一位总统合作,以造福国家。这尤其关系到我认为必须超越政治分歧的重大时刻。我相信AGI很可能在本届总统任期内实现突破,把这件事做好至关重要。就职典礼捐款在我看来是一件相对次要的事。这不是什么重大决定,但我确实认为我们都应该希望总统能够成功。

他说他讨厌《芯片法案》。你支持《芯片法案》。

事实并非如此。我认为《芯片法案》比什么都不做要好,但这并不是最理想的方案。我相信我们有机会做得更好。这项法案的效果并未达到任何人的期望。

埃隆显然会在本届政府中扮演某种角色。他起诉了你,他与你竞争。我看到你在DealBook上的评论,你认为他不会利用职位来干预人工智能领域。

是的,我确实这么认为。

且慢,过去几年他收购Twitter后又试图退出,为Alex Jones恢复了账号,还向扎克伯格发起笼斗挑战。这些只是他商业争议的一小部分。所以你真的相信他不会——

我认为他确实会做一些不当的事。他可能会继续起诉我们,撤诉,再起诉。他还没有向我发起笼斗挑战,不过事实证明他对扎克伯格的挑战也不够认真。正如你所说,他经常出尔反尔,发起行动又撤回,被起诉又起诉他人,与政府争执又被调查。这就是埃隆的性格。

但关键问题是:他会不会利用联合总统的政治权力(不管他现在怎么称呼这个职位)来对付商业竞争对手?我认为他不会。我是真心这么认为的,尽管结果可能证明我错了。

在你们共事期间,你如何描述你们各自为这段关系带来了什么?

我想这更像是一种互补的精神。虽然我们不确定具体是什么,也不知道该做什么或如何推进,但我们有一个共同的信念:这件事很重要,我们清楚大致的方向和修正的方法。

我很好奇实际的工作关系是什么样的。

在导致他离职的那场风波之前,我和Elon之间的关系一直很平和。虽然外界经常谈论他如何斥责他人、发脾气,但我从未亲身经历过这样的情况。

他为 xAI 筹集了多少资金(特别是来自中东的资金)让您感到惊讶吗?

不会。他们拥有充足的资本。这是一个备受追捧的行业。埃隆就是埃隆。

假设您说得对,而且埃隆和政府确实有积极意图。那么特朗普政府在 2025年能为人工智能做出的最有益的事情是什么?

关键是美国的基础设施建设。我非常认同总统的观点:在美国建设项目变得异常困难。无论是发电厂还是数据中心,都面临这个问题。我理解官僚体制是如何逐步形成的,但这对国家发展毫无益处。特别是当我们思考美国需要采取哪些措施来保持人工智能领域的领先地位时,这种情况更是不利。美国确实需要在人工智能领域保持领先。

 

 

 

 

 

 

 

 

 

本文由未来学人编译,原文作者:Josh Tyrangiel,审校排版:从林点击查看原文链接

翻译作品,原文版权归原作者所有。未来学人仅提供翻译服务,不对原文内容或观点进行任何修改或代表。如有侵权,请联系我们删除。

赞赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫

好文章值得赞赏

相关推荐

评论

登录后才能评论