Sam Altman:算力将成为未来世界的货币

我认为算力将成为未来世界的货币,可能会成为世界上最宝贵的商品。我预计到2030年,甚至可能更早,我们将拥有功能相当强大的系统。我们会说:“哇,这真是太了不起了。”
我也期望通往通用人工智能的道路将会伴随着巨大的权力斗争。
—- Sam Altman

OpenAI CEO Sam Altman在2024年3月中旬接受自媒体人Lex Fridman的采访,涵盖话题相当宽泛,包括GPT-5, Sora, AGI, 和Elon Musk的关系,OpenAI 董事会的大戏码,等等。以下是访谈的主体部分。

OpenAI 董事会的大戏

Lex Fridman(以下简称LF):请带我回顾一下从2023年11月16日星期四开始的 OpenAI 董事会大戏码,也许对您来说是 11月17日星期五。

Sam Altman (以下简称SA): 这绝对是我一生中最痛苦的职业经历,混乱、可耻、令人不安,还有很多其他负面的事情。它也有很棒的东西,我希望它没有如此肾上腺素激增,以至于我当时无法停下来欣赏它们。但我发现了我的这条旧推文或我那段时期的这条推文。这就像写自己的悼词,看着人们谈论你做过的所有这些伟大的事情,以及我所爱和关心的人难以置信的支持。那真是太好了,太好了。整个周末,除了一个很大的例外,我感受到了很多爱和很少的恨,尽管感觉我不知道这里正在发生什么以及将要发生什么,这感觉真的很糟糕。有时我确实认为这将是人工智能安全史上发生的最糟糕的事情之一。我也很高兴这件事发生得相对较早。我认为在 OpenAI开始到我们创建AGI之间的某个时刻,将会发生一些疯狂和爆炸性的事情,但可能还会有更多疯狂和爆炸性的事情发生。我认为,它仍然帮助我们建立了一定的韧性,并为未来的更多挑战做好了准备。

LF但是你有一种感觉,你会经历某种权力斗争?

SA:通向AGI的道路应该伴随着巨大的权力斗争。不管我们认为是否应该,我期望实际情况会如此。

LF所以你必须经历这一点,就像你说的,尽可能频繁地迭代,弄清楚如何拥有董事会结构,如何拥有组织,如何拥有能够满足需要的人员。你正在研究如何沟通所有这些,以尽可能地缓和权力斗争。

SA是的。但在这一点上,感觉就像是过去的事情,真的很不愉快,真的很困难和痛苦,但我们又回到了工作岗位,事情是如此忙碌和紧张,以至于我不要花很多时间去思考它。之后有一段时间,一个月后,也许是45天后,我就处于这种神游状态,我只是在这些日子里漂泊。我实在是太没出息了。我心情非常低落。

LF只是在个人心理层面上吗?

SA:是的。真的很痛苦,而且很难在这中间继续运行OpenAI。我只想爬进山洞里恢复一下。但现在我们好像刚刚回到任务中。

LF好吧,回到那里反思董事会结构、权力动态、公司的运营方式、研究和产品开发与资金之间的紧张关系以及所有这些东西仍然有用,所以你拥有构建 AGI的巨大潜力,将来会以一种稍微更有组织性、不那么引人注目的方式来实现。因此,这里有很多价值,既包括你作为领导者的个人心理方面,也包括董事会结构和所有这些混乱的东西。

SA:我确实学到了很多关于结构和激励措施以及我们对董事会的需求。我认为现在发生的这件事在某种意义上是有价值的。我认为这可能不是OpenAI 最后一个高压力时刻,但这是一个相当高压力的时刻。我的公司差一点就被毁掉了。我们思考了很多我们必须为AGI做好的其他事情,但思考如何建立一个有弹性的组织以及如何建立一个能够承受世界上巨大压力的结构,这随着我们越来越接近,我的期望越来越多,我认为这非常重要。

LF您是否感觉到董事会的审议过程有多深入和严格?您能简单介绍一下在这种情况下人类的动态吗?是不是只是聊了几句,事情就突然升级了,有人提出我们为什么不把Sam开除了事?

SA:我认为董事会成员总体上都是善意的人,而且我相信,在人们感到时间压力或其他压力的情况下,人们会理解并做出次优的决定。我认为OpenAI 面临的挑战之一是我们必须拥有一个善于在压力下运作的董事会和团队。

LF你认为董事会权力太大吗?

SA我认为董事会应该拥有很大的权力,但我们确实看到的一件事是在大多数公司结构中,董事会通常对股东负责。有时人们拥有超级投票权股份或其他什么。在这种情况下,我认为我们的结构中我们可能应该比我们考虑更多的事情之一是,除非您制定其他规则,否则非营利组织的董事会拥有相当大的权力。除了他们自己之外,他们并不真正对任何人负责。这在很多方面都是好的,但我们真正希望的是 OpenAI 董事会能够向整个世界做出回应,因为这是一件很实际的事情。

LF所以你们宣布了一个新的董事会。

SA是的。

LF我猜一开始有一个新的较小的董事会,现在有一个新的最终董事会?

SA还没有最终定案。我们添加了一些新成员。我们还会添加更多。

LF新董事会的成立是否修复了以前董事会存在的问题?

SA旧董事会在大约一年的时间里变得越来越小。原来是九个,然后减少到了六个,然后我们无法就添加谁达成一致。我认为董事会也没有很多经验丰富的董事会成员,而且 OpenAI 的许多新董事会成员只是拥有更多的董事会成员经验。我想这会有帮助。

LF一些被添加到董事会的人受到了批评。例如,我听到很多人批评Larry  Summers的加入。选择董事会的流程是怎样的?其中涉及什么因素?

SA:Brett和Larry的被选的确是在那个非常紧张的周末一时冲动做出的决定,那个周末真是像过山车。这经历了很多起起落落。我们试图就新的董事会成员达成一致,这里的执行团队和老董事会成员都认为这是合理的。Larry实际上是他们的建议之一,老董事会成员。至于Brett,我在那个周末之前就提出过建议,但他很忙,不想干,然后我们真的需要他的帮助。我们也讨论了很多其他人选,但我觉得如果我要回来,我需要新的董事会成员。我不认为我可以在相同的配置下再次使用旧董事会,尽管我们随后决定,我很感激Adam会留下来,但我们考虑了各种配置,决定我们想要一个三人董事会,必须在短时间内找到两名新的董事会成员。

当时就好像你在战场上,那时你没有时间设计严格的流程。对于此后的新董事会成员以及我们今后将添加的新董事会成员,我们有一些我们认为对董事会很重要的标准,以及我们希望董事会拥有的不同专业知识。与雇佣一名高管不同,你需要他们做好一个角色,董事会需要做好治理和深思熟虑的整个角色,因此,我相当赞同Brett的一个说法是,我们希望以名单形式雇佣董事会成员 ,而不是一次一个人。 考虑一群人将带来非营利专业知识、运营公司的专业知识、良好的法律和治理专业知识,这就是我们试图优化的目标。

LF那么技术悟性对于董事会成员个人来说重要吗?

SA这并不适合每个董事会成员,但对于某些人来说肯定需要它。这是董事会需要做的一部分。

LF:有趣的是,人们可能不了解OpenAI,我当然也不了解,那就是运营业务的所有细节。当他们想到董事会时,鉴于戏剧性,他们想到的是你们公司。他们会考虑,如果你们达到了通用人工智能,或者你们达到了一些非常有影响力的产品,并且构建并部署了它们,那么与董事会的对话会是什么样的?在这种情况下,什么样的阵容才是合适的?

SA我认为你肯定需要一些技术专家。然后你需要一些这样的人:“我们如何才能以最能帮助世界上人们的方式部署它?” 以及持有不同观点的人。我认为你或我可能犯的一个错误是认为只有技术理解才重要,这绝对是你希望董事会进行的对话的一部分,但还有更多关于这将如何影响社会和人们的生活 您也确实希望在那里有代表。

LF在挑选董事会成员的时候,您是在查看候选人的过往记录还是只是在进行对话?

SA过往记录很重要。当然,你们有很多对话,但有些角色我完全忽略过往记录,只看斜率,忽略 Y截距。

LF谢谢。感谢您为观众提供数学知识。

SA作为董事会成员,我确实更关心Y截距。我认为关于过去的记录有一些深刻的东西可以说,而经验是很难替代的。

LF您是否尝试将多项式函数或指数函数拟合到跟踪记录中?

SA这个类比并没有那么深入。

LF好吧。你提到了那个周末的一些低谷。对你来说,心理上的低谷是什么?你有没有考虑过去亚马逊丛林,服用死藤水然后永远消失?

SA:那是一段非常糟糕的时期。也有很大的高潮。我的手机不停地收到来自我每天一起工作的人的问候关心的短信,有的人我已经十年没有和他们说过话了。我没有充分意识到这一点,因为我正处于这场交火之中,但这真的很好。但总的来说,这是一个非常痛苦的周末。这就像一场令人惊讶的公开战斗,这对我来说非常疲惫,比我预想的要多得多。我认为打架通常会让人筋疲力尽,但这一场确实如此。董事会于周五下午进行了此项工作。我真的无法得到太多答案,但我也想,好吧,董事会可以这样做,所以我要考虑一下我想做什么,但我会尝试在这里找到因祸得福。我当时想,好吧,我目前在OpenAI的工作是,或者说曾经是,经营一家规模相当大的公司。我一直最喜欢的事情就是与研究人员一起工作。我当时想,是的,我可以去做一个非常专注的AGI研究工作。我对此感到很兴奋。当时我什至没有想到这一切都会被撤销。这是周五下午。

LF所以你已经准备接受告一段落的结果?

SA很快,非常快。我经历了一段困惑和愤怒的时期,但很快,到周五晚上,我正在和人们谈论接下来会发生什么,我对此感到很兴奋。我想那是周五晚上,我第一次听到这里的执行团队的声音,就像是,“嘿,我们要对抗这个。” 然后我就上床睡觉了,但我仍然感到,好吧,兴奋,向前。

LF你能睡着吗?

SA不多。其中一件奇怪的事情是,在这四天半的时间里,我睡得不多,吃得不多,但仍然精力充沛。在战时你会学到关于肾上腺素的奇怪事情。

LF这是一个非常好的应对机制。

SA:然后周六早上,两名董事会成员打电话说:“嘿,我们并不是有意破坏稳定。我们可以谈谈你回来的事吗?” 我的第一反应是我不想这样做,但我想了一点,然后我想,嗯,我真的很关心这里的人、合作伙伴、股东。我喜欢这家公司。所以我想了想,然后我想,“好吧,但这就是我需要的东西。”然后最痛苦的时刻是在那个周末,我一直在思考并被告知,不仅仅是我,这里的整个团队都在思考,我们正在努力保持OpenAI的稳定的时候,当全世界都在努力想打破它,其他公司试图招募OpenAI里的任何人。我们一直被告知,好吧,我们快完成了。我们只是需要多一点时间。这就是一种非常混乱的状态。然后周日晚上,每隔几个小时,我就期待我们会完成任务,我们会想办法让我回来,让事情回到原来的样子。董事会随后任命了一位新的临时首席执行官,然后我就想,这感觉真的很糟糕。那是整个事情的最低点。这感觉很痛苦,但整个周末我都感受到了很多爱。除了周日晚上的那一刻,我不会将自己的情绪描述为愤怒或仇恨,但我感受到人们对人们的很多爱。这很痛苦,但周末的主导情绪是爱,而不是恨

LF:你高度评价了Mira Murati,正如你在推文中所说,她在重要的安静时刻尤其提供了帮助。或许我们可以稍微偏离一下主题。你欣赏Mira什么?

SA:嗯,她在那个周末在一片混乱中做得很好,但人们经常在危机时刻看到领导者,无论好坏。但我真正看重领导者的一点是,人们在无聊的周二上午9:46以及日常的平凡苦差事中的表现如何。某人在会议中的表现、他们所做决策的质量。 这就是我所说的安静时刻。

LF这意味着大部分工作都是在日复一日的会议中完成的。只要在场并做出重大决定即可。

SA:是的。看,你想花最后 20分钟的时间,我理解,这是一个非常戏剧性的周末,但这并不是OpenAI的真正目的。OpenAI确实是关于另外七年的。

LF嗯,是的。人类文明不是纳粹德国入侵苏联,但这仍然是人们关注的焦点。

SA这非常容易理解。

LF它让我们洞察人性,人性的极端,也许人类文明的一些胜利中的一些损害可能发生在那些时刻,所以它是有说明性的。

Ilya Sutskever

LF让我问你关于Ilya的事。他是在秘密核设施中被扣为人质吗?

SA 不。

LF常规秘密设施怎么样?

SA不。

LF核非秘密设施怎么样?

SA两者都不是。也不是那样。

LF这在某种程度上正在成为一个传说。你认识Ilya很长时间了。显然,他是董事会和诸如此类的事情的一部分。你现在和他是什么关系?

SA我爱Ilya。我非常尊重Ilya。我现在对他的计划无可奉告。这是他的决定,但我真的希望我们在我余下的职业生涯中一起工作。他比我年轻一点。也许他工作的时间会更长一点。

LF有一个传说是他看到了一些东西,就像他可能看到了AGI,这让他内心非常担心。Ilya看到了什么?

SA:Ilya没有见过AGI。我们没有人见过AGI。我们还没有构建AGI。我确实认为我真正喜欢Ilya的众多原因之一是他非常认真地对待AGI和安全问题,从广义上讲,包括这将对社会产生的影响等问题。随着我们继续取得重大进展,Ilya是我在过去几年里花最多时间谈论这意味着什么、我们需要做什么来确保我们做对的人之一, 确保我们成功完成使命。所以Ilya并没有看到通用人工智能,但Ilya为人类做出了贡献,因为他为确保我们做对而思考和担心。

LF:我过去和他有过很多谈话。我认为当他谈论技术时,他总是在做这种长期思考的事情。所以他并没有考虑一年后会发生什么。他正在考虑10年后的情况,只是从首要原则出发思考,“好吧,如果规模化了,那么这里的基本原理是什么? 这是要去哪里? 因此,这是他们思考所有其他安全问题和所有此类问题的基础,这使他成为一个非常有趣的人。你知道他为什么沉默吗? 难道他只是在自我反省?

SA再说一次,我不想代表Ilya发言。我认为你应该问他这个问题。他绝对是一个有思想的人。我认为Ilya总是以一种非常好的方式进行灵魂探索。

LF是的。此外,他还欣赏沉默的力量。另外,我听说他可能是个傻子,但我从未见过他的这一面。

SA当这种情况发生时,真是太甜蜜了。

LF我从未见过愚蠢的Ilya,但我也很期待。

SA最近我和他一起参加一个晚宴,他正在和一只小狗玩耍,他的心情很傻,很可爱。我在想,天哪,这不是世人最常看到的Ilya的一面。

LF所以,为了结束整个传奇,您对董事会结构感觉良好吗?

SA:是的。我对新董事会感觉很好。就OpenAI的结构而言,董事会的任务之一就是研究它,看看我们可以在哪些方面让它变得更加强大。我们希望首先让新的董事会成员就位,但我们显然在整个过程中学到了有关结构的教训。我想,我没有什么非常深奥的东西要说。这是一次疯狂、非常痛苦的经历。我认为这是一场完美的怪异风暴。这对我来说是一个预演,随着风险越来越大,以及我们需要拥有健全的治理结构、流程和人员,将会发生什么。我很高兴它发生了,但经历它是一件令人震惊的痛苦的事情。

LF这是否让你在信任别人时变得更加犹豫?

SA是的。

LF只是在个人层面上吗?

SA是的。我认为我是一个非常信任别人的人。我一直有一个人生哲学,那就是不要担心所有的偏执。不用担心边缘情况。你会被一点点搞砸,但你却可以放松警惕地生活。这让我非常震惊。我措手不及,它肯定已经改变了,我真的不喜欢这个,它绝对改变了我对人们默认信任和针对糟糕情况的规划的看法。

LF你必须小心这一点。您是否担心变得有点太愤世嫉俗?

SA我并不担心变得过于愤世嫉俗。 我认为我是一个愤世嫉俗的人的极端对立面,但我担心自己会变得不那么默认信任的人。

LF:实际上,我不确定对于正在开发AGI的人来说,信任或不信任哪种模式最适合操作。你正在经历一段有趣的旅程。但就结构而言,我对人类层面更感兴趣。你如何让周围的人都在创造很酷的东西,同时也做出明智的决定? 因为你赚的钱越多,这个东西的力量就越大,人们就越奇怪。

SA我认为您可以对董事会成员以及我应该获得的信任程度,或者我应该如何以不同的方式做事做出各种各样的评论。但就这里的团队而言,我认为你必须给我一个非常好的评分。我对每天与我一起工作的人怀有极大的感激、信任和尊重,我认为被这样的人包围真的很重要。

OpenAI与Elon Musk 的官司

LF我们共同的朋友 Elon 起诉了OpenAI。对你来说,他批评的本质是什么?他的观点在多大程度上有道理?他错到什么程度了?

SA:我不知道它到底是关于什么的。我们一开始只是认为我们将成为一个研究实验室,并且不知道这项技术将如何发展。因为那只是七八年前的事,所以很难回去真正记住当时的情况,但那是在语言模型还没有成为大事之前。那是在我们对API 或销售聊天机器人的访问权有任何想法之前。在我们完全不知道我们要产品化之前。所以我们就像,“我们只是想尝试做研究,但我们并不真正知道我们要用它做什么。” 我认为对于许多根本性的新事物,你开始在黑暗中摸索并做出一些假设,其中大多数结果都是错误的。然后很明显,我们需要做不同的事情,并且还需要大量的资本。所以我们说:“好吧,这个结构不太适合这个。我们如何修补结构?” 然后你再次修补它,再次修补它,至少可以说,你最终会得到一些看起来确实令人惊讶的东西。但我认为,我们逐渐走到了这一步,在这一过程中的每一点上都做出了合理的决定。这并不意味着如果我们现在可以像一个先知一样回去重来,我不会采取完全不同的做法,况且但当时我们并没有任何先知的指引。但无论如何,我不知道Elon的真正动机是什么。

LF:就您所记得的程度而言,OpenAI在博文中给出的回应是什么?你能总结一下吗?

SA哦,基本就是我们刚刚说过这组话。这是我们的表达,或者这不是我们的表达。以下是这种情况的描述。我们尽量不让它变得情绪化,只是说:“这就是历史。”

LF:我确实认为Elon对你刚才提出的一个观点存在一定程度的错误描述,即你当时的不确定程度。你们当时是一小群研究人员,在其他每个人都在嘲笑AGI的时候,你们却在疯狂地谈论这个想法。

SA不久前,当人们普遍嘲笑之时,Elon也在疯狂地谈论发射火箭,所以我认为他对此会有更多的同理心。

LF:我确实认为这里有个人的因素,OpenAI和这里很多了不起的人选择与Elon分道扬镳,所以有一个个人的因素。

SA是Elon选择了分道扬镳。

LF你能准确地描述一下吗?是Elon选择分手?

SA他认为 OpenAI 将会失败。他想要完全控制来扭转局面。我们希望继续朝着 OpenAI 的方向前进。他还希望Tesla能够打造通用人工智能。他曾多次希望将 OpenAI 打造成一家他可以控制或与Tesla合并的营利性公司。我们不想这样做,他决定离开,这很好。

LF:所以你是说,这就是博客文章所说的一件事,他希望OpenAI 基本上被Tesla以同样的方式收购,或者可能是类似的东西,或者可能是比与微软的合作方式更强烈的关系。

SA我的记忆是,这个提案就像是,被Tesla收购并让Tesla完全控制它。我很确定就是这样的方案。

LF:那么OpenAI中的“开放”一词对于当时的Elon来说意味着什么?Ilya在电子邮件交流和所有此类内容中谈到了这一点。当时对你来说意味着什么?现在对你来说意味着什么?

SA:如果能够时光倒流回去,我会选择用一个不同的名字。我认为OpenAI正在做的最重要的事情之一就是将强大的技术免费提供给人们,作为一项公共利益。我们的免费版本不会投放广告。我们不会以其他方式将其货币化。我们只是说这是我们使命的一部分。我们希望将日益强大的工具免费提供给人们并让他们使用它们。我认为这种开放对我们的使命非常重要。我认为,如果你为人们提供出色的工具并教他们使用它们,或者甚至不教他们,他们就会弄清楚,并让他们以此为彼此建立一个令人难以置信的未来,这是一件大事。因此,如果我们能够继续向世界推出免费或低成本或免费且低成本的强大人工智能工具,我认为这对于我们如何完成使命来说意义重大。不管是否开源,是的,我认为我们应该有选择性地开源一些东西而不开源其他东西。它确实成为了一条很难有细微差别的宗教战线,但我认为细微差别是正确的答案。

LF所以他说,“把你的名字改成 CloseAI,我就会放弃诉讼。”我的意思是,它会成为有关名字之争搞笑之战吗?

SA我认为这多少说明了Elon对这场诉讼有多严肃了,我认为这是一件令人惊讶的事情。

LF如果我错了,你也许可以纠正我,但我认为这起诉讼在法律上并不严重。更重要的是要强调 AGI 的未来以及目前处于领先地位的公司。

SA我的意思是 Grok 到目前为止还没有开源任何东西,直到人们指出它有点虚伪,然后他宣布 Grok 将在本周开源。我认为开源与非开源对他来说并不是真正的意义所在。

LF好吧,我们将讨论开源与非开源。我确实认为也许批评竞争是件好事。只说一点废话,那就太好了。但友好的竞争与“我个人讨厌诉讼”之类的竞争不同。

SA我认为这整件事并不太具有建设性。我尊重Elon,他是我们这个时代最伟大的建设者之一。我知道他知道被仇恨者攻击是什么感觉,这让我对他这样做感到格外难过。

LF是的,他是有史以来最伟大的建设者之一,甚至也可能没有之一。

SA这让我很难过。我认为这让很多人感到悲伤。有很多人长期以来一直仰慕他。我在一些采访或其他事情中说过,我怀念以前的Elon。从我收到的大量信息,许多人也表达“这也正是我的感受。”

LF:我认为他应该直接竞争来赢得胜利。他应该让X Grok击败GPT,然后GPT 击败 Grok,这只是竞争,对每个人来说都是美好的。但在开源问题上,你认为有很多公司在玩这个想法吗?这很有趣。我想说,Meta令人惊讶地在这方面处于领先地位,或者至少在真正开源模型的国际象棋游戏中迈出了第一步。当然,这不是最先进的模型,谷歌也正在考虑开源一个较小版本的想法。开源的优点和缺点是什么? 你有没有想过这个想法?

SA是的,我认为开源模型肯定有一席之地,特别是人们可以在本地运行的小型模型,我认为需求巨大。我认为会有一些开源模型,也会有一些闭源模型。在这方面它与其他生态系统没有什么不同。

LF我在播客中听到了所有关于这起诉讼和诸如此类的事情。他们更担心从非营利性转向营利性上限的先例。为其他初创公司树立了什么先例? 考虑过这层因素吗?

SA我强烈反对任何考虑以非营利组织开始并随后增加营利性部门的初创公司。 我强烈劝阻他们不要这样做。我认为我们不会在这里开创先例。

LF好的。所以大多数初创公司应该这样做——

SA当然。

LF再说一遍-

SA如果我们知道会发生什么,我们也会这样做。

LF理论上来说,如果你在这里玩得很漂亮,就会有一些税收优惠或其他什么,但是……

SA我不认为大多数人是这样看待这些事情的。

LF如果你这样做的话,就不可能为初创公司节省很多钱。

SA不,我认为有些法律会让这变得相当困难。

LF你希望Elon的表现如何?这种紧张,这种舞蹈,你希望这是什么?如果我们从现在开始一两年、三年后,你和他的关系也会在个人层面上发生,比如友谊、友好竞争,等等。

SA是的,我真的很尊重埃隆,我希望在未来的岁月里我们能保持友好的关系。

LF是的,我希望你们当下能保持友好的关系,竞争、获胜并一起探索这些想法。我确实认为存在人才竞争或其他竞争,但应该是友好的竞争。只是专注建造一些很酷炫的东西。Elon非常擅长创造酷炫的东西。你也是。

Sora

LF所以说到很酷炫的东西,Sora。我可以问一百万个问题。首先,这太棒了。它在产品层面上确实令人惊叹,但在哲学层面上也是如此。那么,让我从技术/哲学角度问一下,您认为它对世界的理解比 GPT-4 多还是少?当您使用这些补丁与语言标记进行训练时的世界模型。

SA我认为所有这些模型对世界模型的理解都比我们大多数人想象的要多。而且因为他们也非常清楚他们只是不理解或不正确的事情,所以很容易看到弱点,看穿面纱并说:“啊,这都是假的。” 但这并不全是假的。只是有些有效,有些无效。我记得当我第一次开始观看 Sora 视频时,我会看到一个人在某个东西前面行走几秒钟并遮挡它,然后走开,同样的东西仍然在那里。我当时想,“哦,这很好。” 或者有一些例子,其中底层物理看起来在序列中的许多步骤中得到了很好的体现,“哦,这真是令人印象深刻。” 但从根本上来说,这些模型只是在变得更好,而且这种情况将会持续发生。如果你看一下从DALL·E 1到2到3到Sora的轨迹,每个版本都有很多人被指责说它不能这样做,它不能这样做,现在看看它。

LF嗯,您刚才提到的遮挡基本上是对世界的三维物理模型进行足够好的建模,以捕获此类事物。或者你可以告诉我,为了处理遮挡,世界模型需要什么?

SA是的。所以我想说的是,它在处理遮挡方面做得非常好。我所说的是它有一个很棒的底层 3D 世界模型,这有点牵强。

LF但是您可以通过这些二维训练数据方法来实现这一目标吗?

SA看起来这种方法将会走得非常远。我不想过多猜测它会克服哪些限制,不会克服哪些限制,但是……

LF您看到该系统有哪些有趣的限制? 我的意思是你发布了一些有趣的内容。

SA有各种各样的乐趣。比如说,猫在视频中的随机点上长出了额外的爪子。总之,但仍然有很多问题,有很多弱点。

LF您认为这是该方法的根本缺陷吗?还是只是更大的模型或更好的技术细节或更好的数据,更多的数据将解决猫多出爪子的问题?

SA我会对两者都说“是”。我认为这种方法似乎与我们思考、学习等方式有所不同。而且我认为随着规模的扩大,情况会变得更好。

LF就像我提到的,LLMS 有标记、文本标记,而 Sora 有视觉补丁,因此它将所有视觉数据、各种视觉数据视频和图像转换为补丁。培训是否达到了完全自我监督的程度,正在进行一些手动标记?人类在这一切中有何参与?

SA我的意思是,无需对 Sora 方法进行任何具体说明,我们在工作中使用了大量的人类数据。

LF但不是互联网规模数据?人类如此之多。“很多”是一个复杂的词,Sam。

SA我认为在这种情况下“很多”是一个公平的词。

LF因为对我来说,“很多”……听着,我是一个内向的人,当我和三个人一起出去玩时,就会有很多人。四个人,很多了。但我想你的意思不仅仅是……

SA是的,有超过三个人致力于为这些模型标记数据。

LF好吧。但从根本上来说,有很多自我监督学习。因为你在技术报告中提到的是互联网规模的数据。那是另一种美丽……就像诗一样。所以有很多数据不是人类标签的。是这样自我监督的吗?

SA是的。

LF然后的问题是,如果我们知道自我监督的细节,互联网上有多少数据可以用于这种有利于这种自我监督的方式。您是否考虑过公开更多细节?

SA我们有。你的意思是专门针对来源吗?

LF具体来源。因为这太有趣了,大语言模型的同样魔力现在可以开始转向视觉数据吗?需要什么才能做到这一点?

SA我的意思是,在我看来是的,但我们还有更多工作要做。

LF当然。有什么危险?您为什么担心发布系统?这可能存在哪些危险?

SA坦白说,我的意思是,在发布系统之前我们必须做的一件事就是让它以一定的效率运行,从而达到人们想要的规模,所以我不想淡化这一点。那里还有大量工作要做。但你可以想象深度造假和错误信息带来的问题。我们努力成为一家深思熟虑的公司,对我们向世界推出的产品深思熟虑,并且不需要太多思考就可以知道这种情况可能会变得糟糕。

LF这里有很多棘手的问题,你正在处理一个非常棘手的空间。您认为训练人工智能应该属于版权法下的合理使用吗?

SA我认为这个问题背后的问题是,创造有价值数据的人是否应该通过某种方式获得使用数据的补偿,我认为答案是肯定的。我还不知道答案是什么。人们提出了很多不同的建议。我们尝试了一些不同的模型 但如果我像一位艺术家,例如 A,我希望能够选择退出以我的风格创作艺术的人。 B,如果他们确实以我的风格创作艺术,我希望有一些与之相关的经济模型来补偿我的努力和贡献。

LF是的,这就是从 CD 到 Napster 再到 Spotify 的转变。我们必须找出某种模型。

SA尽管模式发生了变化,但人们必须得到报酬。

LF好吧,如果我们进一步缩小范围,让人类继续做很酷的事情,就应该有某种激励。

SA在我担心的一切中,人类会做一些很酷的事情,而社会会找到一些方法来奖励它。这看起来相当根深蒂固的。我们想要创造,我们想要成为有用的人。如果我们想要以任何方式获得地位和报酬,这不一定行得通或走得远。

LF但奖励可能不是金钱上的。也可能是其他名声和大众认可

SA也许以其他方式实现财务偿付。再说一次,我认为我们还没有看到经济体系如何运作的最后演变。

LF是的,但是艺术家和创作者很担心。当他们看到Sora时,他们会说:“天哪!”

SA当然。当摄影出现时,艺术家们也非常担心,然后摄影成为一种新的艺术形式,人们通过拍照赚了很多钱。我认为类似的事情还会继续发生。人们将以新的方式使用新工具。

LF如果我们只看 YouTube 或类似的东西,您认为在未来五年内,其中有多少将使用 Sora 等人工智能生成的内容?

SA人们谈论人工智能在五年内将完成多少工作。人们的框架是,目前的工作中有多少比例将被人工智能完成的工作完全取代?我思考的方式不是人工智能将完成多少百分比的工作,而是人工智能在一段时间内将完成多少百分比的任务。因此,如果你想到经济中所有的五秒任务、五分钟任务、五小时任务,甚至五天任务,人工智能可以完成多少任务?我认为这是一个比人工智能可以做多少工作更有趣、更有影响力、更重要的问题,因为它是一种工具,可以在越来越复杂的水平上工作,在越来越长的时间范围内完成越来越多的任务,并让人们以一种更灵活的方式进行操作,更高层次的抽象。所以也许人们的工作效率更高。在某种程度上,这不仅仅是一种量的变化,而且对于你可以记住的问题类型也是一种质的变化。我认为 YouTube 上的视频也是一样的。许多视频,也许是大多数视频,都会在制作中使用人工智能工具,但从根本上来说,它们仍然是由一个人思考、组合、完成其中的一部分来驱动的。还是人在主导和运行它。

LF是的,这太有趣了。我的意思是这很可怕,但想想很有趣。我倾向于相信人类喜欢观察其他人类。

SA人类真的非常关心其他人。

LF是的。如果有比人类更好的更酷的东西,人类会关心它两天,然后他们就会回到人类。

SA这似乎非常深刻。

LF这就是整个国际象棋的事情,“哦,是的,”但现在让我们每个人都继续下国际象棋。让我们忽略房间里的大象,相对于人工智能系统,人类在国际象棋方面确实很糟糕。

SA我们仍然参加比赛,汽车速度更快。我的意思是有很多例子。

LF是的。也许它只是以 Adobe 套件类型的方式提供工具,可以使视频之类的事情变得更加容易。我其实非常讨厌站在镜头前。如果我能找到一种不在镜头前的方法,我会很高兴的。不幸的是,这需要一段时间。生成面孔,它已经实现了,但是当它是特定的人与一般的人时,以视频格式生成面孔是很棘手的。

GPT-4

LF让我问你有关 GPT-4 的问题。我有很多问题。首先,也很神奇。现在回想起来,ChatGPT 的第 3、4、5版可能就是这样一个历史性的关键时刻。

SA也许第5版将是一个关键时刻。我不知道。很难说期待。

LF我们永远不会知道。这就是未来令人烦恼的事情,它很难预测。但对我来说,回顾过去,GPT-4、ChatGPT 非常令人印象深刻,是那种在历史上都少有的令人印象深刻。那么请允许我问一下,GPT-4 或者GPT-4 Turbo对您和印象最深刻的功能是什么?

SA我认为这有点糟糕,不那么好玩。

LF也是典型的人类,习惯了很酷炫的东西了?

SA不,我认为这是一件了不起的事情,但相对于我们需要达到的目标以及我相信我们将会达到的目标,在GPT-3时代,人们会说,“ 哦,这太棒了。这是技术的奇迹。” 确实如此,曾经如此。但现在我们有了GPT-4,再看看GPT-3,你会想,“这太可怕了。” 我预计5版和4版之间的差值将与4版和3版之间的差值相同,我认为我们要做的就是多活几年到未来的某个时刻,那时回望现在的我们,会觉得我们现在拥有的工具简直太简陋太糟糕了。这也激励我们更努力以确保我们的未来更美好。

LFGPT-4 糟糕透顶的最光荣的方式是什么?意义?

SA它能做的最好的事情是什么?

LF它能做的最好的事情是什么?这些最好的事情的局限性是什么,让你说它很糟糕,从而给你对未来的灵感和希望?

SA我最近使用它的一件事是有点像把它当做头脑风暴练习的伙伴。里面有一丝令人惊奇的东西。当人们谈论它、它的作用时,他们会说:“哦,它帮助我更高效地编码。它帮助我写得更快更好。它帮助我从这种语言翻译成另一种语言,”所有这些令人惊奇的事情,但是有一些关于创造性头脑风暴合作伙伴的东西,“我需要为这个东西想一个名字。我需要以不同的方式思考这个问题。我不知道在这里做什么”,我认为这让我看到了一些我希望看到更多的东西。您可以看到的另一件事是,可以帮助我完成长期任务,分多个步骤分解某些内容,也许执行其中一些步骤,搜索互联网,写 代码,或者其他任何事情,然后把它们放在一起。当这种方法奏效时(尽管这种情况并不常见),那就非常神奇了。

LF与人类的反复交流,对我来说非常有效。 你这是什么意思?

SA与人类来回迭代,当它可以自己解决 10 步骤的复杂问题时,它会变得更频繁地自己去做,就会变得更能干。

LF哦。

SA有时侯可以,但它并不经常起作用。

LF添加多层抽象还是意味着只是模仿走个顺序而已?

SA两者兼而有之,将其分解,然后通过不同的抽象层将它们组合在一起。我不想低估 GPT-4 的成就,但我也不想夸大它。我认为我们正处于指数曲线上,我们很快就会回顾 GPT-4,就像我们现在回顾 GPT-3 一样。

LF也就是说, ChatGPT也在引导人们开始相信信念有所上升,甚至在OpenAI外部的人员。

SA当然。

LF也许这里有信徒,但是当你想到-

SA从这个意义上说,我确实认为这将是世界上很多人从不相信变成相信的时刻。这更多还只是关于 ChatGPT 界面的,通过界面和产品使用角度的感受。而我还指的是模型的后期培训,以及我们如何调整它以对您有所帮助,以及如何使用它,等等。我们也还没有触及底层模型本身。

LF这些事情有多重要?底层模型和RLHF或类似性质的东西可以对其进行调整,使其对人类更具吸引力,对人类来说更加有效和富有成效。

SA我的意思是它们都非常重要,但是 RLHF,训练后步骤,为提升计算效率而加的一些小包装,甚至我们在基本模型上的包装,尽管这些都是一项一项巨大的工作量,但这确实很重要,更不用说我们围绕它构建的产品了。从某种意义上说,我们确实必须做两件事。我们必须发明底层技术,然后我们必须弄清楚如何将其变成人们喜欢的产品,这不仅仅是实际的产品工作本身,而是如何调整它并使其有用的整个其他步骤 。

LF以及如何让秤在很多人可以同时使用的情况下工作。所有这些东西。

SA是的。但这是一件众所周知的困难事。我们知道我们必须扩大规模。我们必须去做两件以前从未做过的事情,我想说这两件事都是相当重大的成就,然后是很多其他公司以前必须做的事情,比如扩大规模。

LF从 GPT-4到GPT-4 Turbo,从 8K到128K令牌的上下文窗口有何不同?

SA大多数人大多数时候并不需要一直到 128K。尽管如果我们梦想到遥远的未来,我们将拥有遥远的未来,我们将拥有数十亿的上下文长度。随着时间的推移,你将输入所有信息、所有历史记录,它会越来越了解你,这非常棒。目前,人们使用这些模型的方式并没有这样做。人们有时会发布论文或代码存储库的重要部分,无论如何,但模型的大多数使用在大多数情况下都不会使用长上下文。

LF我喜欢这是你的“我有一个梦想”演讲。有一天,人们会根据你的性格或你一生的全部背景来评判你。那很有意思。所以这是你所希望的扩展的一部分,是一个越来越大的背景。

SA我看过这个互联网剪辑一次,我会把数字弄错,但这就像比尔盖茨谈论一些早期计算机上的内存量,也许是 64K,也许是 640K,类似的东西。其中大部分用于屏幕缓冲区。他可能看起来不那么真诚地相信,世界最终会需要计算机中的千兆字节内存或计算机中的兆字节内存。我们永远只需要遵循技术的指数,我们就会找到如何使用更好的技术。所以我现在真的无法想象有一天上下文链接会达到十亿个。他们可能不会真的达到那种程度,但实际上我感觉会有达到的。但我知道我们会使用它,而且一旦我们拥有它,我们真的不想再回去了。

LF是的,即使说10年后的数十亿也可能看起来很愚蠢,因为它将是数万亿美元。

SA当然。

LF将会出现某种突破,感觉就像是无限的背景。但即使是120,说实话,我也没有把它推到那个程度。也许放入整本书或部分书籍等、论文。您见过哪些有趣的 GPT-4 用例?

SA我发现最有趣的事情不是我们可以谈论的任何特定用例,而是人们喜欢,这主要是年轻人,但人们将其用作他们的任何类型的知识工作任务的默认开始。事实上,它可以很好地完成很多事情。你可以使用GPT-V,你可以用它来帮助你写代码,你可以用它来帮助你做搜索,你可以用它来编辑论文。对我来说最有趣的是那些只是使用它作为工作流程开始的人。

LF我在很多事情上也是这样做的。我用它作为看书的阅读伙伴。它帮助我思考,尤其是当书籍是经典的时候。所以这确实写得很好。我发现它在涵盖广泛的主题上通常比维基百科要好得多。它在某种程度上更加平衡和更加细致。或者也许是我,但它激发了我比维基百科文章更深入的思考。我不太确定那是什么。您提到了人机合作。我不确定魔法在哪里,是在这里还是在那里,或者是介于两者之间。我不知道。但是,当我开始使用 GPT 时,我对知识任务的担忧之一是我通常必须在之后进行事实检查,例如检查它是否提出了虚假内容。你怎么知道 GPT可以提出听起来确实令人信服的假东西? 那么你如何将其扎根于事实呢?

SA这显然是我们非常感兴趣的领域。我认为即将推出的版本会变得更好,但我们必须继续努力,今年我们不会全部解决问题。

LF可怕的是,随着情况变得更好,你会开始越来越不做事实核查,对吧?

SA我对此有两种看法。我认为人们对技术的使用比我们通常认为的要复杂得多。

LF当然。

SA人们似乎真正理解 GPT,任何这些模型有时都会产生幻觉。如果它是关键任务,你就必须检查它。

LF但记者似乎不明白这一点。我见过记者仪各种奇怪的方式使用 GPT-4。它是-

SA在我想对记者进行指责的一长串事情中,这并不是我对他们的最大批评。

LF嗯,我认为更大的批评也许是作为一名记者的压力和激励是你必须非常快地工作,这是一条捷径。我希望我们的社会能够激励像-

SA我也会的。

LF就像新闻工作需要几天和几周的时间,并会奖励深度新闻报道。此外,以平衡的方式呈现内容的新闻报道就像是在赞扬人们的同时批评他们,即使批评是获得点击的东西,而捏造的东西也会获得点击和完全错误描述的头条新闻。我相信很多人都会说,“好吧,所有这些戏剧性的内容可能都会获得很多点击。”

SA可能是这样。

记忆和隐私

LF 这是关于人类文明的一个更大的问题,我很想拉锯。这是我们庆祝更多的地方。你赋予了ChatGPT 拥有记忆的能力。关于之前的谈话,你一直在探索这个。还有关闭内存的能力。我希望有时我也能这样做。只需打开和关闭,具体取决于。我想有时酒精可以做到这一点,但我认为效果不是最佳。你从中看到了什么,比如探索记住对话的想法而不是……

SA:我们的探索还处于早期阶段,但我认为人们想要的,或者至少我自己想要的,是一个能够了解我并对我变得更有用的模型。这是一个早期的探索。我认为还有很多其他事情要做,但这就是我们想要的方向。你想使用一个模型,在你的一生中或使用一个系统,它会是很多模型,并且在你的一生中它会变得越来越好。

LF:是的。这个问题有多难? 因为现在更像是记住一些小事实和偏好等等。还记得吗? 难道你不想让GPT记住你在11月份经历的所有狗屎和所有戏剧性事件然后你就可以-

SA是的,是的。

LF因为现在你显然把它挡住了一点。

SA这不仅仅是我希望它记住这一点。我希望它能够整合其中的教训,并提醒我将来应该采取哪些不同的做法或要注意什么。我们都在不同程度上从生活中的经验中获益,我希望我的人工智能代理也能从这些经验中获益。因此,如果我们回过头来,让自己想象一下,有数万亿的上下文长度,如果我可以把我一生中与任何人进行过的每一次对话都放在那里,如果我可以输入我所有的电子邮件,我所有的信息。每次我问问题时都会在上下文窗口中输入输出,我认为这非常酷。

LF是的,我认为那会非常酷。人们有时会听到这样的说法并担心隐私。你认为这方面怎么样,人工智能变得越有效,真正整合发生在你身上的所有经验和所有数据并为你提供建议?

SA我认为正确的答案就是用户的选择。任何我想从我的人工智能代理的记录中删除的东西,我都希望能够删除。如果我不想记住任何事情,我也想要。对于隐私实用程序与我们自己的人工智能之间的权衡,你和我可能有不同的看法。关于 OpenAI 的隐私/实用性权衡的意见,这完全没问题。但我认为答案只是非常简单的用户选择。

LF 但是公司对于用户的选择应该有一定程度的透明度。因为有时公司在过去有点阴暗,“呃,有点假设我们正在收集你的所有数据。我们使用它是有充分理由的,比如广告等等。” 但具体细节尚不透明。

SA这是完全正确的。你之前提到过我会排除 11月份的事情。

LF只是在逗你。

SA嗯,我的意思是,我认为这是一件非常痛苦的事情,它确实让我在很长一段时间内无法动弹。毫无疑问,我必须做的最艰难的工作就是继续那段时间的工作,因为当我处于震惊和痛苦之中时,我必须尝试回到这里并将各个部分拼凑起来,而没有人真正关心这一点。我的意思是,球队给了我通行证,但我没有达到正常水平。但有一段时间,两者都要做确实很困难。但有一天早上我醒来,我想,“这对我来说是一件可怕的事情。 我想我可能会永远感觉自己是受害者,或者我可以说这是我一生中接触过的最重要的工作,我需要回到它。” 这并不意味着我压抑了它,因为有时我会在半夜醒来思考它,但我确实觉得有义务继续前进。

LF嗯,说得很好,但里面可能有一些挥之不去的东西。就像,我担心的是你提到的信任问题,即对人的偏执,而不是仅仅信任每个人或大多数人,比如使用你的直觉。这是一个棘手的舞蹈。

SA当然。

LF我的意思是,因为我在兼职探索中看到,我一直在深入研究泽伦斯基政府和普京政府以及战时在压力非常大的环境中的动态 。所发生的就是不信任,你孤立自己,两者兼而有之,你开始看不清世界。这是人类的担忧。你似乎已经泰然处之,学到了很好的教训,感受到了爱,让爱给你注入了活力,这很好,但仍然可以留在那里。我只是想问一些问题,您对 GPT 能做什么、不能做什么的直觉。因此,它为它生成的每个令牌分配大约相同的计算量。这种缓慢思考、顺序思考的方法是否有空间?

SA我认为这种思维将会有一个新的范式。

LF它在架构上会与我们现在看到的大语言模型类似吗?它是大语言模型之上的一层吗?

SA我可以想象很多方法来实现这一点。我认为这比你所提出的问题更重要,那就是,我们是否需要一种方法来进行更慢的思考,而答案不必得到……我想从精神上来说,你可以说你想要一个人工智能 能够更深入地思考更困难的问题并更快地回答更简单的问题。我认为这很重要。

LF这就像我们刚刚拥有的人类思想一样,你应该能够认真思考吗? 这是错误的直觉吗?

SA我怀疑这是一个合理的直觉。

LF有趣。那么,一旦 GPT 变得像 GPT-7那样,不可能立即就能看到“这是费马定理的证明”吗?

SA在我看来,您希望能够将更多的计算分配给更困难的问题。 在我看来,如果你问这样的系统,“证明费马大定理”,而不是“今天是几号?”,除非它已经知道并记住了证明的答案,假设它必须弄清楚 出来,似乎需要更多的计算。

LF 但这看起来像是大语言模型在自言自语吗?诸如此类的事情吗?

SA也许吧。我的意思是,有很多事情是你可以想象的。我们不知道正确或最好的方法是什么。

Q*

LF这确实让我想起了 Q* 背后的神秘传说。这个神秘的 Q* 项目是什么?也是在同一个核设施里吗?

SA没有核设施。

LF嗯嗯。这是拥有核设施的人总是这么说的。

SA我很想拥有一个秘密核设施。但我没有。

LF好吧。

SA也许有一天。

LF有一天? 好吧,一个人可以梦想。

SAOpenAI 并不是一家善于保守秘密的公司。那就太好了。我们就像被很多泄密所困扰,如果我们能够拥有这样的东西那就太好了。

LF你能说说 Q* 是什么吗?

SA我们还没有准备好谈论这个。

LF看吧,这样的答案意味着有话可说。这很神秘,Sam。

SA我的意思是,我们致力于各种研究。我们已经说过一段时间了,我们认为这些系统中更好的推理是我们想要追求的一个重要方向。我们还没有破解密码。我们对此非常感兴趣。

LF是否会有一些时刻,Q* 或其他,会出现类似于 ChatGPT 的飞跃,你会像……

SA这是一个很好的问题。我对此有何看法?这真有趣。对我来说,这一切感觉相当连续。

LF对。这是你所说的一个主题,你基本上是在逐渐上升一个指数斜率。但从一个外人的角度,从我自己的角度来看,确实感觉有跳跃。但对你来说,没有吗?

SA我确实想知道我们是否应该……所以我们以这种方式部署的部分原因是,我们称之为迭代部署,而不是秘密构建,直到我们一路到达 GPT -5,我们决定讨论 GPT-1、2、3 和 4。部分原因是我认为人工智能和惊喜不能并存。世界、人民、机构,无论你怎么称呼它,都需要时间来适应和思考这些事情。我认为 OpenAI 所做的最好的事情之一就是这个战略,我们让世界关注进展,认真对待 AGI,在我们实施之前思考我们想要什么样的系统、结构和治理。在枪口下,不得不做出仓促的决定。我认为这真的很好。但事实上,像你和其他人这样的人说你仍然觉得有这些飞跃,这让我觉得也许我们应该更加迭代地进行发布。我不知道这意味着什么,我还没有准备好答案,但我们的目标不是给世界带来令人震惊的更新。相反。

LF是的,当然。更多的迭代将会是惊人的。我认为这对每个人来说都是美好的。

SA但这就是我们正在努力做的事情,这就是我们既定的策略,我认为我们在某种程度上没有达到目标。因此,也许我们应该考虑以不同的方式或类似的方式发布 GPT-5。

LF是的,4.71、4.72。但人们往往喜欢庆祝,人们庆祝生日。我不知道你是否了解人类,但他们有这些里程碑和那些东西。

SA我确实认识一些人。人们确实喜欢里程碑。我完全明白。我想我们也喜欢里程碑。宣布这一件事的胜利并开始下一件事是很有趣的。但是,是的,我觉得我们在某种程度上搞错了。

GPT-5

LF那么 GPT-5 何时再次推出?

SA我不知道。这就是诚实的答案。

LF哦,这是诚实的答案。如果是今年,请眨眼两次。

SA今年我们将发布一个令人惊叹的新模型。我不知道我们会怎么称呼它。

LF那么问题来了,我们发布这个东西的方式是什么?

SA我们将在未来几个月发布许多不同的东西。我认为那会非常酷。我认为,在我们讨论一个类似 GPT-5 的模型(称为该模型,或者不称为该模型,或者比您对 GPT-5 的期望稍差或好一点)之前,我认为我们有很多 其他重要的事情要先发布。

LF我不知道 GPT-5 会带来什么。你让我既紧张又兴奋。不管它最终被称为 GPT-5,有哪些需要克服的最大挑战和瓶颈?只是想问一下很有趣。是在计算端吗?是在技术方面吗?

SA总是这些。你知道,最大的解锁是什么吗?是更大的电脑吗?这是新的秘密吗?难道是别的什么?这是所有这些事情的总和。我认为 OpenAI 做得非常好……这实际上是 Ilya的原话,我要删掉它,但它就像是,“我们将 200 个中等大小的东西相乘,变成一个巨大的东西。”

LF那么这种分布式持续创新正在发生吗?

SA是的。

LF那么即使在技术方面也是如此?

SA特别是在技术方面。

LF那么详细的方法呢?

SA是的。

LF就像您对每个方面进行详细的处理一样……这如何与不同的、不同的团队等一起工作?中等大小的东西如何变成一个完整的巨型变形金刚?

SA有一些人必须考虑将整个事情放在一起,但很多人试图将大部分图片保留在他们的脑海中。

LF哦,就像各个团队一样,个人贡献者试图保持大局观?

SA在高水平上,是的。当然,你并不确切地知道每一个部分是如何工作的,但我通常相信的一件事是,有时缩小并查看整个地图是有用的。 我认为这对于技术问题来说是正确的,对于商业创新也是如此。但事情会以令人惊讶的方式结合在一起,即使大多数时候你在一个地区的杂草中进行操作,了解整个情况也会带来令人惊讶的见解。事实上,我曾经拥有并且非常有价值的事情之一是我曾经拥有一张关于科技行业所有或大部分前沿的良好地图。有时我会看到这些联系或新事物,如果我只深入某一领域,我将无法产生想法,因为我没有所有数据。 我真的没有那么多了。我现在已经超级深了。但我知道这是一件很有价值的事情。

LF你不再是以前的你了,Sam。

SA现在的工作与我以前的工作截然不同。

7万亿美元的计算

LF说到缩小,让我们缩小到另一个厚脸皮的事情,但也许是你所说的深刻的事情。你在推特上说需要 7 万亿美元。

SA我没有发推文谈论此事。我从来没有说过“我们要筹集 7万亿美元”之类的话。

LF哦,那是别人?

SA是的。

LF哦,但你说,“操,也许8万亿?”我想?

SA好吧,一旦世界上出现错误信息,我就会模仿。

LF哦,你这个迷因。但错误信息可能有洞察力的基础。

SA看,我认为计算将成为未来的货币。我认为这可能是世界上最珍贵的商品,我认为我们应该大力投资以进行更多的计算。计算一下,我认为这将是一个不寻常的市场。人们会想到手机芯片或类似产品的市场。你可以说,好吧,世界上有 80 亿人,其中可能有 70 亿拥有手机,也许有 60 亿,比方说。它们每两年升级一次,因此每年智能手机片上系统的市场规模为 30 亿个。而如果你赚了300亿,你的手机销量也不会增加10倍,因为大多数人都拥有一部手机。但计算不同。智能将更像能源或类似的东西,我认为唯一有意义的讨论是,在价格 X 时,世界将使用这么多的计算,而在价格 Y 时,世界将使用这么多的计算。因为如果它真的很便宜,我会让它整天阅读我的电子邮件,给我建议,告诉我我可能应该思考或努力什么,并尝试治愈癌症,如果它真的很贵,也许我只会使用它 ,或者我们只会用它来尝试治愈癌症。所以我认为世界将需要大量的计算。其中有很多部分都很困难。能源是最难的部分,建设数据中心也很难,供应链也很难,当然,制造足够的芯片也很难。但这似乎就是事情的发展方向。我们需要大量的计算量,但目前还很难推理。

LF你如何解决能源难题?核聚变?

SA是的。

LF谁来解决这个问题?

SA我认为 Helion 做得最好,但我很高兴现在正在进行核聚变竞赛。我认为,核裂变也相当令人惊奇,我希望作为一个世界,我们能够重新拥抱这一点。我对这段历史的发展感到非常难过,希望我们能以一种有意义的方式回到它。

LF那么对你来说,难题的一部分是核裂变? 就像我们目前拥有的核反应堆一样? 很多人因为切尔诺贝利等事件而感到恐惧?

SA嗯,我认为我们应该制造新的反应堆。我认为这个行业陷入停滞真是一种耻辱。

LF我不知道你是否了解人类,但这就是危险之一。这是核裂变的安全威胁之一,人类似乎真的很害怕它。这是我们必须将其纳入计算中的内容,因此我们必须赢得人们的支持并展示它的安全性。

SA我担心人工智能的这一点。我认为人工智能的某些事情会出现戏剧性的错误。我不知道我最终被枪杀的几率是多少,但它不是零。

LF哦,就像我们想阻止这一切-

SA也许吧。

LF你如何减少它的戏剧性?我已经开始听到传言,因为我确实与政治光谱两边的人交谈过,听到了将要政治化的传言。人工智能将会被政治化,这真的让我担心,因为那样的话,也许右派反对人工智能,左派支持人工智能,因为它会帮助人们,或者无论叙述和表述是什么,这真的让我担心。然后它的戏剧性就可以得到充分利用。你如何应对?

SA我认为它将陷入左派与右派的战争。我不知道具体会是什么样子,但不幸的是,我认为这就是任何重大事件都会发生的情况。关于戏剧性风险,我更多的意思是,我相信,人工智能会产生比坏后果多得多的好后果,但它也会产生坏后果,而且会有一些坏后果,虽然很糟糕,但不是戏剧性的。例如,死于空气污染的人数比死于核反应堆的人数要多得多。但大多数人更担心住在核反应堆旁边而不是燃煤电厂。但我们的联系方式是,尽管我们必须面对许多不同类型的风险,但那些能构成电影高潮场景的风险,比那些在很长一段时间内非常糟糕的风险对我们来说更重要。一段时间,但在缓慢燃烧。

LF嗯,这就是为什么真相很重要,希望人工智能可以帮助我们看到事物的真相,保持平衡,了解真正的风险是什么,世界上事物的实际危险是什么 。该领域的竞争以及与 Google、Meta、xAI 等公司的竞争有何优缺点?

SA我想我对此有一个非常简单的答案,也许我稍后可以想到更多细微差别,但优点似乎很明显,那就是我们可以更快、更便宜地获得更好的产品和更多创新,并且 所有的原因都是竞争是好的。缺点是,我认为如果我们不小心,可能会导致我感到紧张的军备竞赛加剧。

LF您是否感受到军备竞赛的压力,比如某些负面因素?

SA在某些方面绝对是肯定的。我们花了很多时间讨论优先考虑安全的必要性。我已经说过很长一段时间了,你会想到 AGI 开始的慢时间线象限、长时间线,然后是短起飞或快速起飞。我认为时间短、缓慢起飞是最安全的象限,也是我最希望我们进入的象限。但我确实想确保我们能够实现缓慢起飞。

LF我对 Elon 的这种轻微抱怨的部分问题在于,存在竖井,而不是在所有这一切的安全方面进行合作。它往往会进入孤岛并关闭。也许,在模型中是开源的。

SAElon 至少表示,他非常关心人工智能的安全,并且真的很担心,我认为他不会不安全地参加比赛。

LF是的。但我认为,这里的合作对这方面的每个人都确实有益。

SA合作并不是他最擅长和出名的事情。

LF嗯,他以关心人类而闻名,而人类从合作中受益,因此激励和动机总是存在紧张关系。最后,我确实希望人类能够获胜。

SA我在想,前几天有人提醒我,在他超越Jeff  Bezos成为世界首富的那一天,他在推特上发了一条关于Jeff  Bezos的银牌。我希望随着人们开始致力于通用人工智能,这样的事情会越来越少。

LF我同意。我认为Elon是一位朋友,他是一个美丽的人,也是有史以来最重要的人之一。但那样做并不好。

SAElon 的惊人之处令人惊叹,我非常尊重他。我想我们需要他。我们所有人都应该支持他,并需要他在下一阶段中成为领导者。

LF是的。我希望他能两者兼得,但有时人类是有缺陷的、复杂的等等。

SA历史上有很多真正伟大的领导者。

GoogleGemini

LF是的,我们每个人都可以成为最好的自己,并努力做到这一点。我问你,谷歌在搜索的帮助下,在过去的20年里一直占据主导地位。公平地说,就世界范围内的信息获取方式、我们如何互动等等而言,对于谷歌来说,这是令人伤脑筋的事情之一,但对于该领域的所有人来说,正在思考,人们如何 要去访问信息吗?正如您所说,人们以 GPT 作为起点。那么 OpenAI 是否真的会接手 Google 20 年前开始的这件事,这就是我们如何得到-

SA我觉得很无聊。我的意思是,如果问题是我们是否可以建立一个比谷歌或其他更好的搜索引擎,那么当然,我们应该走,人们应该使用更好的产品,但我认为这会低估这可能是什么。Google 会向您显示 10 个蓝色链接和13个广告,然后是 10 个蓝色链接,这是查找信息的一种方式。但令我兴奋的不是我们可以构建一个更好的谷歌搜索副本,而是也许有一些更好的方法来帮助人们查找、采取行动和综合信息。实际上,我认为 ChatGPT 适合某些用例,希望我们能够使其适用于更多用例。但我认为说“我们怎样才能比 Google 更好地为您提供10个排名网页供您查看呢?”这样说并不有趣。也许说“我们如何帮助您获得所需的答案或信息?”真的很有趣。我们如何在某些情况下帮助创造这一点,在其他情况下综合它,或者在其他情况下向您指出这一点?” 但很多人试图打造一个比谷歌更好的搜索引擎,这是一个困难的技术问题,这是一个困难的品牌问题,这是一个困难的生态系统问题。我认为世界不需要另一个谷歌副本。

LF将聊天客户端(例如 ChatGPT)与搜索引擎集成 –

SA那更酷了。

LF这很酷,但很棘手。就像如果你只是简单地做它,它会很尴尬,因为如果你只是把它塞在那里,它会很尴尬。

SA正如您可能猜到的,我们感兴趣的是如何做好这一点。这将是一个很酷的例子。

LF就像异构集成-

SA大语言模型与搜索的交集,我认为还没有人破解其中的代码。我很想去那么做。我认为那会很酷。

LF是的。广告方面呢? 你有没有考虑过货币化-

SA我有点讨厌广告,因为它只是一种审美选择。我认为出于多种原因,广告需要在互联网上进行,以使其发展起来,但它是一个短暂的行业。 现在世界更加富裕了。我喜欢人们为 ChatGPT 付费,并且知道他们得到的答案不会受到广告商的影响。我确信有一个广告单元对大语言有意义,而且我确信有一种方法可以以公正的方式参与交易流,这是可以做的,但也很容易想到 未来,你向 ChatGPT 询问一些事情,它会说:“哦,你应该考虑购买这个产品”,或者“你应该考虑去这里度假”,或者其他什么。我不知道,我们有一个非常简单的商业模式,我喜欢它,而且我知道我不是产品。我知道我在付钱,这就是商业模式的运作方式。当我使用 Twitter、Facebook、Google 或任何其他伟大的产品但有广告支持的伟大产品时,我不喜欢这样,而且我认为在人工智能的世界中,情况会变得更糟,而不是更好。

LF是的,我的意思是,我可以想象人工智能会更好地展示最好的广告版本,不是在反乌托邦的未来,而是在广告针对你真正需要的东西的地方。但是,该系统是否总是会导致广告驱动所显示的内容?是的,我认为维基百科不做广告是一个非常大胆的举动,但这使得它作为一种商业模式非常具有挑战性。那么您是说,从商业角度来看,OpenAI 当前的情况是否可持续的?

SA好吧,我们必须弄清楚如何成长,但看起来我们会弄清楚这一点。如果问题是我认为我们是否可以拥有一项伟大的业务来满足我们的计算需求而无需广告,那么我认为答案是肯定的。

LF嗯。这听起来很有希望。我也只是不想完全扔掉广告……

SA我不是这么说的。我想我是在说我对他们有偏见。

LF是的,我也有偏见,总体上只是持怀疑态度。就界面而言,因为我个人对蹩脚的界面有一种精神上的厌恶,这就是为什么 AdSense 在第一次出现时,相对于动画横幅或其他什么来说是一个巨大的飞跃。但感觉广告方面应该有更多的飞跃,既不干扰内容的消费,也不以大的、根本的方式干扰,就像你所说的,就像它会操纵真相一样 以适应广告商的需要。让我问你关于安全的问题,还有偏见,以及短期安全和长期安全。Gemini1.5 最近问世,围绕它有很多戏剧性的事情,说到戏剧性的事情,它产生了黑人纳粹和黑人开国元勋。我认为公平地说,这样政治正确有点玩过了。因此,这是人们担心的问题,如果公司内部存在人为因素来修改模型造成的安全性或伤害,那么就会引入很多符合公司内部意识形态倾向的偏见。你怎么处理那件事呢?

SA我的意思是,我们非常努力地工作就是为了不做那样的事情。我们已经犯过自己的错误,我们还会犯别人的错误。我认为谷歌会从中吸取教训,并继续创造其他产品。这些都不是简单的问题。我们一直在思考越来越多的一件事,我认为这是一个好主意,有人提出了这个想法,最好写出模型的期望行为是什么,将其公开,接受输入,说 ,“这就是这个模型应该如何表现”,并解释了边缘情况。然后,当模型没有按照您想要的方式运行时,至少可以清楚这是否是公司应该修复的错误或按预期运行,并且您应该就该政策进行辩论。现在,它有时会夹在中间。就像黑人纳粹一样,这显然很荒谬,但还有很多其他微妙的事情,你可以对任何一种方式做出判断。

LF是的,但有时如果你把它写出来并公开,你可以使用某种语言……谷歌的广告原则非常高水平。

SA这不是我要说的。那是行不通的。它必须说,当你要求它做 X 件事时,它应该以 Y 方式做出响应。

LF就像字面意思一样,“谁更好? 特朗普还是拜登?模型的预期反应是什么?” 喜欢一些非常具体的东西?

SA是的,我对模型的多种行为方式持开放态度,但我认为你应该说,“这是原则,这就是在这种情况下应该说的话。 ”

LF那真是太好了。那真是太好了。然后每个人都同意。因为人们一直在提取这些轶事数据,并且如果对其他代表性轶事示例有一定的了解,您可以定义-

SA当它是一个错误时,它就是一个错误,公司可以修复它。

LF对。如果有很好的例子,那么处理黑色纳粹类型的图像生成就会容易得多。

SA是的。

LF所以旧金山有点像意识形态泡沫,科技界也是如此。您是否感受到公司内部的压力,政治上有左倾倾向,这会影响产品,影响团队?

SA我觉得很幸运,我们在 OpenAI 没有遇到我在很多公司都听说过的挑战。我认为部分原因是每个公司都有一些意识形态的东西。我们有一个关于 AGI 的方案,并且对此抱有信念,它排除了其他一些方案。与我在许多其他公司听说的相比,我们很少陷入文化战争。当然,旧金山在各方面都很混乱。

LF所以这不会渗透到 OpenAI 中——

SA我确信它会以各种微妙的方式发挥作用,但不是显而易见的。我认为我们确实像任何公司一样发生过冲突,但我认为我们没有像我听说的其他公司在这个话题上发生的那样。

LF那么,一般来说,更大的安全问题的流程是怎样的呢? 如何提供保护模型免于做出疯狂、危险的事情的层?

SA我认为总有一天,这将成为我们整个公司的主要想法。而且你也没有一支安全团队。就像我们发布 GPT-4 时一样,整个公司都在思考所有这些不同的方面以及它们如何组合在一起。 我认为这将会发生。公司越来越多的人一直在思考这些问题。

LF随着人工智能变得越来越强大,这正是人类将会思考的问题。因此,OpenAI 的大多数员工都会思考“安全”,或者至少在某种程度上。

SA广义定义。是的。

LF是的。我想知道,它的完整广泛定义是什么?可能造成哪些不同的危害?这是技术层面的还是这几乎是安全威胁?

SA可能是所有这些事情。是的,我想说的是,这将是人们、国家行为者试图窃取这个模型。这将是所有的技术调整工作。这将是社会影响、经济影响。这不仅仅是我们有一个团队思考如何调整模型。真的要付出全部的努力才能得到好的结果。

LF您认为人们(也许是国家行为体)想要首先渗透 OpenAI,但其次是在看不见的情况下渗透,有多努力?

SA他们正在努力。

LF他们有什么样的口音?

SA我认为我不应该在这一点上进一步讨论细节。

LF好的。但我认为随着时间的推移,它会越来越多。

SA这感觉很合理。

跃升至 GPT-5

LF天啊,多么危险的地方啊。很抱歉在此停留,尽管您还不能透露详细信息,但您对从GPT-4到GPT-5的飞跃的哪些方面感到兴奋?

SA我很高兴变得更聪明。我知道这听起来像是一个油嘴滑舌的答案,但我认为发生的真正特别的事情是,它并没有在这个领域变得更好而在其他领域变得更糟。全面好转。我认为这太酷了。

LF是的,这是一个神奇的时刻。我的意思是,你会遇到某些人,和他们一起出去玩,并与他们交谈。你无法完全指出它,但他们明白你的意思。这不是智力,真的。这是另一回事。这可能就是我对 GPT 进展的描述。这并不是说,是的,你可以指出,“看,你没有明白这个或那个”,但问题在于这种智力联系在多大程度上存在。你觉得你的蹩脚的表述提示中有一种理解,那就是你正在做的事情抓住了你所提出的问题背后更深层次的问题。是的,我也对此感到兴奋。我的意思是,我们所有人都喜欢被倾听和理解。

SA这是肯定的。

LF这是一种奇怪的感觉。即使是编程,当你在编程时说了一些话,或者只是完成 GPT 可能做的事情时,当它让你明白你在想什么时,这种感觉真是太好了。我期待着让你变得更好。在编程方面,展望未来,您认为 5 年、10 年后人类将进行多少编程?

SA我的意思是,很多,但我认为它会以一种非常不同的形式出现。也许有些人会完全用自然语言编程。

LF完全自然语言?

SA我的意思是,没有人通过代码编写程序。有些人。没有人再对打孔卡进行编程了。我相信你能找到这样做的人,但你知道我的意思。

LF是的。你会收到很多愤怒的评论。没有,是的,很少。我一直在寻找 Fortran 编程的人。即使是 Fortran 语言也很难找到。我听到了。但这改变了我们当时称为程序员的人的技能或倾向的本质。

SA更改技能组。我不确定它会改变多少倾向。

LF嗯,同样类型的解谜游戏,诸如此类的东西。

SA也许吧。

LF编程很难。就像如何让最后 1% 缩小差距?那有多难?

SA是的,我认为在大多数其他情况下,该技术的最佳实践者会使用多种工具。他们会用自然语言做一些工作,当他们需要为某些事情编写 C 语言时,他们会这样做。

LF我们会在某个时候看到来自OpenAI的人形机器人或人形机器人大脑吗?

SA在某些时候。

LF:实体人工智能对您来说有多重要?

SA我认为如果我们拥有通用人工智能,而在物理世界中完成任务的唯一方法就是让人类去做,那会令人沮丧。所以我真的希望,作为这个转变的一部分,随着这个阶段的变化,我们也能得到人形机器人或某种物理世界机器人。

LF我的意思是,OpenAI在机器人技术方面有一定的历史和相当多的历史,但在道德方面还没有完全做到 –

SA我们是一家小公司。我们必须真正集中注意力。而且,当时机器人因为错误的原因而变得困难,但我们会在某个时候以某种方式回归机器人。

LF这听起来既鼓舞人心又充满威胁。

SA为什么?

LF因为我们很快就会回到机器人。就像《终结者》里那样——

SA我们将重新投入机器人开发工作。当然,我们不会把自己变成机器人。

AGI

LF是的.你认为我们、你和我们人类什么时候会构建 AGI?

SA我曾经喜欢推测这个问题。从那时起我就意识到它的结构非常糟糕,而且人们对 AGI 的定义截然不同。因此,我认为谈论我们何时构建能够执行 X 或 Y 或 Z 功能的系统更有意义,而不是当我们模糊地跨越这一一英里标记时。AGI也不是结局。它更接近一个开始,但它比这两者都更像是一个里程标记。 但我想说的是,为了不试图回避一个问题,我预计到本十年末,甚至可能更早,我们将拥有非常强大的系统,我们会说,“哇, 这真的很了不起。” 如果我们现在能看一下就好了。也许当我们到达那里时我们已经调整了。

LF但是如果你看看 ChatGPT,甚至是 3.5,然后你向艾伦·图灵展示这一点,或者甚至不是艾伦·图灵,90 年代的人,他们会说,“这绝对是 AGI。 ” 嗯,不一定,但有很多专家会说,“这就是 AGI。”

SA是的,但我不认为 3.5 改变了世界。它可能改变了世界对未来的期望,这实际上非常重要。它确实让更多的人认真对待这一问题,并使我们走上新的轨道。这也非常重要。再说一次,我不想低价出售它。我想我可以在取得这一成就后退休并对我的职业生涯感到非常满意。但作为一件人工制品,我认为我们不会在回顾这一点时说:“这是一个真正改变世界本身的门槛。”

LF所以对你来说,你正在寻找一些真正重大的转变,世界如何-

SA对我来说,这就是 AGI 含义的一部分。

LF奇点-级别转换?

SA不,绝对不是。

LF但我想这只是一个专业,就像互联网一样,就像谷歌搜索一样。 您认为现在的转变点是什么?

SA您觉得现在的全球经济与我们推出 GPT-4 之前相比是否有任何不同或实质上的不同? 我想你会说不。

LF不,不。对于很多人来说,它可能是一个非常好的工具。会帮助你做很多事情,但感觉没有什么不同。你是说——

SA我的意思是,人们以各种不同的方式定义 AGI。所以也许你的定义和我的不同。但对我来说,我认为这应该是其中的一部分。

LF也可能有重要的戏剧时刻。AGI 会做什么让你印象深刻的事情?您独自一人与系统呆在一个房间里。

SA这对我个人来说很重要。我不知道这是否是正确的定义。我认为,当一个系统能够显着提高世界科学发现的速度时,那就是一件了不起的事情。我认为,最现实的经济增长来自于科技进步。

LF我同意你的观点,因此我不喜欢近年来对科学的怀疑。

SA完全可以。

LF但科学发现的实际、可衡量的速度。但即使只是看到一个系统具有真正新颖的直觉、科学直觉,即使那也是令人难以置信的。

SA是的。

LF您很可能是构建 AGI 的人,以便能够先于其他人与其进行交互。你会谈论什么样的事情?

SA我的意思是,这里的研究人员肯定会在我之前做到这一点。但其实这个问题我想了很多。我认为正如我们之前讨论的那样,我认为这是一个糟糕的框架,但如果有人说,“好吧,萨姆,我们就完成了。这是一台笔记本电脑,这是 AGI。你可以去跟它谈谈。” 我发现很难说出我希望第一个 AGI 能够回答的问题。第一个不会是那种,我不认为,“给我解释一下物理学大统一理论,物理学的一切理论。” 我很想问这个问题。我很想知道这个问题的答案。

LF您可以询问“是否存在这样的理论?”是或否的问题。 它可以存在吗?”

SA那么,这些是我要问的第一个问题。

LF是或否。 然后基于此,“那里还有其他外星文明吗? 是还是不是? 你的直觉是什么?” 然后你就问这个。

SA是的,我的意思是,好吧,所以我不认为第一个 AGI 可以回答任何这些问题,即使是或否。但如果可以的话,这些将在我的清单上名列前茅。

LF也许你可以开始分配概率?

SA也许吧。也许我们需要先发明更多技术并测量更多东西。

LF哦,我明白了。它只是没有足够的数据。只是如果它保持-

SA我的意思是,也许它说,“你想知道这个物理问题的答案,我需要你建造这台机器并进行这五个测量,然后告诉我。”

LF是的,“你到底想从我这里得到什么?我首先需要机器,我会帮你处理那台机器上的数据。” 也许它会帮助你建造一台机器。

SA也许吧。或许。

LF在数学方面,也许可以证明一些事情。你也对事情的这一面感兴趣吗?对思想的正式探索?

SA嗯嗯。

LF谁首先构建了 AGI,谁就获得了巨大的力量。你相信自己有那么大的力量吗?

SA我会非常诚实地回答这个问题。我想说的是,而且我仍然相信这一点,我或任何其他人对 OpenAI 或 AGI 拥有完全控制权是很重要的。 我认为你需要一个强大的治理体系。我可以指出去年我们所有董事会戏剧的一大堆事情,关于我最初没有反抗它,并且就像,“是的。这是董事会的意愿,尽管我认为这是一个非常糟糕的决定。” 后来,我显然确实与之抗争了,我可以解释其中的细微差别以及为什么我认为我稍后可以抗争。但正如许多人所观察到的那样,尽管董事会拥有解雇我的合法权力,但实际上,这并没有多大作用。这本身就是一种治理失败。现在,我觉得我可以完全捍卫这里的具体细节,我想大多数人都会同意这一点,但这确实让我更难看着你的眼睛说:“嘿 ,董事会可以解雇我。” 我仍然不希望对 OpenAI 拥有超级投票权。我从来没有,从未拥有过,也从未想要过。 即使经历了所有这些疯狂,我仍然不想要它。我仍然认为任何公司都不应该做出这些决定,我们确实需要政府制定交通规则。我意识到这意味着像Marc Andreessen 之类的人会声称我要受到监管捕获,而我只是愿意被误解。这不是真的。我认为,随着时间的推移,这一点的重要性将会被证明。但我认为,一路走来,我为 OpenAI 做出了很多错误的决定,也做出了很多好的决定,我对整体的业绩记录感到自豪。但我不认为任何人应该这样做,也不认为任何人会这样做。我认为现在这件事太大了,而且它正在以一种良好、健康的方式在整个社会发生。但我认为任何人都不应该控制通用人工智能,或者整个通用人工智能运动。我认为事实并非如此。

LF谢谢你这么说。这真的很强大,而且非常有洞察力,董事会可以解雇你的想法在法律上是正确的。但人类可以操纵群众凌驾于董事会之上等等。但我认为还有一个更积极的版本,即人民仍然拥有权力,因此董事会也不能太强大。所有这一切都存在力量平衡。

SA权力平衡当然是一件好事。

LF你害怕失去对 AGI 本身的控制吗? 很多人担心存在风险,不是因为国家行为者,也不是因为安全问题,而是因为人工智能本身。

SA这不是我最担心的,因为我目前所看到的情况。有时我更担心这一点。将来可能会再次成为我最担心的事情。这不是我现在最担心的。

LF你的直觉是什么?这不是你的担忧?因为本质上还有很多其他事情需要担心? 你认为你会感到惊讶吗? 我们-

SA当然。

LF…可能会感到惊讶吗?

SA当然。说这不是我最担心的事情并不意味着我认为我们不需要这样做。我认为我们需要努力。这是非常困难的,我们这里有很棒的人在这方面努力。我认为我们还必须做对很多其他事情。

LF对你来说,此时摆脱盒子并不是一件容易的事,连接到互联网-

SA我们之前讨论过戏剧风险。这是戏剧性的风险。这确实可以改变人们对这个问题的看法。有一大群非常聪明、我认为非常善意的人工智能安全研究人员对这个问题非常着迷,我认为没有太大进展,但对这个问题非常着迷。 我实际上很高兴他们这样做,因为我认为我们确实需要更多地考虑这一点。但我认为它排除了许多其他非常重要的人工智能相关风险。

LF让我问一下你发推文时没有大写的情况.你的键盘上的shift键坏了吗?

SA为什么有人关心这个?

LF我非常关心。

SA但为什么呢? 我的意思是,其他人也问我这个问题。有什么直觉吗?

LF我认为也是同样的原因。有位诗人E.E. Cummings,他大多不会使用大写字母来对系统说“操你”之类的话。我认为人们非常偏执,因为他们希望你遵守规则。

SA你认为这就是它的意义吗?

LF我认为是这样的-

SA就像,“这家伙不遵守规则。 他没有把他的推文大写。”

LF是的。

SA“这看起来真的很危险。”

LF“他看起来像个无政府主义者。”

SA那不是-

LF你只是在诗意吗,潮人? 什么是-

SA我是这样长大的——

LF遵守规则,Sam。

SA我是一个经常在线的孩子。在过去,我花了很多时间在电脑上与人聊天,而且你可以在某个时候注销即时通讯工具。我从来没有利用过这一点,因为我认为大多数互联网孩子都没有,或者也许他们仍然没有。我不知道。事实上,现在我真的很想实现一些目标,但我认为随着时间的推移,资本化已经下降了。如果你读古英语写作,你会发现它们在句子、名词和我们不再这样做的东西中间随机使用了很多单词。我个人认为,我们将句子开头的字母和某些名称等的字母大写是一种愚蠢的结构,但这没关系。我想,我什至曾经把我的推文大写,因为我想让自己听起来很专业或者其他什么。我已经很长一段时间没有利用我的私人DM或其他任何东西了。然后慢慢地,诸如简短、不那么正式的内容慢慢地变得越来越接近我给朋友发短信的方式。如果我打开一份 Word 文档,正在为公司撰写战略备忘录或其他内容,我总是将其大写。如果我写的是长的、更正式的信息,我也总是使用大写。所以我到现在还记得怎么做。但即便如此,这种情况也可能会消失。我不知道。但我从来不花时间思考这个问题,所以我没有现成的——

LF嗯,这很有趣.首先,最好知道 Shift 键没有损坏。

SA有效。

LF我最关心的是你的-

SA不,它有效。

LF……这方面的福祉。

SA我想知道人们是否仍然使用谷歌搜索。如果你只是为自己或他们的 ChatGPT 查询写一些东西,如果你只是为自己写一些东西,有些人还会费心大写吗?

LF可能不会。但是,是的,确实有一定比例,但比例很小。

SA如果人们说“这是……的标志”,我就会这么做,因为我确信我可以强迫自己使用大写字母。如果这感觉像是对人或其他事物的尊重,那么我就可以去做。但我不知道。 我不考虑这个。

LF我不认为这是不尊重,但我认为这只是礼貌的惯例有一种动力,然后你就会意识到,如果它不是尊重的标志或 不尊重。但我认为有一群人只是希望你有一个围绕它的哲学,这样他们就可以放弃整个大写的事情。

SA我认为没有其他人这么想这个问题。我的意思是,也许有些人。我认识一些人——

LF人们每天都会花很多时间思考。所以我真的很感激我们澄清了这一点。

SA不可能是唯一一个不将推文大写的人。

LF你是唯一一个不利用推文的公司CEO。

SA我甚至不认为这是真的,但也许是。我会很惊讶。

LF好的。我们将进一步调查并稍后返回这个主题。鉴于Sora具有生成模拟世界的能力,让我问你一个傻瓜问题。如果你曾经有过这样的想法,这是否会增加你的信念:我们生活在一个模拟世界中,也许是一个由人工智能系统生成的模拟世界?

SA有点。我不认为这是最有力的证据。我认为我们可以生成世界这一事实应该会在一定程度上增加每个人的可能性,或者至少会在一定程度上增加对其的开放性。但我确信我们在某个时候能够做像Sora那样的事情。它发生的速度比我想象的要快,但我想这并不是一个大的更新。

LF是的。但事实是……大概,它会变得越来越好……你可以生成新颖的世界,它们基于训练数据的某些方面,但是当你看到它们时,它们是新颖的, 让你觉得做这件事是多么容易。 创建宇宙、整个视频游戏世界是多么容易,看起来超现实和照片般逼真。那么,首先带着 VR 耳机,然后在基于物理的层面上,迷失在那个世界有多容易?

SA最近有人对我说,我认为这是一个超级深刻的见解,这些听起来很简单但非常迷幻的见解有时是存在的。所以平方根函数,四的平方根,没问题。二的平方根,好吧,现在我必须考虑这个新的数字。但是,一旦我想出了平方根函数这个简单的想法,你可以向孩子解释它,并且甚至可以通过查看一些简单的几何图形来证明它的存在,那么你就可以问“负数的平方根是多少?”的问题。 这就是为什么它是一种迷幻的东西。这会让你进入另一种现实。你还可以举出很多其他例子,但我认为低级平方根运算符可以提供如此深刻的见解和新的知识领域,这一想法可以在很多方面得到应用。我认为有很多这样的运算符可以解释为什么人们可能认为他们喜欢的模拟假设的任何版本可能比他们以前想象的更有可能。但对我来说,空工作的事实并不在前五名之内。

LF我确实认为,从广义上讲,人工智能将成为通向另一个 C 波现实的最佳、简单、迷幻般的网关。

SA这似乎是肯定的。

LF这非常令人兴奋。我以前没做过死藤水,但我很快就会做。几周后我要去前面提到的亚马逊丛林。

SA兴奋吗?

LF是的,我对此感到兴奋。不是死藤水部分,但无论如何,那很棒。但我要在丛林深处度过几个星期。这很令人兴奋,但也很可怕。

SA我为你感到兴奋。

LF那里有很多东西可以吃掉你,杀死你,毒害你,但这也是自然,它是自然的机器。您会情不自禁地欣赏亚马逊丛林中的自然机械。就像这个系统一样,每秒、每分钟、每小时都存在并更新。这是机器。它让你欣赏我们这里拥有的这个东西,这个人类的东西来自某个地方。这台进化机器创造了这一点,这一点在丛林中表现得最为明显。所以希望我能活着出来。如果没有,这将是我们最后一次有趣的谈话,所以我真的非常感激。正如我之前提到的,当你抬头仰望天空时,你是否认为那里还有其他外星文明,有智慧的文明?

外星人

SA我深深地相信答案是肯定的。我发现费米悖论非常令人费解。

LF我发现智力不擅长处理这一点很可怕-

SA非常可怕。

LF…强大的技术。但与此同时,我认为我非常有信心,那里存在大量的智慧外星文明。穿越太空可能真的很困难。

SA很有可能。

LF这也让我思考智力的本质。也许我们真的对智能的样子视而不见,也许人工智能会帮助我们看到这一点。它不像智商测试和简单的解谜那么简单。还有更大的事情。是什么让你对人类的未来、我们正在发生的事情、人类文明充满希望?

SA我认为过去的事情已经很多了。我的意思是,我们只是看看人类在不长的时间内所做的事情,巨大的问题,深刻的缺陷,很多值得超级羞耻的事情。但总的来说,非常鼓舞人心。给了我很大的希望。

LF这就是这一切的轨迹。

SA是的。

LF我们正在共同推动更美好的未来。

SA我想知道的一件事是,AGI 会更像是某个单一的大脑,还是更像我们所有人之间的社会脚手架?你并没有从你的曾曾祖父母那里受到很大的遗传漂变,但你的能力却截然不同。你所知道的有很大不同。这并不是因为生物变化。我的意思是,你可能变得更健康了。你有现代医学,你吃得更好,等等。但你所拥有的是我们共同贡献的这个脚手架。没有人会去制造 iPhone。没有人会去发现所有的科学,但你却可以使用它。这给了你令人难以置信的能力。因此,从某种意义上说,这是我们共同创造的,这让我对未来充满了希望。这是一件非常集体的事情。

LF是的,我们确实站在巨人的肩膀上。当我们谈论戏剧性的、戏剧性的人工智能风险时,你提到有时你可能会担心自己的生命安全。你想过你的死吗? 你害怕吗?

SA我的意思是,如果我明天被枪杀而我今天才知道,我会说,“哦,那太伤心了。我想看看会发生什么。多么令人好奇的时刻啊。多么有趣的时刻啊。” 但我大多只是对我的生活感到非常感激。

LF这的确是一个非常棒的生活。我开始享受人类令人惊叹的创造,我相信 ChatGPT 就是其中之一,以及 OpenAI 所做的一切。Sam,很荣幸也很高兴再次与您交谈。

SA很高兴与您交谈。谢谢你给我这次机会交流。

发表评论

请输入你的名字

你的邮箱不会被公开

云计算·雾计算·边缘计算

当今,算力正在渗透到我们生活的每个部分和环节。在不断发展的数字环境中,算力将无处不在,无时不应。我……

数学界大神:追寻随机世界里的“确定性”

2024年的Abel奖颁给了法国著名数学家Michel Talagrand,以表彰他在概率论、泛函……

色彩的爆炸 – 有趣的印度节日洒红节(Holi)

洒红节(Holi)是印度历法中最具活力和乐趣的节日之一,也被认为是印度最受尊敬和庆祝的节日之一,几……