宽泛的时间线
无人知晓人工智能何时会给世界带来变革性的影响。人们对此并不确定,也不应该确定:因为根本没有足够的证据来得出定论。
但我们无需等待确定性。我想探讨的是,如果我们认真对待这种不确定性——以谦逊的认知态度行事——将会发生什么。在一个人工智能的时间线极度不确定的世界里,明智的规划应是何种模样?
我将得出结论:认真对待不确定性,对于一个人如何能更好地助力这场人工智能的转型有切实的意义。而这对我们应如何共同行动——即我们为实现这一目标该如何合作——则具有更为深远的意义。
人工智能时间线
所谓 人工智能时间线,我指的是「人工智能真正对世界产生变革性影响还需要多长时间」。人们通常使用诸如 通用人工智能(AGI)、人类水平 AI、变革性人工智能 或 超级智能 等术语来探讨这一问题。每个人对各个术语的用法都不尽相同,这使得比较他们给出的时间线变得颇具挑战。事实上,即使是个人对自己偏好术语的定义往往也有些模糊,以至于即便跨越了相关的门槛,他们可能仍然难以明确指出这具体发生在哪一年。
许多评论者认为这使得AGI等术语变得毫无用处,但我认为这种看法并不正确。
我喜欢用这样一个比喻来思考这个问题:一群登山者看到远处有一座山,高耸入云甚至直冲云霄,雪峰在阳光下闪耀。他们兴致勃勃地讨论着,如果能爬到那么高、走进云层内部,该有多美妙;又或者想象置身云端之上,像天使般俯瞰云海。攀登数小时后,他们注意到周围出现了淡淡的雾气。他们现在算是进到云里了吗?雾气逐渐变浓,直到他们只能看清前方10米。现在他们算是在云里了吗?随后能见度降至9米,接着是8米。然后能见度又开始回升。一小时后,只剩下一丝极淡的薄雾。他们现在是在云层之上吗?又过了30分钟,雾气完全消散,大家一致认同他们已经身处云层之上。
显然,在某个时刻他们身处云中,而在之后的某个时刻他们又到了云层之上。而且很明显,这些都是合理且有用的概念。例如,由于能见度低,他们在穿越云层时采取了用绳索将彼此连在一起的预防措施;他们还带上了相机,因为知道在云层之上可以拍出美丽的照片。缺乏明确的界限并不会让这些概念变得毫无用处。但不可否认的是,当登山者还在地面规划路线时,这些概念确实有用得多,而在那些界限模糊的过渡区域,它们的用处就大打折扣了。
我将 AGI(以及人类级智能)视为云层,而将超级智能视为云层之上。尽管这些概念有些模糊,但它们确实很有用。只是当你真正靠近它们时,其效用便会显著降低。
因此,我认为预测我们何时能达到某种先进且具有颠覆性的 AI 的阈值是有意义的。尽管由于这些概念的模糊性而存在一些固有的不确定性,我们在比较各自的预测时必须小心,以确保我们讨论的是这些概念的同一版本。
关于 AGI,情况已经变得有些云雾迷蒙。今年二月,《自然》杂志上的一篇文章指出,当前的前沿 AI 的水平已经可以算作 AGI。我设定的门槛会比这更高一些,但我同意,我们是否已经身处云层之中,这一点确实已值得商榷。
就我而言,我认为关键的临界点在于系统能力强到足以引发世界剧变——即文明层面的变革。例如,在这个节点上,AI若未对齐便可能取代人类,或者导致50%的人永久失业,又或者使全球技术进步速度翻倍。诸如此类。我之所以选定这一节点,是因为我认为它对我们制定具有决策意义的战略与职业规划最为重要。在许多情况下,我们希望能在达到该节点前做出自己的计划,而在此之后才见效的计划很可能会受到严重干扰。我将此称为变革性人工智能,并会明确标示出他人给出时间线的数据时所采用的评估标准。
短期 vs 长期时间线
关于时间线的讨论通常被框定为短期时间线 vs 长期时间线的辩论。
Anthropic首席执行官达里奥·阿莫迪(Dario Amodei)是极短时间线最著名的支持者之一。2025年1月,他表示:
打造在几乎所有方面都比几乎所有人类更智能的AI,将需要数百万块芯片和(至少)数百亿美元,且最有可能在2026至2027年间实现。
一个月后,他澄清道:
可能在2026或2027年(几乎肯定不会晚于2030年),AI系统的能力最好被视作一个登上了全球舞台、由高度智能体组成的全新国家——一个”数据中心里的天才国度”——它将带来深远的经济、社会与安全影响。
在另一端,长期时间线的一个典型代表是Epoch AI联合创始人埃格·埃迪尔(Ege Erdil),他预测“远程工作全面自动化”的中位时间为2045年——距今还有20年。
尽管专家们对AI何时开始产生变革性影响仍存在分歧,但他们显然并没有顽固地无视证据。正如海伦·托纳(Helen Toner)在其精彩文章《通往变革性AI的长期时间线已变得异常短暂》(https://helentoner.substack.com/p/long-timelines-to-advanced-ai-have)中所解释的:在ChatGPT出现之前,“短期时间线”通常意味着“10到20年,考虑到准备工作可能耗时良久,我们应当即刻着手”。而“长期时间线”则意味着“没有任何迹象表明AGI会在未来30年内实现,甚至本世纪能否实现尚属未知,因此开展任何与控制变革性AI相关的工作都为时过早”。但如今,我们看到了像达里奥·阿莫代(Dario Amodei)这样的短期时间线预测,认为天才级AI“几乎肯定”会在未来5年内出现;并且许多长期时间线的坚定支持者现在也表示,只需10或20年,AI就能达到人类水平。
以下是80,000 Hours整理的一张精彩图表,展示了在Metaculus预测网站上,距离AGI问世的平均预测时间是如何在短短5年内从约50年缩短至约5年的:
大致时间线
目前,大家都在根据证据更新看法并缩短时间线,但巨大的分歧依然存在。
这通常被视作一场辩论:我们似乎应该设法评判谁对谁错——时间线究竟是短、是长(还是中等)。人们押注赢家,站队其中一方,并且每当最新证据对己方阵营有利时,就会借机向另一方炫耀。
我今天的核心主张是:对我们大多数人来说,这种框架是错误的。你既不该持有短时间线,也不该持有长时间线——而应持有宽泛的时间线。也就是说:
面对专家间长期存在的分歧,正确的认知应对方式,是相信AI时间线会保持宽泛的分布。
首先,在众多极具智慧且信息充足的人士之间存在太多的分歧,因此将可能的时间范围限定得很窄是不合理的。否则,你就必须认为你的某些同行只有极小的概率比你看得更清楚,而实际上,这有一半的可能性。此外,这些人来自不同领域,带来了多元的洞见、证据和久经考验的决策逻辑,任何单一个人都很难对此做出妥当的评判。
其次,这些人中有许多自己也对AI时间线保持着宽泛的分布。以丹尼尔·科科塔伊洛(Daniel Kokotajlo)为例,他是AI 2027的作者之一,也是公认的短期时间线阵营的领军人物。几年前,他预测AI系统“能够取代99%的现有全远程工作”的中位数年份是2027年,该情景也因此得名。尽管他的时间线已略有拉长,而且在他们撰写该文时,2027年已更多地变成了一个说明性的早期情景,而不再是他认为有50%概率能够实现的节点。
Kokotajlo在公布自己的时间线预测方面做得非常出色,保持了极高的透明度,清晰展示了他对各种不同能力级别的强大AI的预测(及其不确定性)。以下是他对我们何时能拥有一个“在几乎所有认知任务上至少与人类顶尖专家媲美”的AI系统所作的当前概率分布:
他的分布峰值(众数)出现在2028年,但由于该分布严重右偏,到那个时间点实现这一目标的概率仅为27%。他的预测中位数年份为2030年。而他的80%区间(从第10到第90百分位)则从2027年延伸至2050年之后的某个时间点。
这是一个十分宽泛的分布。我认为用某人的80%区间来表达其认为可信的时间范围是合理的。在此,Kokotajlo表示此事很可能在距今1到25年内发生,但有五分之一的可能性它甚至不会落入这个宽泛的区间内。
持有如此宽泛分布的并非只有他一人。以下是丹尼尔·科科塔伊洛(Daniel Kokotajlo)、阿杰亚·科特拉(Ajeya Cotra)和埃格·埃尔迪尔(Ege Erdil)来自2023年的预测,他们预测的问题是:“人工智能系统将在哪一年能够取代99%的现有的全远程工作?”:
请注意,这三者的形状其实很相似,只是拉伸的方式不同。尽管它们的中位数截然不同,但实际上存在大量的重叠(透明的阴影部分凸显了这一点)。这既表明每位专家的预测分布都很广,也表明整个专家群体的分布范围还要更广。事实上,我认为直接采用这三位专家观点的混合模型也不失为一个好办法。有趣的是,自2023年以来,Kokotajlo的分布向右偏移,而Erdil的分布则向左偏移。
以下是80,000 Hours的本·托德所使用的AGI时间线分布示意图:
德瓦克什·帕特尔在其关于AI时间线的帖子中重现了这一分布,称这基本代表了他自己的不确定性,并给出他预测的中位数时间为2032年,届时AI将“像人类一样轻松、自然、无缝且快速地在工作中学习,胜任任何白领工作。”
以下是Metaculus社区当前对何时能开发出AGI的预测。综合社区的集体不确定性,这一预测非常宽泛,且呈现出相同的特征形状:
以下是Epoch AI在2023年关于人工智能时间线的主要预测汇总:
这些图表看起来略有不同,因为它们表示的是在特定时间之前实现变革性人工智能的累积概率。但它们的跨度都非常大。不妨看看它们从突破10%到突破90%之间的年份跨度。每一项预测的80%区间跨度都至少有50年。
那么,致力于人工智能能力研究的专家呢?Grace等人对数千名在顶级学术会议上发表论文的人工智能研究人员进行了调查。他们分别在2022年(蓝色)和2023年(红色)对研究人员进行了调查,询问他们认为何时“无需人类协助的机器能够比人类工人更好且更廉价地完成每一项任务”:
您可以看到个体预测(细线)之间存在巨大差异,且时间线在短短一年内就缩短了约30%。但巨大的不确定性依然存在。社区综合预测(粗线)的80%区间跨度从数年到数百年不等。
我认为每个人的预测分布都应大致呈这种形状。以下是我的分布:
该分布针对的是变革性人工智能,其大致定义为:若发生未对齐,将强大到足以接管世界,并且能使科技进步速度翻倍的人工智能。它的形状与Kokotajlo的类似,但更为宽泛,中位数在2038年,80%置信区间从3年到100年不等。
让我们回到起点,看看Kokotajlo对“在几乎所有认知任务上至少与顶尖人类专家一样出色”的AI所给出的分布预测:
虽然我们通常用单一数字(如众数或中位数)来表示预测的时间线,但我认为这种做法在这里没有太大帮助。请看那张图表。哪个数字能概括它?它唯一真正的特征是峰值,但Kokotajlo表示在那之前实现的可能性并不大(概率仅为27%)。给出中位数通常是更好的做法,但在这里,它落在图表上一个相对平平无奇的位置(即4年后);如果只说“4年”,就会掩盖他的核心观点——他认为有10%的概率会在1年内实现,且有10%的概率会超过25年。
我认为,如果他能向一位聪明的策略制定者详细解释这个分布的实际含义,对方最终会恍然大悟并说道:
哦,所以你的意思是你根本不知道它何时会发生——可能就在明年,也可能在6届总统任期之后*。*而且你还说,有五分之一的可能性它甚至不在这个范围内。
我觉得这其实是个相当不错的总结,也同样能概括我自己的概率分布。虽然“根本不知道它何时会发生”低估了这个分布中所包含的信息,但它比“4年”这个说法要好得多——因为几乎所有人都会把“4年”理解为类似“3到5年之间”的意思。虽然学者们可能希望人们将给出的具体年份解读为中位数时间,但大多数人却将其视为自己可以开始抱怨预测事件尚未发生的时间点。
事实上,这些分布很难用单一数字来概括,因此我认为关于时间线的大量分歧,源于人们描述的是同一头大象的不同部位。例如,无论是AI拥护者还是关注生存性风险的人士,都常常谈论短期时间线,因为“我们可能会在短短几年内就看到世界发生巨变”。这并非因为他们认为我们必定会看到这种变化,而是因为这一旦成真便影响极其重大,且其成真的概率并不算低。相比之下,较为保守的声音则倾向于关注更远的未来,他们认为“相比于仅仅几年,花上10到20年的可能性要大得多”(这种观点仅关注纯粹的概率,而未以重要性或影响力进行加权)。
这两种情况完全可以同时成立。在我自己的概率分布中,两者就都是成立的。
用单一数字传达时间线存在一个特有的危险,那就是这会增加那个被点名的年份最终风平浪静地流逝的可能,从而导致提及该年份的人(或他们所属的更广泛群体)被认定为观点错误或信誉破产。我认为到了2027年,我们就会看到这类情况发生,因为有大量的人听说了那个情景,再加上许多媒体将其作为一项确切的预测来进行报道,而偏离了它的本意:一个重要的示例性情景。
将不确定性压缩为单一数字,不仅不利于沟通,对个人的规划也非常不利。
例如,Kokotajlo的分布表明,当前总统任期内出现变革性人工智能的概率为28%,下个任期出现的概率为35%,再下个任期出现的概率为13%,剩余24%的概率则分散在越来越遥远的任期中:
这些情景大相径庭,若仅因第二种情景最可能发生就将其视为确定的事实并据此行动,显然是错误的。这会使我们失去对冲变革性人工智能很快到来的可能性,同时也错失了在它姗姗来迟的世界中获益的机会。
启示
与其试图判定哪种长度的时间线才是正确的,我认为我们更应该采用“在高度不确定的时间线下如何行动(或规划)”的思维框架。
也就是说,我们应当将其视为一次在不确定性下进行理性决策的实践——在这一情境下,事关重大且不确定性极高。
让我们来剖析这一框架的几层含义。
我们将从策略领域中极为常见的两个误区谈起。
首先,关于人工智能时间线的不确定性,并不能成为借口,让你只要在可信范围内就可以随意相信自己偏好的时间线。遗憾的是,我认为如果专家向政府部长们解释这种广泛的不确定性,他们很可能会采取这种态度。虽然他们说得没错——现有证据不足以推翻他们偏好的时间线,但如果他们不为其他可信的可能性留出余地,那便是极不负责任的。这就像一位市长得知镇旁的火山明年有20%的几率喷发,却觉得可以继续当它不会喷发来行事,因为专家也认为它“不喷发”同样是可信的。不确定性并非让你认定自己偏好的合理结果必将发生的借口,相反,理性要求你尊重每一种合理的结果。
其次,我们不能仅仅干等着不确定性消除。有时这确实可行,但在此情境下,我们知道直到事件真正降临,不确定性都极不可能被消除。到了那个阶段,除了做出最下意识的反应外,采取其他任何行动都为时已晚。因此,若认为不确定性的阴云成了你推迟行动的理由,那就无异于主动选择最简单粗暴且最无效的应对方案。
相反,我们需要在不确定性下采取行动,全面考量所有可信的可能性。
我们该如何做到这一点?
对冲
一个自然且重要的思路是,在我们的准备最不充分时,针对「变革性人工智能很快到来」进行对冲(避免它这么快到来!)。我们可以通过调整我们的行动组合(或者你个人的贡献),对较短的时间线投入略高于单纯概率所建议的关注度,来实现这一点。
这非常有道理。我强烈建议政府、公民社会和学术界做更多工作,以防范变革性人工智能的过早到来。
不过,谈到那些已经致力于推动人工智能平稳过渡的专业群体,我认为他们已经在大力防范变革性人工智能的过早到来。事实上,甚至存在一种风险,即他们已经超越了单纯的防范,而是在积极押注其提前到来。我对此并不确定,因为很难了解他们工作的全貌。
显然,我们能看到针对极短时间线的工作呼吁,远多于针对长时间线的呼吁。但在我们的规划中,也有充分的理由去考虑长时间线,而且针对长时间线的工作同样有途径发挥极高的杠杆效应。
让我们来看看时间线拉长时会发生的两件关键的事情。
截然不同的世界
在更长的时间线中,人工智能将降临在一个与今天截然不同的世界里。变革性人工智能出现得越晚,在那个关键时刻,世界就会与今天有越大的差异。
作为基准,假设它很快到来,比如在2028年。情况肯定会与今天有所不同,但我们预计大体轮廓会十分相似。届时的美国总统、主要参与者以及主要技术很可能都与现在相同。如果变革性人工智能在短短两年内就出现了,我敢打赌那会类似于《AI 2027》中的情节——某个实验室鲁莽地启动了递归式自我改进机制。
现在假设变革性人工智能在2035年到来。那不在本届总统任期内,甚至不在下一届,而是在再下一届。届时谁会掌权,或者美国会处于何种境地,谁也说不准。这九年间,AI的核心技术很可能已经发生了重大变化(毕竟九年前,大语言模型和Transformer架构都还不存在)。我们很可能会看到截然不同的领先AI企业,这或许是因为泡沫破裂,淘汰了扩张过度的先行者。
到2035年,出口管制很可能已经适得其反,反而通过刺激对方建立本土芯片产业,并给了他们13年时间来精进技术,从而帮助他们在芯片领域取得领先。这是白宫在起草出口管制政策时考虑过的一个关键动态,但他们当时关注的是更短的时间线……到2035年,台海可能也会有变化,西方有可能失去其最大的芯片来源。
到2035年,日益强大的AI系统可能会导致两位数的失业率,公众对AI的情绪也可能变得非常强烈。关于AI监管的奥弗顿之窗将转移到截然不同的位置。
地缘政治格局可能也会截然不同。过去九年间,我们目睹了乌克兰遭到入侵、美国日益孤立以及全球大流行病的爆发。再过九年,可能会发生同等程度的变化。
如果我们未能妥善应对,我们这些致力于避免AI带来的灾难性风险的人可能也会失去大量影响力——因为这么多年过去了,我们所谈论的真正变革性影响依然没有出现,导致我们关于AI风险的观点被视为站不住脚。
简而言之,时间线越长,事物的变化就越大——既包括某些系统性、可预测的变化,也包括单纯源于随机扩散与混沌的改变。因此,认真对待更长的时间线意味着:
- 对那些在当今世界行不通的方案持更开放的态度
- 对那些针对当今世界具体情况量身定制的方案少一些热情
- 不太乐意为了迎合当前掌控企业与政府的人而妥协自己的价值观
- 不太愿意说出那些一旦最终进入长期时间线的世界,就会让人觉得我们的立场站不住脚的话
- 以及花更少的时间去追踪关于人工智能领域的最新动态或谁处于领先地位的每日新闻。
长期行动
人们可以致力于许多种类的工作,这些工作虽然需要数年时间才能见效,但回报丰厚。例如:
- 开创并培育一个新的研究领域
- 创立组织或公司
- 发起运动或建立社区
- 撰写一本书
- 基础研究
- 完成博士学业
- 重大职业转型
- 在大型机构或政府中晋升
- 培养AI安全或AI治理领域有潜力的学生
若仅考量未来三年的影响力,其中大多数选项都会被其他短期选择所超越。但随着时间推移,长期选项可能会产生极高的价值。它们未必总是最佳选择,但对于合适的人才或机遇而言,却能产生极其深远的影响。
在我攻读研究生期间,我意识到如果将职业生涯中的大部分收入捐献出去,用于帮助最贫困国家的人们,我将能成就多大的善举。我越想越觉得,我应该去创办点什么——一个组织——来帮助其他人也能做到这一点。于是,威尔·麦卡斯基尔和我于2009年共同创立了Giving What We Can。17年后,已有超过1万人加入我们,所产生的影响力是我独自坚持下去的数千倍。
这种复利式增长是长期项目产生巨大乘数效应的主要途径之一,如果时间跨度确实很长,它将为我们的影响力带来极大的提升。
开拓新领域亦是如此。十年前我初次见到艾伦·达福时,他谈起了“AI治理”——一个他正试图开创的新领域,当时我根本不知道他在说什么。如今,这已成为一个蓬勃发展的领域,拥有数百名从业者,许多不同的政府对他们都有着极高的需求。
当我开始撰写《危崖》(The Precipice)时,我曾犹豫是否该动笔,因为我以为AGI的到来或许已近在咫尺。但事实证明,我不仅有时间写完它,还能让它产生切实的影响。我很庆幸自己写了这本书,因为我遇到了许多致力于应对最大风险的杰出人士,他们告诉我正是阅读《危崖》一书激励了他们投身于此。我认为这是我做过的最有意义的事情之一。
书出版后,我曾以为根本没有足够的时间再写一本书——我们离那个关键时刻真的太近了。情况或许确实如此,但我认为自己误判了这一论据的分量。一本书要产生切实影响,所需的时间跨度大约为5年(包括构思全书、签订出版协议、完成写作、等待出版商出版,以及出版后再等待一年或更长的时间,才能在世界上产生足够的影响)。
但我认为,未来5年内出现变革性人工智能的概率大约只有五分之一。因此,一本书的问世固然可能为时已晚,但这种可能性仅为五分之一,这意味着一个图书项目的预期价值仍能达到我简单估算值的80%。因此,尽管有五分之一的概率我会为此懊悔,但基于我对AI时间线的看法,这种“为时已晚”的可能性其实并不会让预期价值大打折扣。
话虽如此,在你的工作取得回报之前变革性人工智能就出现的可能性,仅仅是影响你应致力于短期还是长期时间线工作的一个因素。另一个因素是,相比于未来,当前的AI安全与治理很可能更缺乏关注。这为当下在这些领域开展直接工作的价值带来了额外的乘数效应,在某些情况下,这种效应甚至比你的工作在变革性人工智能出现之后才结出硕果的概率带来的影响更大。
总体而言,我认为这些考量确实会降低长期项目的权重,但其优势有时会盖过这一影响——尤其是当这些项目旨在实现巨大回报时。我推测,如果有人审视各种选项后认为最佳方案需要5到10年才能见效,那么在约一半的情况下,即便将 AI 的时间线纳入考量,该方案依然会是最佳选择。毕竟,最佳选项比次优选项好上数倍的情况并不罕见。
所以我认为,致力于变革性人工智能的群体很可能低估了那些需要五年或更长时间才能见效的工作类型。旨在促使人工智能转型顺利进行的理想项目组合,应当包含一些在我们拥有更长时间去尝试的情境下,真正能助力我们取得成功的项目。
但我想强调的是,这绝不意味着我们可以懈怠。
我们正在与 AI 时间线赛跑。只是我们尚不清楚这场赛跑究竟是短跑还是马拉松。无论哪种情况,时间都至关重要。
结论
我们已经看到,关于人工智能何时开始对世界产生变革性影响,存在巨大的分歧和不确定性。这是因为目前尚无足够的证据来确定具体的时间点。我的主张是:出于规划目的,我们既不应采用短期时间线,也不应采用长期时间线,而应采用宽泛的时间线:
面对专家们长期存在的分歧,正确的认知应对方式是对人工智能的时间线保持宽泛的分布。
鉴于这种深度的不确定性,我们需要以认知上的谦逊来行事。我们必须认真对待它可能很快到来的可能性,并为此做好防范。但我们也必须认真对待它可能很晚才到来的可能性,并利用这能为我们带来的机遇。整个世界对前者做得太少,而我们这些最关心如何让人工智能顺利过渡的人,对后者做得可能也太少。
我们需要更认真地对待这样一种可能性:届时的世界面貌可能会大不相同,这应当拓宽我们的奥弗顿之窗,使我们重新审视什么样的计划能够取得成功。我们也不应排除所有需要漫长时间才能见效的行动。即使它们在短时间线的世界里无济于事,可一旦时间线较长,某些行动所能带来的巨大影响将远远足以弥补这一遗憾。
资助方、职业顾问和运动建设者在思考这一问题时,应当着眼于我们作为一个社区该如何行动:即旨在有效改善世界的整体工作组合应当呈现出怎样的形态。而我们每个人也都应当反思,这种极度不确定的时间因素对于我们规划未来数年的个人贡献究竟意味着什么。