AI曼哈顿计划提议:美国的自杀还是拯救?

前言:AI是核级威胁吗?本文讨论了美国关于人工智能(AI)的“曼哈顿计划”提议,并分析了其对美国未来可能带来的影响,尤其是是否能维持美国在全球的霸主地位。以下是文章的中文口语化网络翻译:

震惊。

这就是大多数人在读完《美中经济安全审查委员会》的2024年度报告后,感受到的情绪。他们得出的结论是,人工智能通用(AGI,也叫“上帝AI”)的竞赛对美国的国家安全至关重要,关乎美国全球霸主地位的延续(或者说终结),就像几十年前核武器的影响一样。

不过,报告公开呼吁美国要像当年曼哈顿计划一样,抢在中国之前开发出AGI。

换句话说,这份报告认为AGI的研发,战略重要性和核武器的研发不相上下。

那么,建设AGI真的是美国生死攸关的问题吗?如果是的话,模仿曼哈顿计划的方式真的是好主意,还是国家自杀?

竞赛开始了

为了理解为什么有人呼吁AI要像核武器一样对待,我们可以回顾一下核武器发展的关键时刻。

一系列事件的链式反应

当奥托·哈恩和弗里茨·斯特拉斯曼展示出通过中子轰击铀原子核,分裂成更轻的元素(核裂变),并释放出大量能量时,丽莎·梅特纳和奥托·弗里施只用了一个月就理论上解释了这一现象。

几个月后,莱奥·西拉德(1933年就已经提出)和恩里科·费米证明了,当中子撞击核时,会释放更多中子,产生连锁反应,这样的反应可以自持。而且,这种反应是可以从像铀这样的材料中发生的。

这引发了著名的爱因斯坦致罗斯福总统的信,指出德国有可能研制出核武器,这个风险非常真实。

这封信开启了争夺核武器的竞赛,也启动了曼哈顿计划。

通过这次发现,可能做两件事:

• 核反应堆:反应堆的临界常数是k=1,意思是一个中子分裂铀核后会导致另一个裂变反应,反应达到“临界”状态,自我维持。反应释放出的热量会把水变成蒸汽,推动涡轮发电。

• 核武器:当临界质量足够大,裂变反应不仅自我维持,而且每个裂变产生多个后续裂变反应,最终能释放出巨大的能量和热量,形成爆炸。

为什么会释放热量?

因为每次裂变后,产生的碎片质量稍微小于原本的质量,但根据拉瓦锡的质量守恒定律,质量并不会凭空消失,而是转化为能量。这就是著名的E=mc²公式,缺失的质量转化成了热量。

核反应堆用这个热量发电,而核武器用它来杀人。

从原理上讲,它们是一样的,奇妙的是同一个过程既可以改善人类生活,也可能结束它们。

AI与国家安全

美国在核能上的领先地位,使其在几十年内在全球形成了“天然的”威慑力。现在,《美中经济安全审查委员会》认为,AI应该像核裂变一样,对国家安全至关重要。

但马上就会有很多疑问。回想一下核武器,不久之后其他国家也发展了这项技术,这迫使各国开始就核能的管理和应用达成协议。

那么,如果其他国家也能很快达到这个目标(事实上,俄罗斯在1961年10月30日投下的“沙皇氢弹”创造了最大的核弹记录),那这个“曼哈顿计划”有什么意义呢?

答案是:时间。

换句话说,委员会的潜台词是:问题不是其他国家是否能赶上AGI,而是谁先到达。原本的曼哈顿计划对盟军赢得二战至关重要,但AGI真的是在这个层面上有类似重要性吗?

什么是AGI?

AGI的典型定义是:AI(或一组AI)能够执行像人类那样的任务,或者至少达到人类顶级的99%表现水平。

以谷歌DeepMind的分类来说,他们划分了不同级别的AGI,而委员会讨论的显然是最高级别的AGI——即能够执行经济价值大部分任务的AI。

这意味着,AGI是一个人类社会的划时代时刻,机器可以自动执行大部分经济活动。这对于任何一个愿意保持全球竞争力的国家来说,都是极具吸引力的技术。

例如:

• 生产商品和服务的成本会极大下降,因为AI的时薪远低于人工(想想GPT-4o mini的费用,简直无敌)。这将使美国公司在全球市场中具备无法比拟的竞争力。

• 正如OpenAI的联合创始人Sam所说,如果真的实现了这种AI,它将加速科学发现,使得某个国家的科技进步速度将远超其他国家。

• 还可能带来网络安全优势,因为这种“上帝级AGI”可以用来破解其他国家的安全系统。

简而言之,就像一个国家拥有电力,其他国家还在用火炉加热一样,差距巨大。

AGI的实现可能吗?

那么,AGI真的是可能实现吗?这个“上帝级AGI”定义合理吗?

让我们戴上怀疑的眼镜。

保护现有企业的生存

我非常怀疑《美中经济安全审查委员会》没有受到AI行业现有大公司强烈游说的影响。

原因很简单:

生存问题。

“数学不对劲”

如今,大部分前沿AI实验室的技术几乎完全相同。你能列出至少七个实验室(OpenAI、Anthropic、Google Deepmind、xAI,可能还有中国的DeepSeek和阿里巴巴、法国的Mistral)它们的技术几乎没有区别。

虽然在产品上确实有一些差异(比如ChatGPT比Gemini好用),但最大的威胁来自于开源技术。

Meta、Mistral以及中国的一些实验室,已经把大语言模型(LLM)的技术开源了。你可以免费下载它们,并在自己的IT系统中保存。

这意味着建立一个“AI护城河”几乎是不可能的。即使是OpenAI发布的Sora和o1模型,最初有独特性,但也很快被开源技术赶超。

这也意味着实验室们投入了数十亿美元去开发下一代前沿AI模型,但却必须大幅降价,甚至为客户提供补贴,才能保持竞争力,因为对手免费开源这些模型,造成了价格竞争的恶性循环。

“渐进然后突然”

《太阳照常升起》这本书里,迈克被问到破产的原因时,他回答:“渐进,然后突然。”现在,这个说法也被用来形容AI达到AGI的过程。

简单来说,AGI的出现就像“三位一体”测试那样,AI会慢慢变得更智能,然后突然间,我们会看到一个“上帝级AGI”诞生。

但是,真的会这样吗?有很多理由让人认为不会。

比如,AI现在正在从“归纳学习”转向“传导学习”,这种变化可能导致模型的能力局限于某些特定任务,反而削弱了它们之前的广泛能力。

结论:美国可能自毁前程

最终,如果美国试图通过关闭开源创新来限制技术传播,可能最终会导致美国自己错失超越其他国家的机会。正当中国更加开放地进行AI开发,反而可能会迎头赶上并超越美国。

美国正在重蹈欧洲的覆辙——过度监管,导致经济衰退。

posted @ 2024-12-03 17:20  果冻人工智能  阅读(37)  评论(0编辑  收藏  举报