读人工智能时代与人类未来笔记13_网络武器

1. 军备控制

1.1. 威慑的目的是通过威胁发动核战争来防止核战争

1.2. 军备控制的目的是通过限制甚至废除武器(或武器类别)本身来防止核战争

1.2.1. 与核不扩散相配合,以一整套详尽的条约、技术保障措施、监管和其他控制机制为支撑,所提出的理念是防止核武器及其制造所需的知识和技术扩散到拥核国家以外

1.2.2. 20世纪70年代的《限制战略武器条约》和《反弹道导弹条约》,以及最终于1991年签署的《削减战略武器条约》(START)

1.2.3. 尽管仍然是对手,并继续为战略优势而竞争,但美苏两国都在军备控制谈判中获得了一定程度的确定性

1.3. 在后冷战时代发明的网络和人工智能这两种主要新武器类别,也没有用这两种策略加以认真限制

1.4. 核武器给决策者带来了两个相关的难题:如何定义优势以及如何限制劣势

1.4.1. 自己只需要一个足以造成破坏而不是取得胜利的核武库,就可以阻止他国对自己的攻击

1.4.2. “不使用核武器”并非一项永久的成果,而是每一代领导人必须确保的一种状态,他们必须不断调整本国最具破坏性武器的部署和打击能力,以适应这项以前所未有的速度发展的技术

1.5. 复杂局面

1.5.1. 网络冲突,它放大了脆弱性,扩大了战略竞赛的领域,增加了参与者的选择

1.5.2. 人工智能,它具有改变常规武器、核武器和网络武器战略的能力

1.5.3. 新技术的出现加剧了核武器面临的困境

2. 数字时代的冲突

2.1. 一个国家的政治影响力往往与其军事力量和战略能力大致匹配,这是一种即使主要通过施加隐性威胁也会对其他社会造成破坏的能力

2.2. 依赖于各方就这一力量的构成要素及其使用的合法界限达成共识

2.3. 维持均势需要体系内所有成员,尤其是对手,就各个国家的相对能力、意图和侵略的后果进行一致的评估

2.4. 保持均势需要一个实际的、公认的平衡

2.5. 当体系中的一方以一种与其他成员并不成比例的方式增加自身力量时,体系将通过组织对抗力量或者通过适应新的现实来设法做出调整

2.5.1. 当均势的权衡变得不确定时,或者当各国对各自相对实力的权衡结果完全不同时,由误算引发冲突的风险就会达到最大

2.6. 不同的观察者将形式各异的网络入侵、在线宣传和信息战称为“网络战”“网络攻击”,一些评论还称之为“战争行为”

2.7. 各大国现在正陷入一种网络冲突,尽管这种冲突的性质和范围没有现成的定义

2.8. 数字时代的一个核心悖论是:一个社会的数字能力越强,这个社会就变得越脆弱

2.8.1. 计算机、通信系统、金融市场、大学、医院、航空公司和公共交通系统,甚至民主政治的机制,所涉及的系统在不同程度上都容易受到网络操纵或攻击

2.8.2. 随着发达经济体将数字指挥和控制系统整合到发电厂和电网中,将政府项目转移到大型服务器和云系统中,并将数据转誊到电子账簿中,它们在网络攻击面前的脆弱性也成倍增加

2.8.3. 如果发生数字破坏的情况,低技术国家、恐怖组织甚至个人攻击者可能会认为他们承受的损失相对要小得多

3. 网络武器

3.1. 这类武器涉及军用和民用两个领域,因此其作为武器的地位是模糊的

3.1.1. 在传统战场上颠扑不破的道理却不能直接套用到网络领域

3.2. 网络武器的效用很大一部分来自其不透明性

3.2.1. 若被公之于众,它们的威力自然有所减损

3.2.2. 这些武器利用之前未曾披露的软件漏洞,在未经授权用户许可或知情的情况下侵入网络或系统

3.2.3. 最著名的网络工业破坏事件震网(Stuxnet)病毒破坏了伊朗核项目中的制造控制计算机,也没有任何政府对此事做过正式承认

3.3. 在许多情况下,网络武器影响的是大范围的人类社会,而不仅仅是战场上的特定目标

3.3.1. 网络武器可以广泛地影响计算和通信系统,往往可对民用系统造成特别有力的打击

3.3.2. 网络武器也可以被其他行为体基于其他目的而进行吸纳、修改和重新部署

3.3.3. 这使得网络武器在某些方面类似于生物和化学武器,其影响可以非预期和未知的方式传播

3.3.4. 使得网络军备控制难以被概念化或被推行

3.4. 网络军备控制谈判人员(目前尚不存在)则需要解决以下悖论:一旦对网络武器的威力进行讨论,可能就会导致这种威力的丧失(允许对手修补漏洞)或扩散(对手得以复制代码或侵入方法)

3.5. 网络能力和网络行动的相对低成本,以及一些网络行动可能具备的相对可否认性,将会鼓励一些国家使用半自主行为体来执行这些网络功能

3.5.1. 半自主团体可能难以控制,并可能在未经官方批准的情况下从事挑衅活动

3.6. 网络领域中行为的快速性和不可预测性,及其所包含的各种行为体之间错综复杂的关系,再加上可以削弱一个国家绝大部分网络能力,以及搅乱该国国内政治格局(即使这些活动不会升级到传统的武装冲突水平)的泄密者和破坏者的存在,都可能诱使决策者采取先发制人的行动,以防止自己遭受致命打击

3.7. 网络领域行为的速度和模糊性有利于进攻方,并鼓励产生“积极防御”和“向前防御”之类寻求扰乱和排除攻击的概念

3.7.1. 最有效的攻击往往是未达到武装冲突传统定义门槛的攻击(通常未得到立即承认或正式承认)

3.7.2. 无论是政府的还是非政府的,没有任何一个主要的网络行为体公开自己全部的能力或活动,甚至在为了威慑阻止其他人的行动时也未曾有过

4. 常规武器和核武器

4.1. 常规武器和核武器存在于物理空间中,在那里,它们的部署可以被察觉,它们的能力至少可以被粗略计算出来

4.2. 常规武器和核武器可以相对精确地瞄准目标,道德和法律要求它们瞄准的对象只能是军事力量和设施

5. ARTUμ

5.1. 在飞行测试中驾驶飞机并操作雷达系统

5.2. ARTUμ的开发人员将其设计为可以在没有人类干预的情况下做出“最后抉择”,其能力限于驾驶飞机和操作雷达系统

6. 人工智能与安全领域的动荡

6.1. 核武器的破坏性和网络武器的神秘性,正日益与一种更新的能力相结合,也就是基于人工智能原理所实现的能力

6.2. 将非人类逻辑引入军事系统和过程会给战略带来改变

6.2.1. 通过与人工智能共同培训或与之合作,军队和安全部门获得的洞察力和影响力提升会令人惊讶,有时也令人不安

6.3. 除了潜在的变革效用,人工智能的自主和独立逻辑能力还产生了一定程度的不可预料性

6.3.1. 大多数传统的军事战略和战术是以对人类对手的假设为基础的,即假设对手的行为和决策计算符合某种可识别的框架,或者可由经验和传统智慧界定

6.3.2. 驾驶飞机或用雷达扫描目标的人工智能遵循的是自己的逻辑,这对对手来说可能就不可捉摸,也不受传统信号和佯攻的影响,而且在大多数情况下,这种逻辑的执行速度将快于人类的思维速度

6.4. 战争一直是一个充满不确定性和偶然性的领域,但人工智能进入这个领域将为其带来新的变数

6.4.1. 在传统的冲突中,对手的心理是战略行动瞄准的关键点

6.4.2. 算法只知道它的指令和目标,却不知士气或怀疑为何物

6.4.3. 由于人工智能具有适应其所遇现象的潜力,当两个人工智能武器系统被用于彼此对抗时,交战双方都不可能准确理解人工智能间的交互将产生的结果或其附带影响

6.4.3.1. 他们可能只能不甚严密地辨别对方的能力和卷入冲突的代价

6.5. 即使有人工智能辅助,强大的防御也是安全的先决条件

6.5.1. 新技术的普遍性使人们无法单方面放弃它

6.5.2. 即便是在整兵备战时,各国政府也应该评估并尝试探索将人工智能逻辑加入人类战斗经验的方法,以使战争变得更人道、更精确

6.6. 人工智能和机器学习将通过扩大现有武器类别的打击能力来改变行为者的战略和战术选择

6.6.1. 人工智能不仅能使常规武器瞄得更精准,还能使它们以新的、非常规的方式进行瞄准,比如(至少在理论上)瞄准某个特定的个人或物体,而不是某个地点

6.6.2. 人工智能网络武器可以学习如何渗透防御,而不需要人类帮它们发现可以利用的软件漏洞

6.6.3. 人工智能也可以用于防御,在漏洞被利用之前定位并修复它们

6.6.4. 由于攻击者可以选择目标而防御者不能,人工智能即使未必让进攻方战无不胜,也可令其占得先机

6.7. 人工智能开辟了信息空间能力的新视野,包括虚假信息领域

6.7.1. 生成式人工智能可以创造大量似是而非的虚假信息

6.7.2. 人工智能推波助澜的信息战和心理战,包括使用伪造的人物、图片、视频和演讲,无时无刻不在暴露出当今社会令人不安的新弱点,尤其是在自由社会

6.7.3. 广泛转发的示威活动配上了看似真实的图片和视频,里面的公众人物发表着他们从未真正说过的言论

6.7.4. 人工智能可以决定将这些由人工智能合成的内容以最有效的方式传递给人们,使其符合人们的偏见和期望

6.8. 与核武器领域不同的是,对人工智能的使用并不存在被广泛认同的禁令,也没有明确的威慑(或升级程度)概念

6.8.1. 人工智能大国有能力部署具有快速逻辑推理和不断演化行为能力的机器和系统,来攻击、防御、监视、传播虚假信息,以及识别和破坏另一方的人工智能

6.8.2. 由于具备军民双重用途,易于复制和传播,人工智能的基本原理和关键创新在很大程度上是公开的

6.8.3. 即使人工智能的传播可以受监管,这种监管可能也是不完美的,要么是技术进步令先前的监管方式过时,要么是这种监管在下定决心窃取人工智能的行动者面前仍有漏洞

6.8.4. 一个社会的商业创新可能会被另一个社会用于安全或信息战目的

6.8.5. 政府时常会采纳尖端人工智能发展中最具战略意义的方面,以满足其国家利益设想

6.8.6. 当军队使用人工智能来制订计划或锁定目标,甚至在常规巡逻或冲突期间提供动态协助时,这些人们原本熟悉的概念和互动可能会变得陌生,因为这涉及与一种新型智能打交道并设法了解它,而该智能的运作方式和战术还不得而知

6.9. 将网络力量平衡和人工智能威慑概念化的相关工作尚处于起步阶段

6.9.1. 最具颠覆性且不可预测的影响,可能发生在人工智能和人类智能遭遇之时

6.10. 从根本上说,向人工智能和人工智能辅助武器及防御系统的转变,会对智能产生某种程度的依赖,这种智能基于根本不同的经验范式运行,且具备可观的分析潜力

6.10.1. 在极端情况下,这种依赖甚至演变为一种授权,它将给人们带来未知或目前还知之甚少的风险

6.11. 最深层的挑战可能是哲学层面上的

6.11.1. 如果战略的各个层面开始在人工智能可及而人类理性不可及的概念和分析领域运作,那么它们的过程、范围和最终意义将变得不再透明

6.11.2. 各个社会可能会在哪些决策权可以下放,以及什么样的风险和后果是可以接受的方面形成各不相同的限制

posted @ 2024-05-25 08:09  躺柒  阅读(31)  评论(0编辑  收藏  举报