国际秩序
1. 通用人工智能
1.1. 现代社会重视人类心智通过收集和检验数据,以及通过观察推断见解而获得的知识
1.2. 在当下这个时代,理想型的真理一直是非凡的、可检验的命题,并可通过测试加以证明
1.3. 人工智能时代将弘扬另一种知识的概念,即人类和机器合作的成果。我们(人类)将创建和运行(计算机)算法,这些算法将以更快、更系统的方式检验更多的数据,并且使用与任何人类心智都不同的逻辑
1.4. 有时,其结果将揭示世界的某些属性,而这些属性是我们在与机器合作前无法想象的
1.5. 通用人工智能将能够学习并执行范围极广的任务,一如人类所为
1.5.1. 开发通用人工智能将需要巨大的算力,这可能导致只有少数资金充足的组织有能力创建此类人工智能
1.5.2. 可以通过只允许经批准的组织运营通用人工智能来对其施加限制
1.6. 如果通用人工智能真的出现在世上,这将是智力、科学和战略上的重大成就
1.6.1. 即便未能如此,人工智能也同样能为人类事务带来一场革命
1.7. 人工智能在应对突发事件(或者说意外事件)及提供解决方案方面展现出的动力和能力使其有别于以往的技术
1.7.1. 如果不受监管,人工智能可能会偏离我们的预期,进而偏离我们的意图
1.8. 人类可能参与到一场“逐底竞争”中
1.8.1. 随着人工智能实现流程自动化、允许人类探索大量数据,并组织和重构物质和社会领域,那些先行者可能获得先发优势
1.8.2. 竞争压力可能会迫使各方在没有足够时间评估风险或干脆无视风险的情况下竞相部署通用人工智能
1.9. 对人的治理是以道德准则为指导的
1.9.1. 在信仰时代,当神明裁判中的被告面临战斗裁决时,法院可以判定罪行,但由上帝决定谁获得胜利
1.9.2. 在理性时代,人类根据理性的戒律来确定罪责,并根据因果关系和犯罪意图等概念来判罪并给予惩罚
1.10. 人工智能需要一种自己的道德准则,这种准则不仅反映了技术的本质,也反映了它所带来的挑战
1.10.1. 通常,既有原则并不适用于此处
1.10.2. 人工智能并不依靠人类的理性运作,也没有人类的动机、意图或自我反省
1.10.3. 人工智能的引入将使适用于人类的现有正义原则更为复杂化
2. 时间旅行
2.1. 从某种意义上来说,人工智能已经超越了人类的感知
2.2. 通过时间压缩或“时间旅行”,也就是借助算法和算力,人工智能可以通过一些过程进行快速分析和学习,而同样的过程,人类心智需要几十年甚至几个世纪才能完成
2.3. 在其他方面,单靠时间和算力已不足以描述人工智能的功能
3. 两种不同但部分重叠的现实
3.1. 人类可以通过理性阐述的
3.2. 人工智能可以通过算法说明的
3.2.1. 人工智能就能感知我们尚未感知也无法感知的事物
3.2.2. 不仅因为我们没有足够的时间以我们的方式去推理它们
3.2.3. 还因为它们存在于一个我们的心智无法概念化的领域中
4. “元”问题
4.1. 在对世界有着不同解释和理解的人工智能的“辅助”下,人类能否满足对哲学的需求?
4.2. 人类并不完全了解机器,但我们最终是否将与它们和平共处,并以此改变世界?
5. 康德提出的限制
5.1. 一个其无法回答的问题领域
5.2. 一个其无法完全了解的事实领域
6. 人
6.1. 那些设计、训练人工智能并与人工智能合作的人能够实现的目标,将达到迄今人类无法企及的规模和复杂程度,比如新的科学突破、新的经济效率、新的安全形式,以及社会监控的新维度
6.2. 在扩展人工智能及其用途的过程中,那些未能获得主导权的人可能会感到,他们正在被自己不了解,而且并非由自身设计或选择的力量所监视、研究和采取行动
6.3. 这种力量的运作是不透明的,在许多社会中,这是传统的人类行为者或机构不能容忍的
6.3.1. 首先要做的是向非技术人员解释人工智能在做什么、它“知道”什么,又会如何去做
6.4. 官方的协商者必然是政府,但也需要为技术专家、伦理学家、创造和运营人工智能的公司以及其他领域外人士搭建发声平台
6.5. 我们应该设法使其可审核,亦即使其过程和结论既是可检查的又是可纠正的
6.5.1. 纠正能否实施,将取决于能否将针对人工智能感知和决策形式的原则细化
6.5.2. 道德、意志甚至因果关系都不能很好地契合自主人工智能的世界
6.5.3. 从交通运输到金融再到医药,社会的大多数层面都会出现类似的问题
6.6. 不完美是人类经验中的常态之一,尤其是在领导力方面
6.6.1. 有时,他们的行动基于错误的假设
6.6.2. 有时,他们的行动纯粹是出于感情用事
6.6.3. 有一些时候,意识形态扭曲了他们的视野
6.6.4. 如果人工智能在某些领域显示出超人的能力,则其使用必须能够被不完美的人类环境所兼容并包
6.7. 人工智能的出现,带来了人类仅凭理性无法获得的学习和处理信息的能力,功将带来新的问题它可能会让我们在那些已被证明超出我们回答能力的问题上取得进展
6.7.1. 成功将带来新的问题
6.7.2. 是时候定义我们与人工智能的伙伴关系,以及由此产生的现实了
7. 模糊性
7.1. 人工智能的动态性和新兴性至少令其在两个方面产生了模糊性
7.2. 人工智能可能按照我们的预期运行,但会产生我们无法预见的结果
7.2.1. 这些结果可能会把人类引入其创造者也始料未及的境地
7.2.2. 1914年的政治家没有认识到军事动员的旧逻辑加上新技术会把欧洲拖入战争一样
7.2.3. 自动驾驶汽车做出的决定危及生命
7.2.4. 严重军事冲突
7.3. 在某些应用领域中,人工智能可能是不可预测的,它的行动完全出人意料
7.3.1. 以AlphaZero为例,它只是根据“赢棋”的指示,就发展出一种人类在几千年的国际象棋历史中从未设想过的棋风
7.3.2. 随着我们赋予其更大的自由度,其实现目标的路径可能会让我们惊讶,甚至感到恐慌
7.4. 我们既不应将人工智能视为自动运作、无须照管的存在,也不应允许其在无人监督、监视或直接控制的情况下采取不可撤销的行动
7.4.1. 人工智能由人类创造,故也应由人类来监管
7.5. 人工智能面临的挑战之一是,具备了创造人工智能所需的技能和资源的人并非必然具有理解其更广泛内涵的哲学视角
7.5.1. 人工智能时代需要它自己的笛卡儿和康德,来解释我们创造了什么及其对人类有何意义
8. 社交媒体
8.1. 推特和脸书用以突显、限制或完全禁止内容或个人的功能全都仰仗人工智能,这便是其力量的证明
8.2. 使用人工智能进行单边的、通常不透明的内容和概念推广或删除,对各国尤其是民主国家来说都是一个挑战
8.3. 人工智能加大了对世界的扭曲,以迎合人类的本能偏好
8.3.1. 人工智能可以轻易地放大我们的认知偏差,而我们却还与之共鸣
8.3.2. 伴随着这种共鸣,面对选择的多样性,又被赋予了选择和筛选的权力,人们接受的错误信息将会泛滥
8.3.3. 社交媒体公司不会通过新闻推送来推动极端和暴力的政治极化,但显而易见的是,这些服务也没有导致开明话语的最大化
8.4. 某些信息的传播,尤其是故意制造的虚假信息,会造成损害、分裂和煽动,这是毋庸置疑的
8.5. 在对“有害信息”的谴责、打击和压制显得过于宽松,这也应该引起反思
8.6. 在一个自由社会里,有害信息和虚假信息的界定不应该被囿于公司的职权范围
8.6.1. 如果将此类职责委托给一个政府小组或机构,该小组或机构应该根据确定的公共标准并通过可核查的程序来运作,以避免被当权者利用
8.6.2. 如果将其委托给人工智能算法,则该算法的目标函数、学习、决策和行动必须清晰并接受外部审查,而且至少要有某种形式的人类诉求
8.7. 每个社会都会选择各自重视的观念,这可能会导致其与跨国网络平台运营商之间的复杂关系
8.7.1. 人工智能就像海绵一样善于吸收,它向人类学习,甚至在我们设计和塑造它的时候也是如此
8.7.2. 不仅每个社会的选择是不同的,每个社会与人工智能的关系、对人工智能的感知,及其人工智能模仿人类、向人类老师学习的模式也是各不相同的
8.8. 人类对事实和真理的追求不应该使一个社会通过一个轮廓不明、无法检验的过滤器来体验生活
8.8.1. 对现实的自发体验尽管有其矛盾性和复杂性,却是人类境况的一个重要方面,即使这种体验导致了低效或错误
9. 国际秩序
9.1. 人工智能可以在随处可见的计算机上运行
9.1.1. 由于训练机器学习模型需要专业知识和计算资源,因此创造一个人工智能需要大公司或国家级的资源
9.1.2. 由于人工智能的应用是在相对较小的计算机上进行的,因此其必将被广泛使用,包括以我们意想不到的方式
9.2. 我们可能别无选择,只能扶植人工智能
9.2.1. 我们也有责任以一种与人类未来相容的方式来塑造它
9.3. 在安全领域,人工智能赋能系统响应速度非常快,使得对手可能会在系统运行之前尝试进行攻击
9.3.1. 可能造成一种内在不稳定的局势,堪比核武器所造成的局势
9.4. 人工智能通过政府防务职能的扩散,将改变国际平衡以及在我们这个时代维持这种平衡所依赖的计算
9.5. 过去,外交在一个有组织、可预测的舞台上进行
9.5.1. 如今,其信息获取和行动范围将获得极大的扩展
9.6. 随着形势愈加复杂,制定具有可预测结果的可执行协议将变得更加困难
9.6.1. 人工智能翻译将促进对话,而且不用像以往的译者那样不仅要有语言造诣,还要精通文化
9.6.2. 人工智能赋能的网络平台将促进跨境交流,而黑客攻击和虚假信息将继续扭曲人们的认知和评估
9.7. 人类通过明确区分常规武器(被认为与传统战略相调和)和核武器(被认为是例外)而回避了核悖论
9.7.1. 核武器的破坏力量一旦释放就是无差别的,不分对象
9.7.2. 常规武器可以辨别打击目标
9.7.3. 既能辨别目标又能进行大规模破坏的网络武器消除了这一区分
9.7.4. 如果再有人工智能推波助澜,这些武器将如虎添翼,变得更加不可预测,潜在的破坏性也更大
9.8. 当这些武器在网络中伺机游弋时,是无法确定归属的
9.8.1. 它们无法被察觉,因为它们不像核武器那么笨重
9.8.2. 它们还可以通过U盘携带,而这有利于扩散
9.8.3. 这些武器一旦被部署就难以控制,如果考虑到人工智能的动态性和新兴性就更加如此
9.9. 将人工智能功能与网络武器相结合的可能性加深了这一困境
9.9.1. 这种形势挑战了以规则为基础的世界秩序的前提
9.9.2. 它还让发展人工智能军备控制的相关概念成了当务之急
9.9.3. 在人工智能时代,威慑将不再遵循历史准则,它也做不到这一点
9.9.4. 人工智能的潜在军事用途比核武器更广泛,而且至少到目前为止,其进攻和防御还谈不上泾渭分明
9.10. 人工智能成了另一种误解和错误的可能来源,拥有高科技能力的大国迟早将不得不就此进行一场持续对话
9.10.1. 这种对话应聚焦于一个根本问题:避免灾难,并以此求得生存
9.11. 人工智能和其他新兴技术(比如量子计算)似乎正在让超越人类感知范围的现实变得触手可及
9.11.1. 我们尚未领会它们的哲学蕴含
9.11.2. 我们正在被它们不由自主地推动向前,而非有意识地向前
9.11.3. 新技术产生了新的哲学见解,而这些见解又通过技术(以印刷机的形式)传播开来
9.11.4. 新技术已经发展起来,但相应的指导性的哲学理念却暂付阙如
9.12. 它允诺带来更强力的药物、更高效公平的医疗保健、更可持续的环境实践,以及其他种种进步
9.12.1. 它也可以使信息失真,或者至少使接收信息和识别真相的过程变得更加错综复杂,并由此令一部分人的独立推理和判断能力日渐减退
9.13. 许多国家已经将人工智能列为国家项目
9.13.1. 在国家层面,它应该确保美国在人工智能领域保持知识和战略竞争力
9.13.2. 在国家和全球层面,它都应该致力于研究人工智能产生的文化影响,并提高对此影响的认识
posted @
2024-05-30 06:39
躺柒
阅读(
33)
评论()
编辑
收藏
举报