《人工智能:线代方法》第一部分 人工智能基础

《人工智能:线代方法》第一部分 人工智能基础


0 前言

借着2023年DataWhale第一次组队学习的机会,准备在寒假把《人工智能:线代方法》给看完。关于绪论和人工基础,首先通读了一下全书以及目录结构,这里的人工智能基础主要包括了以下这些内容,我们不妨将这些内容当作是问题,逐一去寻找答案:

  • 1.1 什么是人工智能

Q:在学者和专家的眼中,什么是人工智能?
再进一步去问,什么是智能?什么样的智能是人工智能?人工智能的内涵和外延有那些?
这些都是值得去思考的问题。

  • 1.2 人工智能的基础

人工智能的基础是什么?
它是在什么样的基础上建立起来的?
这些基础之间是否有内在联系?怎么样去发挥作用的?

  • 1.3 人工智能的历史

作为一个计算机研究分支和现代方法,人工智能是怎么样发展到现在这一步的?人工智能有着什么样的历史?这个历史是否值得我们去思考和借鉴?

在信息检索和学习中,注意到北大林作铨教授有开一门课程,参考的也是这本书,因此在整理笔记的时候,将其综合到一起,便于理解和思考。

1.1 什么是人工智能

这部分主要是从人的理性角度以及思想与行为这两个维度来看人工智能,从而得到的组合结果为:类人行为类人思考理性思考理性行为

结合林作铨教授的slide内容和提出的问题,我们可以分别去进行理解与总结。

什么是AI? 这是我们提出的第一个问题,归纳林教授的解答为以下内容:

Artificial Intelligence attempts to understand intelligence entities, strives to building intelligent agents that perceive and act in an environment and makes computer smarter in human-level intelligence.

AI的广泛定义:“人工智能试图理解智能实体,努力构建在环境中感知和行动的智能代理,并使计算机在人类水平的智能中更智能。”

1.1.1 类人行为:图灵测试方法

那么在学者和专家眼中,以他们的观点来看,什么是智能?什么样的智能是人工智能?

以自己浅薄的理解,人工智能首先要依赖于一个设备载体,然后才能发挥出其与人类似的行为和能力,如何证明一个机器或设备,是否有具备智能,可以去证明机器是否能思考。

按照图灵前辈的论文观点,为了证明“机器是否能思考”这个问题,他设计了一个思维实验,避开了直接用物理模拟去证明智能的问题,这个实验通过与真实世界中的对象和人与机器的交互进行实验测试,这个测试方法就是所谓的图灵测试,具备这种交互能力和应用能力的机器就是所谓的图灵机

这里相应地,去查找了原论文,链接为:paper,在ReadPaper上进行阅读学习。

图灵测试的过程,可以参考下图中的问答过程:

一些有趣的图灵测试项目,有以下:

综合以上。

结合计算机设计和实现所具备的能力,以及机器人或者智能体应该具备的能力,那么一个完备的图灵机应该包括和具备下列能力:

  • 1.自然语言处理(nlp):用来使用人类语言成功地交流;
  • 2.知识表示(knowledge representation):用来存储它所知道或听到的内容。
  • 3.自动推理(automated reasoning):用来回答问题并得出新的结论。
  • 4.机器学习(machine learning):用来适应新的欢聚,并检测和推断模式。
  • 5.计算机视觉(cv)和语音识别(sr):用来感知世界
  • 6.机器人学(robotics):操纵对象并行动。

​ 从本质上来看图灵测试是想让机器在最大程度上模仿人类,而非让机器变得更智能。另外,图灵测试也仅限于文本交流,它几乎全盘否定了人工智能快速计算和信息查询的功能,而这些正是人工智能最有实际意义的部分。

​ 如今的AI除了在对话方面,更多是需要在听、看和感受等方面都需要升级优化,去满足一些更实用的日常需求。比如智能家居,无人驾驶汽车等,是需要将人从繁琐复杂的工作中解放出来,而不仅仅是痴迷于使人工智能与人类更难以区分开来。

1.1.2 类人思考:认知建模方法

这里基于前面的一个假设前提是,机器是能够去思考的。
那么怎么去思考,就成为了一个需要去关注的问题。
在此之前,借鉴人类的思考和思维过程,来重新回顾下人类的思维和认知方式。

  • 内省 —— 试图在自己进行思维活动时捕获思维过程;
  • 心理实验 —— 观察一个人的行为;
  • 大脑成像 —— 观察大脑的活动;

这个过程中,我们先验地认为只要能够抽象和描绘出足够精确的心智理论,那么就能够通过计算机程序将其进行实现与表达,通过认知建模,将机器程序的输入/输出与相应的人类行为相匹配。

人工智能记录所接受或感受到的信息,主要是指外部进来的信息,这是计算机和人脑两者都可以做到的。

计算机的记忆过程是被动地执行指令,所能记住的东西仅是工作所需的程序和需要处理的数据,所以计算机的记忆内容和记忆过程是可以被控制的。

就人工智能的本质而言,是对人的思维信息过程的模拟。对于人的思维模拟可以从两条道路进行,一是结构模拟,仿照人脑的结构机制,制造出“类人脑”的机器;二是功能模拟,是撇开人脑的内部结构,而从其功能过程进行模拟。现代电子计算机是对人脑思维功能的模拟,是对人脑思维信息过程的模拟,是“机器思维”。

“机器思维”“人类思维”的本质区别是:

  • 1)人工智能是无意识的机械的、物理的过程,而人的智能主要是生理的和心理的过程。

  • 2)人工智能没有社会性,人类智慧具有社会性。

  • 3)人工智能没有人类意识特有的能动性和创造能力,人类思维则主动提出新的问题,进行发明创造。

  • 4)两者总是人脑的思维在前,计算机实现的机器思维”在后。

​ 人工智能是思维模拟,并非人的思维本身,决不能把“机器思维”和人脑思维等同起来,认为它可以超过人脑思维是没有根据的,人工智能是不能超过人类智慧的界限。

​ 很显然,以目前的科技发展水平,要让机器具备人类一样的行为能力不会太难,但是要让机器具备人类一样的思维意识仍是一项巨大的挑战。既然机器实现人工智能包括人类的行为能力及思维意识两个部分,我们可将机器实现人工智能的路径分为行为能力及思维意识两个阶段,首先让机器具备人类一样的行为能力,在探讨机器具备人类一样的思维意识。就目前科技发展水平而言,要让机器人具备人类的思维意识,其难度是可想而知。

1.1.3 理性思考:“思维法则”方法

(1) 三段论

如何进行理性的思考?

古希腊先哲亚里士多德给出了他的答案,这个方法就是通过将思维的过程进行法则化和符号定义及论证,从而形成无可辩驳的推理过程,他的论证结构模式被称为“三段论”

​ 由于形式化了的推理过程与代数演算具有相似性,这类推理的正确性仅依赖于它们的形式,而与内容无关。在这里,概念、推理等被分解为最基本的元素,推理过程被表示为由开始公式出发根据某些具体规则而做的形式变形。其目的在于成就一向前的推理,或由因以成果。

所谓三段论,是指大前提小前提结论。逻辑学上严谨的反驳必须要经过这三步。

其符式为:

  • 大前提:凡M是P
  • 小前提:凡S是M
  • 结 论:凡S是P

为了加强个人对于思考问题的能力,这里也检索了相关的内容,可进行自行学习,链接

那么,如何使得机器在能够思考的情况下,进行有效且正确的思考过程呢?早期人工智能研究者认为可以基于逻辑推理的方法来进行智能模拟,于是就有了“符号主义”。

(2)符号主义

符号主义(Symbolism)是一种基于逻辑推理的智能模拟方法,又称为逻辑主义(Logicism)、心理学派(Psychlogism)或计算机学派(Computerism),其原理主要为物理符号系统(即符号操作系统)假设和有限合理性原理,长期以来,一直在人工智能中处于主导地位,其代表人物是纽威尔、肖、西蒙和尼尔森。

​ 早期的人工智能研究者绝大多数属于此类。
符号主义的实现基础是纽威尔和西蒙提出的物理符号系统假设。该学派认为:人类认知和思维的基本单元是符号,而认知过程就是在符号表示上的一种运算。它认为人是一个物理符号系统,计算机也是一个物理符号系统,因此,我们就能够用计算机来模拟人的智能行为,即用计算机的符号操作来模拟人的认知过程。

​ 这种方法的实质就是模拟人的左脑抽象逻辑思维,通过研究人类认知系统的功能机理,用某种符号来描述人类的认知过程,并把这种符号输入到能处理符号的计算机中,就可以模拟人类的认知过程,从而实现人工智能。可以把符号主义的思想简单的归结为“认知即计算”

​ 从符号主义的观点来看,知识是信息的一种形式,是构成智能的基础,知识表示、知识推理、知识运用是人工智能的核心,知识可用符号表示,认知就是符号的处理过程,推理就是采用启发式知识及启发式搜索对问题求解的过程,而推理过程又可以用某种形式化的语言来描述,因而有可能建立起基于知识的人类智能和机器智能的同一理论体系.

​ 符号主义学派认为人工智能源于数学逻辑。数学逻辑从19 世纪末起就获得迅速发展,到20 世纪30 年代开始用于描述智能行为. 计算机出现后,又在计算机上实现了逻辑演绎系统。

​ 符号主义的代表成果是1957年纽威尔和西蒙等人研制的成为“逻辑理论家”的数学定理证明程序LT。LT的成功,说明了可以用计算机来研究人的思维过程,模拟人的智能活动。以后,符号主义走过了一条启发式算法——专家系统——知识工程的发展道路,尤其是专家系统的成功开发与应用,使人工智能研究取得了突破性的进展。

​ 符号主义学派认为人工智能的研究方法应为功能模拟方法. 通过分析人类认知系统所具备的功能和机能,然后用计算机模拟这些功能,实现人工智能。

​ 符号主义主张用逻辑方法来建立人工智能的统一理论体系,但却遇到了“常识”问题的障碍,以及不确知事物的知识表示和问题求解等难题,因此,受到其他学派的批评与否定。

1.1.4 理性行为:理性智能体方法

​ 这里可以简单地,看一下林老师的slide内容,结合AIMA书中的知识。可以认为,智能体(agent)就是某种能够采取行动的东西。为了计算机智能体能够完成和满足更多的环境及条件需要,研究者们就希望使得智能体拥有理性,也即理性智能体需要为取得最佳结果或在存在不确定性时取得最佳期望结果而采取行动。

​ 智能体(Intelligent agent)的概念是研究人工智能的核心思想,由此,我们将人工智能定义为对从环境中接收感知并执行动作的智能体的研究。那么,每一个这样的智能体都要实现将一个感知序列映射为动作的函数,根据这些函数的不同方法,就有不同类型智能体和函数,例如反应型智能体、实时规划器、决策论系统和深度学习系统。从这个角度来说,作者强调学习既然是构造良好系统的方法,也是将其设计者的影响范围扩展到位置环境的方法,同时也强调了任务环境在确定合适的智能体设计中的重要性。

​ 通过图灵测试所需的所有技能可以使得智能体在一定环境和条件下得以采取理性行为。那么为了使得智能体能够做出更好的决策和行动,就需要较好的知识表示和推理。

​ 与此同时,与其他方法相比,基于人工智能的理性智能体,有以下两个优点:

  • 理性智能体,从实现方式和应用来看,比“思维法则”更加普适,因为正确的推断只是实现理性的几种可能机制之一,而“思维法则”所得到的推断往往都是一维的。
  • 理性智能体,更适合目前的科学发展情况,理性的标准在数学上是明确定义且完全普遍适应的。

​ 在人工智能研究发展最初的几十年里,理性智能体建立在逻辑的基础上,并为了实现特定目标制定了明确计划。在后来的研究与发展中,基于概率论和机器学习方法,可以使得智能体在不确定性下做出决策,以获得最佳期望的结果。

​ 简而言之,人工智能专注于研究和构建做正确的事情的智能体,其中,正确的事情就是我们提供给智能体的目标定义。这种通用范式非常普遍,以至于我们可以称之为标准模型(standard model)。

这个标准模型,不仅仅适用于人工智能领域,也适用于其他领域。

  • 在控制理论中,控制器使代价函数最小化。
  • 在运筹学中,策略使奖励的总和最大化;
  • 在统计学中,决策规则使得损失函数最小;
  • 在经济学中,决策者追求效用或某种意义的社会福利最大化。

然后,需要注意的是,在复杂的环境中,完美理性(总是采取精确的最优动作)是不可行的,它的计算代价太高了,因此需要对标准模型做一些重要的改进,但是,作为研究和学习,完美理性仍然是理论分析的良好出发点。

1.1.5 益机

假设我们已经设计并实现了完成目标的智能体,那么要怎么去评估这个智能体的价值呢?简单来说,可以将那些对人类可证明是有益的智能体,称为“益机”。

​ 在我们的真实需求和施加给机器的目标之间达成一致的问题称为价值对齐问题(value alignment problem),即施加给机器的价值或目标必须与人类的一致。那么如果我们在实验室或模拟器,按照一致的价值去开发人工智能系统,就能够轻松解决目标制定不正确的问题,可通过重置系统和修复目标再重试来进行。

​ 随着人工智能的发展,越来越强大的智能系统需要部署在真实世界中。上面这种价值对齐的问题将不再可行。同时部署了错误目标的系统将会导致负面影响,而且,系统越智能,其负面影响就越严重。

​ 一台实现固定目标的机器可能会出现很多不当行为,要预测所有不当行为是不可能的。因此,我们有足够理由认为标准模型是不充分。我们不希望机器“聪明”地实现它们的目标,而是希望它们实现我们的目标。如果我们不能将这些目标完美地传达给机器,就需要一个新的表述,也就是机器正在实现我们的目标,但对于目标是什么则是不确定的。

​ 当一台机器意识到它不了解完整的目标时,它就会谨慎行动的动机,会寻求许可,并通过观察来更多地了解我们的偏好,遵守认为控制。最终,我们想要的是对人类可证益的(provably beneficial)智能体。

​ 另一方面,我们基于AI的成熟程度以及能力强弱,可分为强人工智能和弱人工智能。

  • 强人工智能
    “强人工智能观点认为计算机不仅是用来研究人的思维的一种工具;相反,只要运行适当的程序,计算机本身就是有思维的。”
    拥有“强人工智能”的机器不仅是一种工具,而且本身拥有思维。“强人工智能”有真正推理和解决问题的能力,这样的机器将被认为是有知觉,有自我意识。

    强人工智能可以有两类:

    • 类人的人工智能,即机器的思考和推理就像人的思维一样。

    • 非类人的人工智能,即机器产生了和人完全不一样的知觉和意识,使用和人完全不一样的推理方式。

  • 弱人工智能
    弱人工智能是指不能制造出真正地推理(Reasoning)和解决问题(Problem_solving)的智能机器,这些机器只不过看起来像是智能的,但是并不真正拥有智能,也不会有自主意识。

1.2 人工智能的基础

人工智能的基础是什么?
它是在什么样的基础上建立起来的?
这些基础之间是否有内在联系?怎么样去发挥作用的?

关于这部分的内容,作者将人工智能的基础归纳整理并分类为以下领域和学科基础。

  • 1.哲学
  • 2.数学
  • 3.经济学
  • 4.神经科学
  • 5.心理学
  • 6.计算机工程
  • 7.控制理论与控制论
  • 8.语言学

1.2.1 哲学

​ 维基百科,关于哲学的解释是,哲学(英语:philosophy)是研究普遍的、基本问题的学科,包括存在、知识、价值、理智、心灵、语言等领域。哲学与其他学科不同之处在於哲学有独特之思考方式,例如批判的方式、通常是系统化的方法,并以理性论证为基础。

关于哲学,我们主要关心以下这些问题:

  • 可以使用形式化规则得出有效结论吗?
  • 思维是如何从物质大脑中产生的?
  • 知识是从何而来?
  • 知识如何导致行为?

Q1:可以使用形式化规则得出有效结论吗?

古希腊先哲亚里士多德制定了一套精确的法制来统御思维的理性部分,他发展了一套非正式的三段论系统进行适当的推理,该系统原则上允许人们在给定初始前提下机械地得出结论。

Q2:思维是如何从物质大脑中产生的?

关于这方面的问题,众说纷纭。

  • 有观点认为,思维至少在某种程度上是根据逻辑或数值规则运作的,可以建立模仿其中的一些规则的物理系统。
  • 也有观点说,思维本身就是这样一个物理系统。
  • 笛卡尔是二元论的支持者,笛卡尔首次清晰地讨论了思维与物质之间的区别,他指出思维的纯粹物理概念似乎没有给自由意志留下多少空间。他认为,人类思维(灵魂或精神)的一部分处于自然之外,不受物理定理的约束。
  • 如果思维完全受物理法制支配,那么它拥有的自由意志不会比一块“决定”往下掉的石头多。
  • 唯物主义(materialism),是一种二元论的替代。它认为大脑根据物理定律的运作构成了思维。而自由意志仅仅是实体对可选决策的感知。

Q3:知识是从何而来?

这个问题同样存在很多学派和观点,比较有代表性的是理性主义、经验主义、逻辑实证主义等。

  • 经验主义
    如果给定可以操纵知识的实体思维,那么接下来的问题就是建立知识的来源。经验主义(empiricism)运动以“知识归根到底都来源于经验”为特征。
    对于知识与经验,可以通过归纳法的原则,通过暴露要素之间的重复联系获得一般规则。
  • 逻辑实证主义
    逻辑实证主义学说,则认为所有知识都可以通过逻辑理论来描述,逻辑理论最终与对应于感知输入的观察雨具相联系。因此,逻辑实证主义结合了理性主义和经验主义。
  • 确证理论
    确证理论试图通过量化应分配给逻辑语句的信念度来分析从经验中获取知识,信念度的取值基于逻辑语句与确证或否定它们的观察之间的联系。

Q4:知识如何导致行为?

最后一个问题,也是思维的哲学图景中最后一个要素,是知识与动作之间的联系。(这个问题,对于人工智能来说至关重要,因为智能不仅需要推理,还需要动作。而且,只有理解了怎样的行为是合理的,才能理解如何构建行为是合理的(或理性的)智能体。

纽厄尔和西蒙在他们的通用问题求解器(General Problem Solver)程序中实现了亚里士多德的算法。我们现在将其称为贪婪回归规划系统(见第 11 章)。
在人工智能理论研究的前几十年中,基于逻辑规划以实现确定目标的方法占据主导地位。

纯粹从行为的角度来思考实现目标通常是有用的,但在某些情况是不适用的。例如,如果有几种不同的方法可以实现目标,我们就需要某种方法来进行选择。更重要的是,确定性地实现一个目标可能是无法做到的,但某些行为仍然必须被实施。

在道德和公共政策方面,决策者必须考虑多个个体的利益。功利主义(utilitarianism)思想:基于效用最大化的理性决策应该适用于人类活动的所有领域,包括代表许多个体做出公共政策的决策。功利主义是一种特殊的结果主义(consequentialism),行为的预期结果决定了
正确与否。

在基于规则或义务伦理学(deontological ethics)理论中,“做正确的事”不是由结果决定的,而是由管理可
行行为的普适社会法则所决定的,可行行为包括“不要撒谎”“不要杀人”等。

因此,如果期望的好处大于坏处,那么功利主义者可以撒一个善意的谎言,但康德主义者则不能这样做,因为撒谎本质上就是错误的。穆勒承认规则的价值,但将其理解为基于第一性原理对结果进行推理的高效决策程序。许多现代人工智能系统正是采用了这种方法。

1.2.2 数学

关于数学,我们主要关心以下这些问题:

  • 得到有效结论的形式化规则是什么?
  • 什么可以被计算?
  • 如何使用不确定的信息进行推理?

Q1:得到有效结论的形式化规则是什么?

  • 形式化逻辑(formal logic)
    从布尔逻辑扩展到包括对象和关系的一阶逻辑,处理在人工智能的早期发挥核心作用外,还激发了哥德尔和图灵的工作,这些工作支撑了计算本身。

  • 概率(probability)论
    可以视为信息不确定情况下的广义逻辑,这对人工智能来说是非常重要的考虑。
    概率已经成为定量科学的重要组成部分,用于处理不确定的度量和不完备的理论。贝叶斯法则是人工智能系统的重要工具。概率的形式化结合数据的可用性,使统计学(statistics)成为一个新研究领域。

Q2:什么可以被计算?

  • 虽然存在一种有效方法能够证明一阶逻辑中的任何真实陈述,但是一阶逻辑无法满足表征自然数所需的数学归纳原理。歌德尔的不完全性定理表明,在任何像皮亚诺算术(Peano arithmetic,自然数的基本理论)这样强的形式化理论中,必然存在一些没有证明的真实陈述。
    这个基本结果也可以解释为作用与整数上的某些函数无法用算法表示,即它们无法被计算。
    这初始艾伦*图灵试图准确地哪些函数是可计算的,即能够通过有效的过程计算。
  • 丘奇*图灵论题提出将图灵机可计算的函数作为可计算性的一般概念。
    图灵还表明,存在某些任何图灵机都无法计算的函数。

Q3:如何使用不确定的信息进行推理?

  • 尽管可计算性(computability)对理解计算很重要,但易处理性(tractability)的概念对人工智能的影响更大。
    粗略地说,如果解决一个问题实例所需的时间随着问题规模呈指数增长,那么这个问题就是难处理的。因为指数级增长意味着即使是中等规模的问题实例也无法在合理的时间内解决,所以易处理性很重要。
  • NP完全性(NP-completeness)理论为分析问题的易处理性提供了基础:
    任何可以归约到NP完全的问题都是难处理的。
  • 尽管计算机的速度在不断提高,但对资源的谨慎使用和必要的缺陷将成为智能系统的特征。粗略地说,世界是一个极大的问题实例。

1.2.3 经济学

关于经济学,我们主要关心以下这些问题:

  • 我们应该如何根据自己的偏好做出决定?
  • 当其他人可能不支持时,我们应该怎么做?
  • 当收益可能在很遥远的未来时,我们应该怎么做?

Q1:我们应该如何根据自己的偏好做出决定?

阿尔诺注意到,最大期望公式能够对对不确定性下的决策进行数学分析,而这一分析也的确是与问题价值相关。
但这个公式似乎不适用于更大规模的问题,因此伯努利提出了基于期望效用最大化的原则,并指出额外货比的边际效用会随着一个人获得更多货币而减少,从而解释了大众的投资选择。

Q2:当其他人可能不支持时,我们应该怎么做?

  • 决策论(decision theory)结合了概率论和效用理论,为在不确定性下做出个体决策(经济的或其他的)提供了一个形式化完整的框架,也就是说,概率适当地描述了决策者所处的环境。——这适用于“大型”经济体,在这种经济体中,每个主体都无须关注其他独立主体的行为。

  • 对“小型”经济体而言更像是一场博弈(game):一个参与者的行为可以显著影响另一个参与者的效用(积极或消极的)

  • 对于某些博弈,理性智能体应该采用随机(或至少看起来是随机)的策略。与决策论不同,博弈论并没有为行为的选择提供明确的指示。

Q3:当收益可能在很遥远的未来时,我们应该怎么做?

当行为的收益不是立即产生的,而是在几个连续的行为后产生时,应该如何做出理性的决策。

  • 理查德.贝尔曼的工作将一类序贯决策问题进行形式化,称为马尔可夫决策过程

1.2.4 神经科学

关于神经科学,这里更关注的是,

  • 大脑如何处理信息?

Q1:大脑如何处理信息?

神经科学是对神经系统(尤其是对大脑的)研究。 

2018年9月20日,《神经元》期刊在线发表了中科院神经科学研究所、脑科学与智能技术卓越创新中心、中科院灵长类神经生物学重点实验室空间感知课题组,题为《通过结合决策信号的测量与微电流刺激的干扰两种方法来解析大脑神经元信息的读码机制》的研究论文。在该研究工作中,科研人员在清醒猕猴执行空间运动方向辨别任务的同时,记录了大脑皮层中上颞叶内侧皮层、中颞叶皮层和腹顶内皮层三个脑区的神经元反应,通过数学方法分离了这些反应中的两种成份,即神经元编码的感知觉信息,和与猕猴认知决策的信号,并通过微电流刺激干扰的技术手段,分别检测了三个脑区中的神经元信息被下游读取的优先级别和权重。

  大脑对空间的感知包括两个重要阶段:

  • 一个是编码阶段,即外界环境中的声、色、光等刺激通过各种感官传入大脑中枢,激活了处理相应感觉刺激的神经元元件,从而把外界刺激分别编码在相应神经元的电活动中,例如偏好特定运动方向、空间朝向或者空间特定位置的细胞;
  • 二是解码或读码阶段,即这些神经元的电信号经过神经系统的层级传递,被下游神经元抽提信息,最终转化为大脑对外界刺激的感知,并在此基础上形成最终的决策,做出特定的行为。大脑神经元的编码机制已经有广泛的研究,但是其第二阶段关于解码的研究工作还相对较少,具体解码机制也不清楚。其中一个重要的方法是在实验动物执行认知决策任务的同时,测量相应感觉神经元的电发放波动中哪些是与抉择相关联的信号。虽然至今在许多感觉皮层中都已经发现了与决策相关的信号,但是这些信号究竟能否直接反映神经元所编码的信息被大脑读取和利用以形成抉择,还是只是反映了大脑在形成抉择之后,再反馈给上游神经元的一个下行信号,一直都存在着激烈的争论。这些争论目前都只停留在理论层面上,争论的双方都缺乏有力的实验证据支持。

  在本研究工作中,神经所研究者训练猕猴通过眼动来报告它们所感知到的光流在空间中的运动方向,并在猕猴执行任务的同时,记录了上颞叶内侧皮层(MST)、中颞叶皮层(MT)和腹顶内皮层(VIP)三个脑区的神经元胞外电生理活动,通过数学方法分离了两种成份,

  • 一是神经元所编码的视觉运动方向信息,即感觉成份;

  • 二是与猕猴认知决策相关的成份,即决策信号。

分析发现,在三个脑区中,感觉信号并不是一直与决策信号保持一致,有时也会出现相反的情况,比如某些神经元偏好编码向左运动,每次神经元发放增强的时候,应该促使猕猴更多的选择向左运动(“感觉-决策一致细胞”,图中左下角细胞),但在行为上猕猴却是更多地选择向右运动(“感觉-决策相反细胞”)。利用微电流刺激进一步实验发现,在MST和MT皮层中通过微电流人为兴奋这两类细胞时,都能显著地使猕猴的认知决策发生偏差,并且偏差的方向都趋向于被电刺激兴奋的神经元所编码的偏好感觉信息方向,而不是决策信号所反映的方向。微电流刺激“感觉-决策一致细胞”对猕猴认知决策产生的偏差要大于刺激“感觉-决策相反细胞”一倍左右,表明了前者的读码权重要大于后者(图中间粗细箭头分别表示)。微电流刺激VIP神经元却不能影响猕猴的认知决策,提示这个脑区的运动信息在当前任务中并没有被下游脑区所读取和利用。

  这些直接实验结果首次解析了大脑皮层神经元所编码的感觉信息和猕猴表现的决策相关信息在解码过程中的作用,为关于决策信号在感知觉皮层中作用的长期争论提供了重要的实验证据,表明大脑神经元信息的读码权重不仅与特定脑区有关,还与特定脑区中的特定神经元集群有关。此外通过建模,该研究还提出了一定的理论预期,即两类神经元集群之间存在负相关的噪音,有待于后续实验进一步验证。

  该研究在顾勇研究员的指导下,由博士研究生余雪菲完成。该课题获得了国家自然科学基金委和科技部的资助。

img

  图注:在猕猴大脑皮层中存在两类细胞,感觉-决策一致性细胞(左例)和感觉-决策相反性细胞(右例)。两类细胞之间通过特定的相关性噪音结构连接(中间热图)。微电流刺激实验表明两类细胞都贡献于猕猴的认知决策,但前者的读取权重更大,大约是后者的两倍(粗细箭头表示)。

  • 现在,我们有了一些关于大脑区域和身体部位之间映射关系的数据,这些部位是受大脑控制或者是接收感官输入的。这样的映射可以在几周内发生根本性的变化,而有些动物似乎具有多个映射。此外,我们还没有完全理解当一个区域受损时其他区域是如何接管其功能的。而且,关于个人记忆是如何存储的,或者更高层次的认知功能是如何运作的,目前几乎没有任何相关理论。

大脑和数字计算机有不同的特性。

1.2.5 心理学

对于心理学来说,我们关注的是,

  • 人类和动物是如何思考和行为?

Q1:人类和动物是如何思考和行为?

  • 行为主义:研究动物行为的生物学家缺乏内省的数据,行为主义试图将这一观点应用于人类,以内省无法提供可靠证据为由,拒绝任何涉及心理过程的理论。
  • 认知心理学(congnitive psychlogy)认为大脑是一个信息处理设备,也认为感知涉及一种无意识的逻辑推断形式。
  • 知识型智能体的关键步骤:
    • (1) 刺激必须转化为一种内在表示;
    • (2) 认知过程处理表示,从而产生新的内部表示;
    • (3) 这些过程反过来又被重新转化为行为。
  • 计算机建模的发展导致了认知科学领域的诞生,也间接推动了“人工智能”领域的诞生。
  • 为了综述目的,我们将人机交互(human -computer interaction,HCI)领域归于心理学下。
  • 另外有学者倡导智能增强(intelligence augmentation)的理念(IA而非AI)。

1.2.6 计算机工程

关于计算机,我们想要了解的问题是,

  • 如何构建高效的计算机?

Q1:如何构建高效的计算机

  • 每一代计算机硬件更新都代了速度和容量的提升以及价格的下降,这是摩尔定律所描述的去世。
  • 直到2005年之前,大约每18个月CPU的性能就会翻一番,但工号问题导致制造商开始增加CPU的核心数而不是提高CPU的时钟频率。
  • 目前的预期是,未来性能的增加将来自于大量的并行性,这体现了与大脑特性奇妙的一致性。(在应对不确定的世界时,基于这一理念设计硬件:不需要64位的数字精度,只需16位(如bfloat16格式)甚至8位就足够了,这可以使处理速度更快。)
  • 目前已经出现了一些针对人工智能应用进行调整的硬件,如图形处理单元(GPU)、张量处理单元(TPU)和晶圆级引擎(WSE)。
  • 从20世纪60年代到大约2012年,用于训练顶级机器学习应用的计算能力遵循了摩尔定理。从2012年开始,情况发生了变化:从2012年到2018年,这一整体训练的机器学习模型在2018年只需要两分钟就可以训练完成。
  • 另一方面,尽管量子计算(quantum computing)还不实用,但它有望为人工智能算法的一些重要子方向提供更显著的加速。

1.2.7 控制理论与控制论

控制论与控制理论,我们对这个问题感兴趣:

  • 人造物如何在它们自己的控制下运行?
  • 控制理论:控制理论的研究者认为具有目的的行为原有试图最小化“错误” 的调节机制,即当前状态和目标状态之间的差异。
  • 现代控制理论:现代控制理论,特别是被称为随机最优控制的分支,其目标是设计随时间最小化代价函数(cost function)的系统。这与人工智能的标准模型——设计性能最优的系统大致相符。
  • 微积分矩阵代数是控制理论的工具,它们适用于固定的连续变量集描述的系统,而人工智能的建立在一定程度上是为了避开这些可感知的局限性。
  • 逻辑推理和计算工具使人工智能研究人员能够考虑语言、视觉和符号规划等问题,而这些问题完全超出了控制理论家的研究范围。
  • 艾什比在《大脑设计》中详细阐述了人工智能机器的可能性,即可以通过自我平衡设备来实现智能,该设备实用恰当的反馈回路来实现稳定的自适应行为。
  • 现代控制理论,特别是被称为随机最优控制的分支,其目标是设计随时间最小化代价函数的系统。这与人工智能的标准模型——设计性能最优的系统大致相符。
  • 为什么人工智能和控制理论有着密切联系却又是不同的领域?
    • 微积分和矩阵代数是控制理论的工具,它们适用于固定的连续变量集描述的系统,而人工智能的建立在一定程度上是为了避开这些可感知的局限性。
    • 逻辑推理和计算工具使人工智能研究人员能够考虑语言、视觉和符号规划等问题,而这些问题完全超出控制理论研究者的研究范围。

1.2.8 语言学

关于语言,我们有这个疑问:

  • 语言是如何与思维联系的?

Q1:语言是如何与思维联系的?

  • 计算语言学:现代语言学和人工智能几乎同时“诞生”,并一起成长,交叉于一个称为计算语言学(computational linguistics)或自然语言处理(natural language processing)的混合领域。

  • 理解语言,需要理解主题和上下文,而不仅仅是理解句子结构。

  • 知识表示(knowledge representation)(关于如何将知识转化为计算机可以推理的形式的研究)的大部分早期工作与语言相管理,受语言学研究的启发,而语言学研究则反过来又与数十年的语言哲学分析工作有关联。

1.3 人工智能的历史

1.3.1 人工智能的诞生(1943-1956)

  • (1943)人工智能的第一项研究工作:现在普遍认为由沃伦.麦卡洛克和沃尔特.皮茨完成的工作是第一项人工智能的研究工作,他们受到对数字建模工作的启发,选择了3方面的资源构建模型:基础生理学知识大脑神经元的功能

  • (1936,1938)一种人工神经元模型:罗素和怀尔特对命题逻辑的形式化分析,以及图灵的计算理论。他们提出了一种人工神经元模型,其中每个神经元的特征是“开”或“关”,并且会因足够数量的相邻神经元受到刺激而切换为“开”。神经元的状态被认为是“事实上等同于提出其充分激活的命题”。

    • 例如,他们证明任何可计算的函数都可以通过一些神经元互相连接的网络来计算,以及所有的逻辑联结词(AND、OR、NOT)都可以通过简单的网络结构来实现。
    • 麦卡洛克和皮茨还表明适当定义的网络可以学习。
    • (1949)唐纳德.赫布示范了用于修改神经元之间连接强度的简单更新规则。他的规则,现在称为赫布型学习(Hebbian Learning),至今仍是一种有影响力的模式。
  • (1950)第一台神经网络计算机SNARC:SNARC使用了3000个真空管和B-24轰炸机上一个多余的自动驾驶装置来模拟由40个神经元组成的网络。后来,明斯基在普林斯顿大学研究了神经网络中的通用计算。

  • 还有许多早期工作可以被描述为人工智能

    • (1952)西洋跳棋程序:曼切斯特大学的克里斯托弗.斯特雷奇和IBM公司的亚瑟.塞缪尔分别独立开发了西洋跳棋程序。
    • (1947)图灵观点:图灵在1950年的文章"Computing Machinery and Intelligence"中阐述了有说服力的议程。在论文中,他介绍了图灵测试、机器学习、遗传算法和强化学习。他还认为,通过开发学习算法然后教会机器,而不是手工编写智能程序,将更容易创造出人类水平的人工智能。
  • (1956)达特茅斯学院研讨会:本次研讨会提出的提案指出:

    1956 年夏天,我们提议在新罕布什尔州汉诺威的达特茅斯学院进行为期两个月共 10 人参与的人工智能研讨。这次研讨是基于这样的假设:理论上可以精确描述学习的每个方面或智能的任何特征,从而可以制造机器来对其进行模拟。我们将试图寻找让机器使用语言,形成抽象和概念,解决人类特有的各种问题并改进自身的方法。我们认为,如果一个精心挑选的科学家团队在一整个夏天里共同研究这些问题,则可以在一个或多个方面取得重大进展。

    LT(Logic Theorist,LT)的数字定理证明系统:这个程序是一种能够进行非数值思维的计算机程序,他们还发明了一种链表处理语言IPL来编写LT。由于他们没有编译器,只能手动将其翻译为机器代码。为了避免错误,他们并行工作,在编写每条指令时相互大声喊出二进制数,以确保他们是一致的。

1.3.2 早期热情高涨,期望无限(1952-1969)

  • GPS通用问题求解器:与LT不同,GPS从一开始就被设计为模仿人类求解问题的协议。结果表明,在它可以处理的有限类型的难题中,该程序考虑的子目标和可能采取的行为的顺序与人类处理相同问题的顺序类似。因此GPS可能是第一个体现“人类思维”方式的程序。
  • 物理符号系统假说:作为认知模型,GPS和后续程序的成功使得纽厄尔和西蒙提出了著名的物理符号系统假说,该假说认为“物理符号系统具有进行一般智能动作的必要和充分方法”。意思是,任何显示出智能的系统(人类或机器)必须通过操作由符号组成的数据结构来运行。
  • 现代数学定理证明程序的先驱:赫伯特.盖伦特构造了几何定理证明程序,它能够证明许多数学学生认为相当棘手的定理。这项工作是现代数学定理证明程序的先驱。
  • 强化学习的早期发展:从长远来看,这一时期所有探索性工作中,最有影响力的可能是亚瑟·萨缪尔对西洋跳棋的研究。通过使用现在称之为强化学习的方法,萨缪尔的程序可以以业余高手的水平进行对抗,同时该程序也是许多后继系统的前身。
  • (1958)麦卡锡的两项贡献:约翰.麦卡锡为人工智能做出的两项贡献:贡献之一是他定义了高级语言Lisp(Lisp在从1958年开始的30年中成为了最重要的人工智能编程语言)。另一项贡献是,在他一篇题为“Programs with Common Sense”的论文中,麦卡锡为基于知识和推理的人工智能系统提出了概念性议案。这篇论文描述了“建议接受者”(Advice Taker),这是一个假想程序,它包含了世界的一般知识,并可以利用它得出行动规划。这个概念可以用简单的逻辑公理来说明,这些逻辑公理足以生成一个开车去机场的规划。该程序还被设计为能在正常运行过程中接受新的公理,从而实现无须重新编程就能够在新领域中运行。因此,“建议接受者”体现了知识表示和推理的核心原则:对世界及其运作进行形式化、明确的表示,并且通过演绎来操作这种表示是很有用的。这篇论文影响了人工智能的发展历程,至今仍有意义。
  • 微世界和相关发展:在麻省理工学院,明斯基指导了一批学生,他们选择了一些似乎需要智能才能求解的有限问题。这些有限的领域被称为微世界(microworld)。最著名的微世界是积木世界(blocks world),由一组放置在桌面上的实心积木组成(或者更常见的是模拟桌面),如图 1-3 所示。在这个世界中,一个典型的任务是用机械手以某种方式重新排列积木,这个机械手一次可以拿起一块积木。积木世界孕育了戴维·哈夫曼(David Huffman)(Huffman, 1971)的视觉项目、戴维·沃尔茨(David Waltz)(Waltz, 1975)的视觉和约束传播工作、帕特里克·温斯顿(Patrick Winston)(Winston, 1970)的学习理论、特里·温诺格拉德(Terry Winograd)(Winograd, 1972)的自然语言理解程序以及斯科特·法尔曼(Scott Fahlman)(Fahlman, 1974)的规划器

1.3.3 一些现实

  • 在可见未来中的过度自信:西蒙的过度自信来自于早期人工智能系统在简单示例上的出色表现。但是,在几乎所有情况下,这些早期系统在更困难的问题上都失败了。这里附上1957年赫伯特.西蒙的名言:

    我的目的不是使大家感到惊讶或震惊,我可以总结出的最简单的说法是,现在世界上存在着能够思考、学习和创造的机器。此外,它们的这些能力将迅速提高,在可见的未来内,它们能够处理的问题范围将与人类思维的应用范围一样广泛。

  • 造成失败有几个主要原因:

    • 原因一是,许多早期人工智能系统主要基于人类如何执行任务的“知情内省型”,而不是基于对任务、解的含义以及算法需要做什么才能可靠地产生解的仔细分析。

    • 原因二是,对人工智能要求解的问题的复杂性缺乏认识。大多数早期的问题求解系统都会尝试组合不同的步骤,直到找到解为止。

      • 一般而言,程序可以找到解的事实,并不意味着该程序具备任何在实践中找到解所需的机制。
      • 未能处理“组合爆炸”的问题也使得人工智能受到了批评。
    • 原因三是,产生智能行为的基础结构存在一些根本限制。尽管感知机被证明可以学习他们能够表示的任何事物,但他们能表示的事物很少。举例来说,我们无法训练双输入感知机来判断它的两个输入是否相同。尽管他们的研究成功并不适用于更复杂的多层网络,但用于神经网络研究的经费很快就减少到几乎为零。

    • 另外,讽刺的是,在20世纪80年代和21世纪10年代再次引起神经网络研究巨大复兴的新反向传播学习算法,早在20世纪年代初已经在其他情景下得到了发展。

1.3.4 专家系统

  • 弱方法:在人工智能研究的前十年,研究学者提出的问题求解方法是一种通用搜索机制,试图将基本的推理步骤串在一起,找到完整的解。这种方法被称为弱方法(weak method),这种方法虽然很普适,但它不能扩展到大型或困难的问题实例上。
  • 弱方法的替代方案:弱方法的替代方案,是使用更强大的领域特定的知识,这些知识允许更大规模的推理步骤,并且可以更轻松地处理特定专业领域中发生的典型案例。
  • 专家系统:专家系统是一个智能计算机程序系统,其内部含有大量的某个领域专家水平的知识与经验,它能够应用人工智能技术和计算机技术,根据系统中的知识与经验,进行推理和判断,模拟人类专家的决策过程,以便解决那些需要人类专家处理的复杂问题,简而言之,专家系统是一种模拟人类专家解决领域问题的计算机程序系统。
  • 在真实世界中的广泛应用引发了表示和推理工具的广泛发展。有些是基于逻辑的其他人则采用了更结构化的方法,将有关特定对象和事件类型组合起来,并将这些类型组织成类似于生物分类法的大型分类层次结构。
  • 事实证明,为了复杂领域构建和维护专家系统是困难的,一部分原因是系统使用的推理方法在面临不确定性时会崩溃,另一部分原因是系统无法从经验中学习。

1.3.5 神经网络的回归(1986-现在)

  • 反向传播:反向传播算法被应用于计算机科学和心理学中的许多学习问题,Parallel Distributed Processing合集中的结果的广泛传播引起了极大的轰动。

    反向传播算法,简称BP算法,适合于多层神经元网络的一种学习算法,它建立在梯度下降法的基础上。BP网络的输入输出关系实质上是一种映射关系:一个n输入m输出的BP神经网络所完成的功能是从n维欧氏空间向m维欧氏空间中一有限域的连续映射,这一映射具有高度非线性。它的信息处理能力来源于简单非线性函数的多次复合,因此具有很强的函数复现能力。这是BP算法得以应用的基础。

    反向传播算法主要由两个环节(激励传播、权重更新)反复循环迭代,直到网络的对输入的响应达到预定的目标范围为止。

    BP算法的学习过程由正向传播过程和反向传播过程组成。在正向传播过程中,输入信息通过输入层经隐含层,逐层处理并传向输出层。如果在输出层得不到期望的输出值,则取输出与期望的误差的平方和作为目标函数,转入反向传播,逐层求出目标函数对各神经元权值的偏导数,构成目标函数对权值向量的梯量,作为修改权值的依据,网络的学习在权值修改过程中完成。误差达到所期望值时,网络学习结束。

    • 激励传播

    每次迭代中的传播环节包含两步:

    1. (前向传播阶段)将训练输入送入网络以获得激励响应;
    2. (反向传播阶段)将激励响应同训练输入对应的目标输出求差,从而获得隐层输出层的响应误差。
    • 权重更新

    对于每个突触上的权重,按照以下步骤进行更新:

    1. 将输入激励和响应误差相乘,从而获得权重的梯度;
    2. 将这个梯度乘上一个比例并取反后加到权重上。
    3. 这个比例将会影响到训练过程的速度和效果,因此称为“训练因子”。梯度的方向指明了误差扩大的方向,因此在更新权重的时候需要对其取反,从而减小权重引起的误差。
  • 联结主义:联结主义模型困难以一种更流畅和不精确的方式形成内部概念,更适配真实世界的混乱。它们还具备从样本中学习的能力,它们可以将它们的预测输出值与问题的真实值进行比较,并修改参数以减少差异,使它们在未来的样本中更有可能表现良好。

1.3.6 概率推理和机器学习(1987-现在)

  • 专家系统的脆弱性导致了一种新的、更科学的方法,结合了概率而不是布尔逻辑,基于机器学习而不是手工编码,重视实验结果而不是哲学主张。

  • 现在更普遍的是,基于现有理论而不是提出全新的理论,基于严格的定理或可靠的实验方法,而不是基于直觉的主张,以及展示与真实世界应用的相关性而不是虚拟的示例。

  • 人工智能的创立在一定程度上是对控制理论和统计等现有领域局限性的反馈,但在这一期,它吸纳了这些领域的积极成果。

  • 在20世纪80年代,适用隐马尔可夫模型(HMM)的方法开始主导这一领域。HMM有两个相关的方米纳。首先,它基于严格的数学理论。其次,它们是在大量真实语音数据的语料库上训练而产生的。这确保了算法的健壮性,并且在严格的盲测中,HMM的分数稳步提高。

  • 大量工作将人工智能规划研究与MDP联系起来,强化学习领域在机器人和过程控制方面找到了应用,并获得了深厚的理论基础。

  • 人工智能对数据、统计建模、优化和机器学习的新认识带来的结果是,计算机视觉、机器人技术、语音识别、多智能体系统和自然语言处理等子领域逐渐统一,此前这些子领域在某种程度上已经脱离了核心人工智能。(重新统计的过程在应用方面和关于人工智能核心问题更好的理论理解方面都产生了显著的效用。)

1.3.7 大数据(2001-现在)

大数据(big data):计算能力的显著进步和互联网的创建促进了巨大数据集的创建,这种现象有时被称为大数据(big data)。这些数据集包括数万亿字的文本、数十亿的图像、数十亿小时的语音和视频,以及海量的基因组数据、车辆跟踪数据、点击流数据、社交网络数据等。

  • 这导致了专为利用非常大的数据集而设计的学习算法的开发。(通常,这类数据集中的绝大多数例子都没有标签。然而,如果有足够大的数据集,合适的学习算法在识别句意的任务上可以达到超过96%的准确率。)
  • 类似的现象似乎也发生在计算机视觉任务中,例如填补照片中的破洞。
  • 大数据的可用性和向机器学习的转变帮助人工智能恢复了商业吸引力。

1.3.8 深度学习(2011-现在)

  • 深度学习(deep learning):深度学习是指使用多层简单的、可调整的计算单元的机器学习。
  • (20世纪70年代,研究人员就对这类网络进行了实验,并在20世纪90年年代以卷积神经网络(convolutional neutal network,CNN))(LeCun et al., 1995)的形式在手写数字识别方面取得了一定的成功。
  • 深度学习系统在某些视觉任务上的表现超过了人类,但在其他一些任务上还显落后。在语音识别、机器翻译、医疗诊断和博弈方面也有类似的进展。alphaGo之所以能够战胜人类顶尖的棋手,是因为它使用了深度网络来表示评价函数。
  • 深度学习在很大程度上依赖于强大的硬件,一个标准的计算机CPU每秒可以进行\({}\)或者\(10^{9}\)\(10^{10}\)次运算。运行在特定硬件(例如GPU、TPU或FPGA)上的深度学习算法,每秒可能进行\(10^{14}~10^{17}\)次运算,主要是高度并行化的矩阵和向量运算。
  • 当然,深度学习还依赖于大量训练数据的可用性,以及一些算法技巧。

1.4 目前的先进技术

人工智能现在能做什么?也许不像一些更乐观的媒体文章让人相信的那样多,但仍然很多,以下是一些例子:

  • 自动驾驶
  • 腿足式机器人
  • 自动规划和调度
  • 机器翻译
  • 推荐
  • 博弈
  • 图像理解
  • 医学
  • 气候科学

1.5 人工智能的风险和收益

对于人工智能的风险与收益,不妨做一个讨论。
首先从收益说起,总的来看,人工智能可能会带来的收益有:

  • 如果我们有机会获得更强大的机器智能,我们的理想上限就会大大提高
  • 人工智能和机器人技术可以将人类从繁重的重复性高涨中解放出来,并大幅增加商品和服务的生产,这可能预示着一个和平富足的时代的到来。
  • 加速科学研究的能力,可以治愈疾病,并解决气候变化和资源短缺问题。

这里有一个比较好的建议是,“首先解决人工智能的问题,然后再用人工智能解决其他的问题”。

另一方面,可以来看一下一些潜在的风险,主要有:

  • 致命性自主武器
  • 监视和劝诱
  • 有偏决策
  • 就业影响
  • 安全关键的应用
  • 网络安全

随着人工智能系统变得越来越强大,它们将要承担以前由人类扮演的社会角色。正如人类过去曾利用这些角色作恶一样,可以预见,人类可能会在这些角色中滥用人工智能系统而作恶更多。上面给出的所有例子都指出了治理的重要性,以及最终监管的重要性。

长期来看呢?我们能否实现长期以来的目标:创造出与人类智力相当或更强大的智能?如果我们做到了,然后呢?

在人工智能的大部分历史上,这些问题都被日常工作所掩盖——让人工智能系统做任何事情,哪怕是远程智能。与任何广泛的学科一样,绝大多数人工智能研究人员专注于特定的子领域,例如博弈、知识表示、视觉或自然语言理解,通常假设这些子领域的进展将有助于实现更广泛的人工智能目标。

1.6 总结

本章定义了人工智能并阐述了其发展的文化背景。本章要点如下。

  • 不同的人对人工智能的期望不同。首先要问的两个重要问题是:你关心的是思想还是行
    为?你想模拟人类,还是试图达到最佳结果?
  • 根据我们所说的标准模型,人工智能主要关注理性行为。理想的智能体会在某种情况下
    采取可能的最佳行为,在这个意义下,我们研究了智能体的构建问题。
  • 这个简单的想法需要两个改进:首先,任何智能体(无论是人还是其他物体)选择理性
    行为的能力都受到决策计算难度的限制;其次,机器的概念需要从追求明确目标转变到
    追求目标以造福人类,虽然不确定这些目标是什么。
  • 哲学家们(追溯到公元前 400 年)暗示大脑在某些方面就像一台机器,操作用某种内部
    语言编码的知识,并且这种思维可以用来选择要采取的行动,从而认为人工智能是有可
    能实现的。
  • 数学家提供了运算逻辑的确定性陈述以及不确定的概率陈述的工具,也为理解计算和算
    法推理奠定了基础。
  • 经济学家将决策问题形式化,使决策者的期望效用最大化。
  • 神经科学家发现了一些关于大脑如何工作的事实,以及大脑与计算机的相似和不同之处。
  • 心理学家采纳了人类和动物可以被视为信息处理机器的观点。语言学家指出,语言的使
    用符合这一模式。
  • 如果迈达斯遵循基本的安全原则,并在他的愿望中包括“撤消”按钮和“暂停”按钮,他会过得更好。
    计算机工程师提供了更加强大的机器,使人工智能应用成为可能,而软件工程师使它们更加易用。
  • 控制理论涉及在环境反馈的基础上设计最优行为的设备。最初,控制理论的数学工具与
    人工智能中使用的大不相同,但这两个领域越来越接近。
  • 人工智能的历史经历了成功、盲目乐观以及由此导致的热情丧失和资金削减的循环,也
    存在引入全新创造性的方法和系统地改进最佳方法的循环。
  • 与最初的几十年相比,人工智能在理论和方法上都已经相当成熟。随着人工智能面对的
    问题变得越来越复杂,该领域从布尔逻辑转向概率推理,从手工编码知识转向基于数据
    的机器学习。这推动了真实系统功能的改进以及与其他学科更大程度的集成。
  • 随着人工智能系统在真实世界中的应用,必须考虑各种风险和道德后果。
  • 长远来看,我们面临着控制超级智能的人工智能系统的难题,它们可能以不可预测的方式进化。解决这个问题似乎需要改变我们对人工智能的设想。

1.7 作业

补充中...

参考

[1] 人工智能:现代方法 第四版(上册) page2-30。
[2] 北大人工智能课程 林作铨 教授 slides
[3] 维基百科及百度百科词条
[4] http://www.cebsit.cas.cn/js20znq/ljsy/201911/t20191122_5441221.html

posted @ 2023-01-19 13:40  Xu_Lin  阅读(419)  评论(0编辑  收藏  举报