AI1.1-人工智能史
来自:http://zh.wikipedia.org/wiki/人工智能史#CITEREFBerlinski2000
这篇是来自维基百科上面的人工智能史,将其大部分保留(真的是大部分,所以差不多没有原创的,只是改了下排版),然后自己塞了点东西(好少),算是个科普读物吧。
人工智能史
人工智能概述
人工智能是人类美好的愿景,是在长达一千多年的历史中不断追寻的梦想。人工智能的历史就是充满幻想,机会,论证和假设的历史[1]。早在希腊神话中就已经出现了机械人和人造人,如Hephaestus的黄金机器人和Pygmalio的Galatea等[2]。现代意义上的人工智能始于古代的哲学家们试图用简单的符号来解释人脑复杂的思维,而人工智能的最基本假设就是人类的思考过程可以机械化。早在公元前一千多年前亚里士多德的三段论逻辑,欧几里得的著作《几何原本》等的提出就为后人研究人工智能提供了基础。[3]在17世纪中,莱布尼兹,托马斯·霍布斯和笛卡儿尝试将理性的思考系统化为代数学或几何学那样的体系。[2]霍布斯在其著作《利维坦》中有一句名言:“推理就是计算(reason is nothing but reckoning)。” 莱布尼兹起初设想希望能够有一种用于推理的广泛适用的语言,该语言能将推理规范成为类似于数学的计算,从而使哲学家之间争论的观点能够像会计师一样以一个标准的答案作为评判的结果,这些哲学家已经开始明确提出形式符号系统的假设,而这一假设将成为人工智能研究的指导思想。
近代史中最初的人工智能研究始于30年代末到50年代初的一系列不同学科发展所交汇的产物。其中神经学的研究表明大脑中的神经网络的基本组成单元是神经元,其长期表示的状态只有“激活”和抑制两种状态。克劳德·香农提出的信息论则描述了数字信号,即由高电位和低电位代表的电平可以用来作为二进制信号。图灵的计算理论则证明数字信号足以描述任何形式的计算。这些密切相关的想法都暗示了构建电子大脑的可能性。
1950年,图灵发表了一篇划时代的论文《计算机器和智能》,开启了人工智能的领域。文章开始先提出一个简单的问题“机器能够思考吗?”。然后提出了一个简单的评估方法来评价机器是否能够思考,这就是大家熟知的图灵测试。图灵假设当你无法分辨与你交流的是一个机器还是人类时,那么这就是智能。[5]
1955年,Newell和Simon在J. C. Shaw的协助下开发了“逻辑理论家(Logic Theorist)”。这个程序能够证明《数学原理》中前52个定理中的38个,其中某些证明比原著更加新颖和精巧。Simon认为他们已经“解决了神秘的心/身问题,解释了物质构成的系统如何获得心灵的性质。”[6]
人工智能的诞生
1956年达特矛斯会议[2]的组织者是Marvin Minsky,约翰·麦卡锡和另两位资深科学家Claude Shannon以及Nathan Rochester。会议提出一个观点是“学习或者智能的任何其他特性的每一个方面都应能被精确地加以描述,使得机器可以对其进行模拟。” [7]与会者包括Ray Solomonoff,Oliver Selfridge,Trenchard More,Arthur Samuel,Newell和Simon,他们中的每一位都将在人工智能研究的第一个十年中作出重要贡献。经过这次会议之后“人工智能”一词即为本领域的名称。1956年达特矛斯会议上人工智能的名称和任务得以确定,同时出现了最初的成就和最早的一批研究者,因此这一事件被称为人工智能诞生的标志。
黄金年代:1956 - 1974
达特茅斯会议之后的数年一大批人工智能的程序被人们研发出来:[6]计算机可以解决代数应用题,证明几何定理,学习和使用英语。当时的人们几乎无法相信机器能够如此“智能”。研究者们在私下的交流和公开发表的论文中表达出相当乐观的情绪,认为具有完全智能的机器将在二十年内出现。并作出了很乐观的预期:
1958年,H. A. Simon,Allen Newell:“十年之内,数字计算机将成为国际象棋世界冠军。”“十年之内,数字计算机将发现并证明一个重要的数学定理。”[8]H. A. Simon 在1965年预言“二十年内,机器将能完成人能做到的一切工作。”[9]
Marvin Minsky 在1967年预言:“一代之内……创造‘人工智能’的问题将获得实质上的解决。”[10]并在1970年声称“在三到八年的时间里我们将得到一台具有人类平均智能的机器。”[2]
1963年6月,MIT从新建立的ARPA(即后来的DARPA,国防高等研究计划局)获得了二百二十万美元经费,用于资助MAC工程,其中包括Minsky和McCarthy五年前建立人工智能研究组。此后ARPA每年提供三百万美元,直到七十年代为止。ARPA还对Newell和Simon在卡内基梅隆大学的工作组以及斯坦福大学人工智能项目进行类似的资助。另一个重要的人工智能实验室于1965年由Donald Michie在爱丁堡大学建立。在接下来的许多年间,这四个研究机构一直是人工智能学术界的研究中心。
在这一时期,涌现出许多成功的人工智能程序和方向。比如当时为了找到最优路径,它们一步步地前进,就像在迷宫中寻找出路一般,如果遇到了死胡同则进行回溯,这就是“搜索式推理”。这一思想遇到的主要困难是,在很多问题中,“迷宫”里可能的线路总数是一个天文数字,这也被称之为“指数爆炸”。研究者使用启发式算法去掉那些不太可能导出正确答案的支路,从而缩小搜索范围。另一些基于搜索算法证明几何与代数问题的程序也给人们留下了深刻印象,例如Herbert Gelernter的几何定理证明机(1958)和Minsky的学生James Slagle开发的SAINT(1961)。
人工智能研究的一个重要目标是使计算机能够通过自然语言进行交流。早期的一个成功范例是Daniel Bobrow的程序STUDENT,它能够解决高中程度的代数应用题。如果用节点表示语义概念,用节点间的连线表示语义关系,就可以构造出“语义网(semantic net)”。第一个使用语义网的人工智能程序由Ross Quillian开发的,而最为成功也是最有争议的一个则是Roger Schank的“概念关联(Conceptual Dependency)”。
60年代后期,麻省理工大学人工智能实验室的Marvin Minsky和Seymour Papert建议人工智能研究者们专注于被称为“微世界”的简单场景。他们指出在成熟的学科中往往使用简化模型帮助基本原则的理解,例如物理学中的光滑平面和完美刚体。在这一指导思想下,Gerald Sussman(研究组长),Adolfo Guzman,David Waltz(“约束传播(constraint propagation)”的提出者),特别是Patrick Winston等人在机器视觉领域作出了创造性贡献。同时,Minsky和Papert制作了一个会搭积木的机器臂,从而将“积木世界”变为现实。微世界程序的最高成就是Terry Winograd的SHRDLU,它能用普通的英语句子与人交流,还能作出决策并执行操作。[2]
第一次AI低谷:1974 - 1980
到了70年代,人工智能开始遭遇批评,随之而来的还有资金上的困难。人工智能研究者们对其课题的难度未能作出正确判断,此前的过于乐观使人们期望过高,当承诺无法兑现时,对人工智能的资助就缩减或取消了。同时,由于Marvin Minsky对感知机的激烈批评,神经网络因此销声匿迹了十年。70年代后期,尽管遭遇了公众的误解,人工智能在逻辑编程,常识推理等一些领域还是有所进展。[7]
70年代初,人工智能遭遇了瓶颈。即使是最杰出的人工智能程序也只能解决它们尝试解决的问题中最简单的一部分,人工智能研究者们遭遇了无法克服的基础性障碍。尽管某些局限后来被成功突破,但许多问题至今仍无法地解决。一个重要的原因是当时的计算机有限的内存和处理速度不足以解决任何实际的人工智能问题。例如,Ross Quillian在自然语言方面的研究结果只能用一个含二十个单词的词汇表进行演示,因为内存只能容纳这么多。1976年Hans Moravec指出,计算机离智能的要求还差上百万倍。他做了个类比:人工智能需要强大的计算能力,就像飞机需要大功率动力一样,低于一个门限时是无法实现的;但是随着能力的提升,问题逐渐会变得简单。1972年Richard Karp根据Stephen Cook于1971年提出的Cook-Levin理论证明,许多问题只可能在指数时间内获解。除了那些最简单的情况,这些问题的解决需要近乎无限长的时间。这就意味着人工智能中的许多程序恐怕永远也不会发展为实用的系统。
在数据量问题上,当时的人们认为许多重要的人工智能的应用,例如机器视觉和自然语言,都需要大量对世界的认识信息。程序应该知道它在看什么,或者在说些什么。这要求程序对这个世界具有儿童水平的认识。研究者们很快发现这个要求太高了,因为在1970年时没人能够做出如此巨大的数据库,也没人知道一个程序怎样才能学到如此丰富的信息。而在算法方面,证明定理和解决几何问题对计算机而言相对容易,但是一些看似简单的任务,如人脸识别或穿过屋子,实现起来却极端困难,这也是70年代中期机器视觉和机器人方面进展缓慢的主要原因。
由于缺乏进展,在投资上,对人工智能提供资助的机构(如英国政府,DARPA和NRC)对无方向的人工智能研究逐渐停止了资助。早在1966年ALPAC(Automatic Language Processing Advisory Committee,自动语言处理顾问委员会)的报告中就有批评机器翻译进展的意味,预示了这一局面的来临。NRC(National Research Council,美国国家科学委员会)在拨款二千万美元后停止资助。1973年Lighthill针对英国人工智能研究状况的报告批评了人工智能在实现其“宏伟目标”上的完全失败,并导致了英国人工智能研究的低潮。DARPA则对CMU的语音理解研究项目深感失望,从而取消了每年三百万美元的资助,到了1974年已经很难再找到对人工智能项目的资助。而在大学中,一些哲学家则强烈反对人工智能研究者的主张。其中最早的一个是John Lucas,他认为哥德尔不完备定理已经证明形式系统不可能判断某些陈述的真理性,但是人类可以。Hubert Dreyfus则讽刺六十年代人工智能界那些未实现的预言,并且批评人工智能的基础假设,认为人类推理实际上仅涉及少量“符号处理”,而大多是具体的,直觉的,下意识的。John Searle于1980年提出“中文房间”实验,试图证明程序并不“理解”它所使用的符号,并认为如果符号对于机器而言没有意义,那么就不能认为机器是在“思考”。[2]
在另一方面,由FrankRosenblatt在1958年提出的感知器的结构类似于生物自身的神经元,被认为是神经网络的一种形式,并与多数人工智能研究者一样,对这一发明的潜力非常乐观,预言说“感知器最终将能够学习,作出决策和翻译语言”。但是1969年Minsky和Papert出版了著作《感知器》,书中暗示感知器具有严重局限,而Frank Rosenblatt的预言过于夸张。这本书的出版导致的影响是破坏性的:神经网络的研究因此停滞了十年,后来新一代研究者使这一领域获得重生,并使其成为人工智能中的重要部分。
繁荣:1980 - 1987
在80年代,一类名为“专家系统”的人工智能程序开始为全世界的公司所采纳,专家系统是一种程序,能够依据一组从专门知识中推演出的逻辑规则在某一特定领域回答或解决问题。最早的示例由Edward Feigenbaum和他的学生们开发。因为专家系统仅限于一个很小的知识领域,从而避免了常识问题,其简单的设计又使它能够较为容易地编程实现或修改。大量的实践证明了这类程序的实用性。1980年CMU为DEC(Digital Equipment Corporation,数字设备公司)设计了一个名为XCON的专家系统,这是一个巨大的成功。在1986年之前,它每年为公司省下四千万美元。此后全世界的公司都开始研发和应用专家系统,到1985年它们已在人工智能上投入十亿美元以上,大部分用于公司内设的人工智能部门。为之提供支持的产业应运而生,其中包括Symbolics,Lisp Machines等硬件公司和IntelliCorp,Aion等软件公司。
专家系统的能力来自于它们存储的专业知识,而“知识处理”成为了主流人工智能研究的焦点,这也成为了70年代以来人工智能研究的一个新方向。Pamela McCorduck在书中写道,“不情愿的人工智能研究者们开始怀疑,因为它违背了科学研究中对最简化的追求。智能可能需要建立在对分门别类的大量知识的多种处理方法之上”。此后知识库系统和知识工程成为了80年代人工智能研究的主要方向。第一个试图解决常识问题的程序Cyc也在80年代出现,其方法是建立一个容纳一个普通人知道的所有常识的巨型数据库。发起和领导这一项目的Douglas Lenat认为别无捷径,让机器理解人类概念的唯一方法是一个一个地教会它们,但是直到几十年后这一工程也没有完成。
1981年,日本经济产业省拨款八亿五千万美元支持第五代计算机项目,其目标是造出能够与人对话,翻译语言,解释图像,并且像人一样推理的机器。其他国家纷纷作出响应,英国开始了耗资三亿五千万英镑的Alvey工程,美国一个企业协会组织了MCC(Microelectronics and Computer Technology Corporation,微电子与计算机技术集团),向人工智能和信息技术的大规模项目提供资,DARPA也组织了战略计算促进会(Strategic Computing Initiative),其1988年向人工智能的投资是1984年的三倍。
1982年,物理学家John Hopfield证明一种新型的神经网络(现被称为“Hopfield网络”)能够用一种全新的方式学习和处理信息。大约在同时(早于Paul Werbos),David Rumelhart推广了“反向传播(Backpropagation,BP)算法”。这些发现使1970年以来一直遭人遗弃的神经网络重获新生,并在90年代神经网络获得了商业上的成功,它们被应用于光字符识别和语音识别软件。
第二次AI低谷:1987 - 1993
80年代中商业机构对人工智能的追捧与冷落符合经济泡沫的经典模式,泡沫的破裂也在政府机构和投资者对人工智能的观察之中。“人工智能之冬(AI winter)”一词由经历过1974年经费削减的研究者们创造出来。他们注意到了对专家系统的狂热追捧,预计不久后人们将转向失望,事实被他们不幸言中,从80年代末到90年代初,人工智能遭遇了一系列财政问题。变天的最早征兆是1987年人工智能硬件市场需求的突然下跌。Apple和IBM生产的台式机性能不断提升,到1987年时其性能已经超过了Symbolics和其他厂家生产的昂贵的Lisp机。老产品失去了存在的理由:一夜之间这个价值五亿美元的产业土崩瓦解。XCON等最初大获成功的专家系统维护费用居高不下。它们难以升级,难以使用,脆弱,成了以前已经暴露的各种各样的问题的牺牲品。专家系统的实用性仅仅局限于某些特定情景。到了80年代晚期,战略计算促进会大幅削减对人工智能的资助。DARPA的新任领导认为人工智能并非“下一个浪潮”,拨款将倾向于那些看起来更容易出成果的项目。1991年人们发现十年前日本人宏伟的“第五代工程”并没有实现。事实上其中一些目标,比如“与人展开交谈”,直到2010年也没有实现,与其他人工智能项目一样,期望比真正可能实现的要高得多。
尽管遇到各种批评,这一领域仍在不断前进。来自机器人学这一相关研究领域的Rodney Brooks和Hans Moravec提出了一种全新的人工智能方案。他们相信,为了获得真正的智能,机器必须具有躯体,它需要感知,移动,生存,与这个世界交互。他们认为这些感知运动技能对于常识推理等高层次技能是至关重要的,而抽象推理不过是人类最不重要,也最无趣的技能,他们号召“自底向上”地创造智能,这一主张复兴了从60年代就沉寂下来的控制论。
另一位先驱是在理论神经科学上造诣深厚的David Marr,他于70年代来到MIT指导视觉研究组的工作。他排斥所有符号化方法(不论是McCarthy的逻辑学还是Minsky的框架),认为实现人工智能需要自底向上地理解视觉的物理机制,而符号处理应在此之后进行。在发表于1990年的论文《Elephants Don't Play Chess》中,机器人研究者RodneyBrooks提出了“物理符号系统假设”,认为符号是可有可无的,因为“这个世界就是描述它自己最好的模型。它总是最新的。它总是包括了需要研究的所有细节。诀窍在于正确地,足够频繁地感知它。”在80年代和90年代也有许多认知科学家反对基于符号处理的智能模型,认为身体是推理的必要条件,这一理论被称为“具身的心灵/理性/ 认知(embodied mind/reason/cognition)”论题。
AI:1993– 现在
现已年过半百的人工智能终于实现了它最初的一些目标。它已被成功地用在技术产业中。这些成就有的归功于计算机性能的提升,有的则是在高尚的科学责任感驱使下对特定的课题不断追求而获得的。不过,至少在商业领域里人工智能的声誉已经不如往昔了。“实现人类水平的智能”这一最初的梦想曾在60年代令全世界的想象力为之着迷,其失败的原因至今仍众说纷纭。各种因素的合力将人工智能拆分为各自为战的几个子领域。人工智能比以往的任何时候都更加谨慎,却也更加成功。1997年5月11日,深蓝成为战胜国际象棋世界冠军卡斯帕罗夫的第一个计算机系统。2005年,Stanford开发的一台机器人在一条沙漠小径上成功地自动行驶了131英里,赢得了DARPA挑战大赛头奖。2009年,蓝脑计划声称已经成功地模拟了部分鼠脑。这些成就的取得并不是因为范式上的革命。它们仍然是工程技术的复杂应用,但是计算机性能已经今非昔比了。事实上,深蓝计算机比Christopher Strachey在1951年用来下棋的Ferranti Mark 1快一千万倍。
90年代,被称为“智能代理(intelligent agents)”的新范式被广泛接受。尽管早期研究者提出了模块化的分治策略,但是直到Judea Pearl,Alan Newell等人将一些概念从决策理论和经济学中引入人工智能之后现代智能代理范式才逐渐形成。当经济学中的“理性代理(rational agent)”与计算机科学中的“对象”或“模块”相结合,“智能代理”范式就完善了。智能代理是一个系统,它感知周围环境,然后采取措施使成功的几率最大化。最简单的智能代理是解决特定问题的程序。已知的最复杂的智能代理是理性的,会思考的人类。智能代理范式将人工智能研究定义为“对智能代理的学习”。这是对早期一些定义的推广:它超越了研究人类智能的范畴,涵盖了对所有种类的智能的研究。这一范式让研究者们通过学习孤立的问题找到可证的并且有用的解答。它为人工智能各领域乃至经济学,控制论等使用抽象代理概念的领域提供了描述问题和共享解答的一种通用语言。人们希望能找到一种完整的代理架构允许研究者们应用交互的智能代理建立起通用的智能系统。
越来越多的人工智能研究者们开始开发和使用复杂的数学工具,人们广泛地认识到,许多人工智能需要解决的问题已经成为数学,经济学和运筹学领域的研究课题,数学语言的共享不仅使人工智能可以与其他学科展开更高层次的合作,而且使研究结果更易于评估和证明,人工智能已成为一门更严格的科学分支。Judea Pearl发表于1988年的名著将概率论和决策理论引入人工智能,现已投入应用的新工具包括贝叶斯网络,隐马尔可夫模型,信息论,随机模型和经典优化理论等,针对神经网络和进化算法等“计算智能”范式的精确数学描述也被发展出来。研究者们开发的算法开始变为较大的系统的一部分,这些解决方案在工业界起到了重要作用。现今应用了人工智能技术的有数据挖掘,工业机器人,物流,语音识别,银行业软件,医疗诊断和Google搜索引擎等。
1986年Hinton与Sejnowski通过在原有的hopfield网络的基础上加入了隐层节点,从而引入了玻尔兹曼机(Boltsmann machine, BM)[11]。同年Smolensky提出了受限玻尔兹曼机(RestrictedBoltsmann machine ,RBM)[12], 而2006年Hinton的论文《A fast learning algorithm for deep belief nets》,成功的将以往在神经网络中无法深层学习的问题给基本解决了,以此开始了人工智能研究者们对深度网络结构的研究。
参考文献:
[1] Buchanan B G. A (very) brief history ofartificial intelligence[J]. AI Magazine, 2005, 26(4): 53.
[2] McCorduck P. Machines who think[M].2004.
[3] Berlinski D. The advent of thealgorithm: the idea that rules the world[J]. AMC, 2000, 10: 12.
[4] http://zh.wikipedia.org/wiki/人工智能史#CITEREFBerlinski2000
[5] Smith C. , McGuire B. et.al. thehistory of artificial intelligence. [J]. 2006
[6] Russell S.J., Norvig P. , ArtificialIntelligence: A Modern Approach. 2nd [M]. 2003
[7] Daniel C. , AI: The Tumultuous Search for ArtificialIntelligence, New York.[M]. 1993
[8] Simon H. A., Allen N. , HeuristicProblem Solving: The Next Advance in Operations Research, [J]OperationsResearch. 1958
[9] Simon, H. A., The Shape of Automationfor Men and Management, [J]New York: Harper & Row. 1965
[10] Minsky M., Computation: Finite andInfinite Machines, [M]Englewood Cliffs, N.J.: Prentice-Hall. 1967
[11] Hinton G E, Sejnowshi T J.Learning and relearningin Boltzmann machines [A] In:Runelhart D E, Mcclelland J L. Paralleldistributed processing:Explorations in the microstructure of cognition.Vol.1:Foundations. Cambridge,MA:MIT Press,1986
[12] Smolensky P. Information processing indynamical systems: foundations of harmony theory [A] MIT press 1986.