AI 这个缩写在越来越多的出现在公众面前,但是 AI 到底是什么就和 AI 这个词一样,大部分都能举一些例子,但是都却很难说清楚 AI 到底是什么。AI 是 Artificial Intelligence 的简称,中文叫做人工智能。但是要找到一个完全被所有人都公认的 AI 的解释是很难的,目前认可度最高的两个 AI 的定义分别是美国斯坦福大学人工智能研究中心尼尔逊教授给 AI 下的定义:“AI 是关于知识的学科——怎样表示知识以及怎样获得知识并使用知识的科学。”而另一个美国麻省理工学院的温斯顿教授认为:“AI 就是研究如何使计算机去做过去只有人才能做的智能工作。”其实要给一个研究领域给一个确切、完整的概念一点也不容易,尤其是类似 AI 这种在多种基础学科基础之上快速发展的理论、方法、技术以及应用的一个新技术。当前 AI 已经影响了我们生活的方方面面,适应性非常强和影响性非常强,逐渐的发展成了一个多元跨专业的技术。
1956 年夏,麦卡锡、明斯基等科学家在美国达特茅斯学院开会研讨“如何用机器模拟人的智能”,首次提出“人工智能(Artificial Intelligence,简称 AI)”这一概念,标志着人工智能学科的诞生。但是真的要追溯 AI 的起源,那么可以追溯到 1936 年阿兰·图灵发表的《论可计算数及其在判定问题中的应用》,文中给出了“一个拥有铅笔、纸和一串明确指令的人类计算着,可以被看作是一种图灵机“,这也是为了可计算数的解释而引入的一种举例,这样就定义了一个在功能上等价的数学运输的人。这也是最早的一些智能和计算机相关的内容了,从那时开始”图灵机“就开始影响了“智能”定义和评价。到 1950 年克劳德·香农提出了计算机的博弈,随后 1954 年“图灵测试”的提出,艾伦·麦席森·图灵给人类代入了让机器拥有智能的狂想和探索。虽然 AI 的概念随后就没提出来了,但是直到 20 世纪 60 年代,符号逻辑的提出才解决了很多 AI 上通用问题,为人类自然语言和机器语言的对话奠定了基础,这也使得一些人际会话、专家系统、模式识别等方向,同时期人们也开始更加冷静的看到人工智能,人工智能的发展进入了一个缓慢的时期。
直到 1976 年,兰德尔·戴维斯构建了大规模知识库以及后续机器人系统的出现开始将 AI 推入了又一次的浪潮之巅,这个时候的知识表示、启发式搜索、大规模知识库、计算机视觉、专家系统、贝叶斯网络以及基于行为的机器人等开始有大面的演进进展和优秀的学术成果的诞生。
20 世纪 90 年代有两大重要的发展节点,一个是语义网络的提出为 2012 年谷歌推出知识图谱的概念奠定了基础;另外一个是支持向量机、条件随机场以及话题模型 LDA 等的统计机器学理论的发展,都为未来 AI 的发展起到了推动作用。
2006 年以后到现在,AI 进入了大爆发时期,机器人、迁移学习、联邦学习、自动驾驶、知识图谱、卷积、生成对抗网络 GAN、深度学习等都有了快速的发展,很多优秀的公司涌现出了很多优秀的开源项目或者闭源项目。
AI 系统的分类
AI 系统有着各式各样分类方法,其中既有我们熟悉的分发也有我们不熟悉的分类方式,但是每种分法都是对 AI 系统不同角度的一种描述的聚类方式。目前比较主流的划分方法主要有按 AI 的研究内容分类、按 AI 的实力和水平分类、按照信息来源或形式的种类分类以及根据模型的参数量或复杂度分类等等。
-
按 AI 的研究内容:将其分成自然语言处理、计算机视觉、机器人和机器学习:
-
自然语言处理是指让计算机理解和生成自然语言(如汉语、英语)并进行交互或沟通的技术。自然语言处理包括自然语言理解(NLU)、自然语言生成(NLG)、对话系统(DS)等多个子领域,以及文本分类、文本摘要、文本翻译、问答系统等多个任务。
-
计算机视觉是指让计算机从数字图像或视频中获取有意义信息,并基于这些信息采取行动或做出反馈的技术。计算机视觉包括图像处理、图像分析、图像理解等多个子领域,以及目标检测、目标跟踪、场景理解、表情识别等多个任务。
-
机器人是指由电子设备组成并具有一定形态与功能,并且可以接收外界信息并对其做出反应与控制,并完成各种复杂动作与任务的装置。
-
机器学习是指让机器从数据中自动学习规律和知识,并利用这些规律和知识进行预测或决策的技术,机器学习包括监督学习、无监督学习、强化学习,其中监督学习也被称作有监督的学习,有监督的意思就是预先知道据有什么样的目标,通过一些已经知道结果的数据(也叫做有标注的数据)训练模型,完成训练后,再将新问题给模型去解答,常用的有监督的算法有 KNN(K 近邻)算法、线性回归、罗辑回归、支持向量机、决策树、神经网络等;无监督学习就是用没有标注的数据进行模型训练,从没有标注的数据中找隐藏的特征,这其中无需人工干预,该类算法可以发现信息的相似性和差异性,一些比较重要无监督学习算法包含了 k-means 算法、分层聚类算法、最大期望算法(EM)等的聚类算法,主成分分析(PCA)、核主成分分析、局部线性嵌入等降纬算法以及先验算法(Apriori)频繁项集挖掘(Eclat)等关联规则学习算法;强化学习是就是再联系的学习交互中不断的学习更优的方法,从而制定最佳的策略,其中包含了策略优化、Q-learning 等。
-
按照 AI 的实力和水平分类:将其分成弱人工智能、强人工智能、超人工智能,其中:
-
弱人工智能也叫狭义人工智能,是指只擅长某个单方面应用或特定任务的人工智能,超出特定领域外则无有效解。目前我们周围的大部分 AI 都属于这一类,如语音识别、图像识别、推荐系统等。
-
强人工智能也叫通用人工智能,是指在各方面都能和人类比肩甚至超越的人类级别的人工智能,在理解、推理、创造等方面都具有自我意识和自主学习的能力。这种 AI 目前还没有实现,只存在于理论和科幻中。
-
超人工智能也叫超级智能,是指在各个领域均可以远远超越人类的最高级别的 AI,在创新创造、创意创作等方面都可以产生出任何人类无法想象或解决的问题或作品。这种 AI 也还没有实现,甚至可能永远无法实现。
-
按照信息来源或形式的种类分类:AI 可以划分成单模态和多模态,这也是最近常出现在各大 AI 文章的词汇了。
-
单模态是指只有一种信息来源或形式的情况,比如只有视觉或只有语言。
-
多模态是指有多种信息来源或形式的情况,比如视觉、听觉、触觉、嗅觉、语言等。多模态可以利用不同模态之间的互补性和关联性,提高信息的完整性和准确性。多模态通过模态转换、对齐、融合等可以实现更丰富和复杂的任务,从而实现更接近人类的认知和交互方式,实现自然和智能的人机交互。
-
根据模型的参数量或复杂度分类:根据根据模型的参数量或复杂度来划分可以分为大模型、中模型和小模型:
-
大模型通常指参数量超过百亿或千亿的模型,如 GPT-3、盘古、Switch Transformer 等,它们需要大量的数据和计算资源来训练,但可以实现更强的泛化能力和自监督学习能力,被称为基础模型或基石模型。
-
中模型通常指参数量在千万到十亿之间的模型,如 BERT、ResNet、Transformer 等,它们是目前应用最广泛的模型,可以在各种领域和任务中取得较好的效果,但也面临着数据标注、模态转换、对齐融合等挑战。
-
小模型通常指参数量在千万以下的模型,如 LeNet、AlexNet、LSTM 等,它们是深度学习的基础和起点,相对简单和高效,但也存在信息缺失或不确定性的问题,难以实现复杂和丰富的任务。
AI 的分类不仅仅只包含了如上这几种划分方法,上面几种分类方式是比较适合测试工程师角度观察 AI 系统而实用的分类方法。除此之外还有按照知识板块划分成搜索、逻辑与推理、学习、规划与学习、执行;按照和人的关系可以分为人机交互类和自主决策类;按照学习方式可以分成自我学习、样例学习、强化学习等。无论哪一种分类方式都是站在不同角度观察 AI 后得到的结果,因此哪一种都是合理的。