2020年10月7日

昨天看到2014年陈天石、陈云霁在中国计算机学会通讯杂志中的文章《体系结构研究者的强人工智能之梦》。他们的对梦想的不断探索及几十年如一日的坚持,足以照亮我们普罗大众。为了方便阅读分成了两篇,本篇为第一篇

什么是人工智能

人制造出来的机器所表现出来的智能,就是人工智能。人工智能大致会分为两类:弱人工智能和强人工智能。

弱人工智能是能够完成某种特定具体任务的人工智能,现如今看到的 AlphaGo、人脸识别、广告推荐系统等广泛应用都是此类。

强人工智能或通用人工智能,是具备与人类同等智慧或超越人类的人工智能,能表现正常人类所具有的所有智能行为。强人工智能是一个终极科学问题,类似曾经的宇宙起源一样,非常难。

人类如何制造出与自己一样具有复杂认知和创造能力的强人工智能计算机?目前我们看到的各种人工智能厂商,他们的能力主要集中在感知(理解)这个世界,决策能力方面很弱。而人脑正好相反,感知只是其中一小部分能力,更大的能力是做决策。

对计算能力的追求

陈氏兄弟认为解决强人工智能不仅需要人工智能算法上的突破,还需要计算能力(计算机体系结构)上的突破。美国能源部报告将计算能力进步分为三类,其中一类是变革式计算,只要计算能力足够强大就可以彻底解决以前解决不了的问题。而他们兄弟俩所做的研究就是这第三类研究,在科学上有着非凡的意义。

他们于97年、01年先后考入中国科学大学少年班学习。后来攻读研究生时,哥哥在计算所跟胡伟武(龙芯之父)做通用芯片体系结构方面研究,弟弟在中科大跟着陈国良、姚新做人工智能算法方面研究。后来他们同在中国科学院计算技术研究所工作,由于都怀着强人工智能之“梦”,08年的时候,他俩开始联合起来做人工智能芯片方面的交叉研究。他们在上述文章里写了,这个梦是比一般的理想还要虚无缥缈的志向。

科研的荆棘之路

他们的采用的指导思想是“沿途下蛋”:每一步都要对解决实际问题有所帮助,为体系结构或人工智能技术带来增量式进步,步步逼近终极的变革。他们决定从使用人工智能技术来解决体系结构问题入手,首先为国产处理器龙芯作出贡献。

基于人工智能方法的处理器研发技术

不过他们的第一步走的异常艰难,08年开始多次申请的项目资助都落空了,只有一个青年科学基金项目。多次向体系结构顶级会议的投稿都被拒收。后来直到 2011 年,才有成果逐渐在人工智能顶级会议上发表。原因是这个方向太新了,当时主流的声音都是关注通用处理器应该长什么样,而不关注通用处理器的研发方法论。

2012年初,他们和法国国家信息与自动化研究所(INRIA)一起提出了 BenchNN 基准测试集:使用人工智能算法来实现其中的大部分程序,充分说明提高神经网络的处理速度可以有效加速通用计算,有力地改变了体系结构领域对神经网络算法的认识。

使用专用芯片加速神经网络

他们在同期启动了寒武纪计划,设计神经网络处理器芯片来加速神经网络。他们当时主要有两种选择:脉冲神经网络和人工神经网络,后来他们通过大量实验和对比,选择了在工业界常见的图像处理和语音方面效果更好的传统人工神经网络,虽然人工神经网络并不适合对大脑进行模拟。因为他们最终的共识是想制造出强人工智能而非准确模拟人脑。就跟人类实现飞行梦想不能完全仿照鸟儿的翅膀一样。

上述目标确定后,就是指定技术路线和具体实现了。这块领域当时是一块“处女地”,设计上没有太多限制。他们通过分析大规模深度神经网络的性能和能效,发现瓶颈主要在数据搬运和访存带宽上。通过精心设计具有针对性的分块处理和访存优化方法,使得寒武纪一号能够高效处理任意规模、任意深度的神经网络。以通用处理器核1/10的面积和功耗开销下,达到通用处理器核100倍以上的人工神经网络处理速度。最终寒武纪一号的论文--DianNao 在国际顶会--ASPLOS 上发表并成为最佳论文。这也是亚洲地区,第一次在计算机体系结构的这种顶尖的国际会议上拿奖。

他们研究最大的创新点在于打造了一个真正意义上完备的处理器,能够支持任意规模的神经网络。打个比方,只能处理两个数相加,而不能处理10000甚至任意个数相加的硬件,只能叫加法器,而不能叫处理器。

研究之道

他们在做研究,发表论文的时候,会跟大家一样遇到普遍的矛盾:紧跟多变的国际学术圈热点,工作会被认为是过往论文的改进,需要改进效果非常显著,机理必须非常清晰;而探讨的问题若不是国际学术圈热点,论文同样很难在顶级会议上发表。

他们的解决之道是:坚持自己的学术理想,重视论文但不为论文发表所左右;同时尽力宣传自己的研究方向,推动这个方向被国际学术圈的主流认可。经过长期的等待和努力,也许有一天,自己的研究方向就会成为热点。这里对我们普通上班族也有很大的借鉴意义,我们是否专注于某个领域?是否会在公司里宣传自己所做方向的工作价值呢?

我认为他们带领团队长期在这个方向做研究的最大动力,一定是对强人工智能梦想的执着。他们走在前沿的科研领域,就如行至人迹罕至处,所处的风景波澜壮阔,壮怀激烈。更不用说搞定科研领域的疑难问题,能够极大的满足好奇心。

如果想看到第二篇,请点下右下角“推荐”!

欢迎关注我的微信公众账号,会在第一时间更新

code

posted @ 2020-10-07 09:47 生栋 阅读(524) 评论(1) 推荐(0) 编辑

2020年10月3日

摘要: 经常听到搞算法的人把“feature”挂在嘴边,这个 feature 可不是产品经理丢给开发的feature -- 产品的新特性,而是“特征”。在机器学习中,特征是被观测对象的一个独立可观测的属性或者特点。比如识别水果的种类,需要考虑的特征(属性)有:大小、形状、颜色等。要识别一个人是谁,可以用他的 阅读全文
posted @ 2020-10-03 10:03 生栋 阅读(4888) 评论(0) 推荐(1) 编辑

2020年9月21日

摘要: 最近对人工智能领域的 AI 加速芯片感兴趣,在翻阅 Google 的第一代 TPU 论文时,在相关工作中看到了 DaDianNao,PuDianNao,ShiDianNao。看的我一脸懵逼,这是什么?汉语拼音吗?后来经过搜索,发现这是中科院计算所的一系列研究成果,后来直接催生了国内芯片独角兽 -- 阅读全文
posted @ 2020-09-21 07:41 生栋 阅读(4438) 评论(3) 推荐(7) 编辑

2020年9月14日

摘要: 这篇文章中提到了 tsched 的源码可以一读,所以去阅读了一下,总共220来行。 1. 阅读前工作 通过上文了解到这段程序实现的是一个任务队列,同时带有线程池。这段程序是计算机操作系统里经典的consumer-producer (生产者-消费者)问题的实现。凡是学过操作系统这门课的,都应该知道这个 阅读全文
posted @ 2020-09-14 23:41 生栋 阅读(1238) 评论(0) 推荐(1) 编辑

2020年9月9日

摘要: 跟武术中的门派类似,人工智能中也有几大门派 阅读全文
posted @ 2020-09-09 20:11 生栋 阅读(2037) 评论(0) 推荐(2) 编辑

2020年9月5日

摘要: 希望大家支持国产时序数据库 TDengine,因为这种底层技术挑战非常大,99.9% 的程序员都搞不定工业级的分布式数据库 阅读全文
posted @ 2020-09-05 21:48 生栋 阅读(3028) 评论(0) 推荐(1) 编辑
摘要: 之前对国产的时序大数据存储引擎 TDengine 感兴趣,因为号称比Hadoop快十倍,一直很好奇怎么实现的,所以最近抽空看了下白皮书和设计文档。 如果用一句话总结,就是 TDengine 是为特定的工业物联网领域而生,为时序数据做了针对性的优化也有一些限制,所以能比 Hadoop 快。而 Hado 阅读全文
posted @ 2020-09-05 10:52 生栋 阅读(1548) 评论(2) 推荐(2) 编辑

2018年7月31日

摘要: 优化的东西一定得在主路径上,结合测量的结果去优化 阅读全文
posted @ 2018-07-31 23:11 生栋 阅读(1822) 评论(2) 推荐(1) 编辑

2018年6月1日

摘要: 高效的学习,而不是“努力”的学习 阅读全文
posted @ 2018-06-01 00:00 生栋 阅读(1490) 评论(3) 推荐(3) 编辑

2018年5月4日

摘要: 阅读全文
posted @ 2018-05-04 09:00 生栋 阅读(1026) 评论(3) 推荐(0) 编辑

导航

< 2025年3月 >
23 24 25 26 27 28 1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28 29
30 31 1 2 3 4 5

统计

点击右上角即可分享
微信分享提示