project师聊AI芯片—谈算法不谈智能,谈实现不谈芯片!

版权声明:本文为博主原创文章,未经博主同意不得转载。 https://blog.csdn.net/DP29syM41zyGndVF/article/details/81978659

640?</p><p>wx_fmt=jpeg

1谈算法不谈智能

IEEE协会首次在京举办研讨会的时候。中国自己主动化学会副理事长兼秘书长、中科院自己主动化研究所复杂系统管理与控制国家重点实验室主任王飞跃称不存在AI芯片。对于这一观点的争议非常大,网络上也是众说纷纭。

大体上看过一些说法后。当中大多数我觉得更有辩论赛上经常使用的偷换概念的感觉。大家的注意点仿佛并不在AI芯片上,而是在AI这个概念的争议上。



网上比較常见的智能的定义:


1、首先是最典型的一个现象,差点儿“智能”被当做标签打满了各种商品。智能手机、智能电视、智能手环、智能家居,甚至智能扫地机器人、智能洗碗机。所谓智能这个概念仿佛变成了常规的嵌入式设备。

但凡能接入个网络,WiFi也好ZigBee也罢,能做个简单的语音控制。简单的图像识别,好像就成了人工智能设备。

与其将MCU、NPU、ARM、MIPS、STM32等常规的嵌入式环境的核心芯片作为所谓的智能,我倒还是传统一点将其理解为嵌入式芯片罢了。

    

2、相对还有一个极端的理解就是既然是“人工”、“智能”。所谓智能不单纯是对话和互联,这样的说法则是上升到意识层面。“人工”制造的这个“智能”应该拥有自己对事物的理解,拥有自己的思维,而不是简单的反复和判断。

    

3、第三个占了不小比重的人群的理解。更是让我感觉这部分人的理解仅仅是个误解。

仿佛使用了机器学习算法、神经网络算法、深度学习算法、贝叶斯算法的,仿佛所有都变成了人工智能。

    

这里也有人为了回避大家在“智能”上偷换概念,提出了强人工智能和弱人工智能概念区分。

强人工智能仿佛成了未来的目标,那我们也就姑且以“弱人工智能”这个概念展开来谈。

 

说起来所谓的人工智能热潮,人工智能寒冬,已经至少是第三次了。


第一次,在20世纪50年代左右。被称为人工智能之父的约翰麦卡锡创造了lisp语言,也引领了以symbol概念为核心的符号主义人工智能。

    

第二次。在20世纪70年代左右,BP算法的提出,则是引领了一波以神经网络这个概念为核心的连接主义人工智能。

   

而如今这一波人工智能概念又一次被人们拉出来炒作。则是所谓以机器学习这个概念爆炒。

但单讲机器学习这个概念,却发现不管是蒙特卡洛算法、贝叶斯定理、贝叶斯网络、NN神经网络、RNN网络,还是提出了一个包括多隐层的所谓深度学习,事实上大体上我并没有见到什么新奇的面孔。反而都是些几十年前早都已经在玩的东西。可能唯一的不同是如今的硬件性能远远高于从前的硬件性能,FPGA、GPU、ZYNQ等更新奇的设计模型。芯片工艺的大幅提升,让制作芯片的成本急剧下降。让从前非常多在数学、在理论上早就玩剩下的东西。能够在一个更能够被人所接收的速度和响应环境下工作。

   

这也就提到了上述我的观点。我们谈算法不谈智能。所谓强人工智能,确实不是我们现阶段能实现的,获取暂且是连头绪都没有的虚无缥缈的目标。

至少人类的认知和意识的模型,我不觉得是如今盛行的神经网络连接主义的主流想法,将大量数据作为“经验”堆积出的回归算法。不管是最大似然预计的思维方式、symbole描写叙述的方式,还是贝叶斯最大后验预计的做法,我们与其说做的是智能,不如讲我们在使用“看起来比較智能”的算法。

    

就像是冯.诺依曼觉得蒙特卡洛算法,是最接近上帝的思维方式的算法那样。

一个靠随机数据堆积的,差点儿不能被称之为算法的算法,又算得上什么上帝的思维?

 

有人提出过这样一个概念。

如今有一个屋子,屋子里有一个手速极快、查表极快的、全然不懂中文的熟练工。

我们如今向房间里递入一张写了一句中文的句子。这个熟练工在提前准备好的表中查得一句中文纸条,并且传给屋外的人。他们在这样的情况下。屋外的人跟屋内的人聊得非常开心。但屋内的人仅仅是在反复工作,他根本不知道纸条上写的是什么。

这样的情况下能否觉得这个熟练工掌握了中文?

    

我觉得这个样例是一个能够经典地映射到如今常见的蒙特卡洛算法、最大似然预计、最大后验预计的思维方式上。蒙特卡洛算法依照大量随机经验去评估一个最合理的做法。最大似然预计或者说多元回归算法,或者由神经网络描写叙述的多元回归算法。也仅仅是基于已有大量经验数据去评估一个最合理的做法;最大后验预计模型、贝叶斯算法这样的,或者贝叶斯网路这样的。我们依照最直白的方式描写叙述,尽管能够评估没有出现过的状况。也仅仅是通过已有、已经拆分过的特征概率来做合理性评估。

    

这就像是屋内的那个例行公事的查表熟练工一样。事实上他什么都不懂,我们哪怕拿出了所谓大数据下、人工智能下的正确答案。也仅仅是通过算法拿出的答案。并非通过“理解”和“认知”得出的答案。从这个角度来考虑,AI这个概念本就不存在,或者讲笔者的个人观点是Artificial Intelligence中的Intelligence,未免有些狂妄自大。

仅仅是只是是用了些数学家们几十年前玩剩下的算法,就開始炒作所谓智能。

    

但我们抛开所谓“智能”不谈。NN神经网络、BP神经网络、贝叶斯公式这些非常easy的统计学公式,事实上在有高性能的硬件和现有的计算机科学的辅助下,超出人类预计的好用。

 

2谈实现不谈芯片


既然是好用的算法模型,也是接下来的主流发展趋势,我们就暂且不考虑这些用词细节的问题,在上述三种人工智能的理解中,以我个人觉得是误解的第三个理解作为立脚点開始向后继续。

    

这个被王飞跃评价为不存在的AI芯片,只是是上述狭义的机器学习派系中大量算法的不同的实现方式罢了。我们与其去谈用硬件作为AI算法载体的芯片是否存在,不如去讲是用硬件作为算法载体的芯片是否存在。原本AI算法在上述评估后,也仅仅是与常规的算法本质上无异的“算法”而已,既不是什么黑科技。也不是什么新技术。算法能否够由硬件直接作为载体。而不须要通过软件这个概念,答案当然是肯定的,原本软件就是以硬件为载体工作的。那这个意义上的AI芯片当然是存在的。

    

大多提到芯片,仿佛就成了什么神奇的高科技。但芯片,也就是所谓的集成电路,大规模集成电路,其本质上还是电路本身。仅仅是通过芯片工艺,晶体管技术实现的体积非常小的电路而已。物理学已经几十年没有更新过基本理论了,芯片相对于电路这个概念本身,跟高中学过的电路图,电路元件并没有本质上的差别。

    

这里我们将芯片暂且狭义地理解为CPU这个概念的话(包括MCU、GPU、SoC等概念。在实际使用中作为核心处理器这个概念存在的芯片),所谓CPU仅仅是集中了大量好用的电路。并将这些芯片内电路的查询使用方式,通过控制总线、地址总线、数据总线这些概念上的高低电平,然后将这些高低电平逻辑抽象成汇编手冊这个概念,或者datasheet这些概念,可能有些使用了MMU,还会有虚拟地址映射等概念。但说起来。大体上换汤不换料。

     

近年来炒作最厉害的AI芯片,主要就是NPU这个概念了。这里NPU作为AI芯片分类,也仅仅是上述第三个对智能的定义的考虑方式。仿佛是我们先将一部分原本就存在的算法划分成了“人工智能算法”,然后使用了这些算法的芯片就都成了“人工智能芯片”。

原本我们觉得的CPU就是一堆好用的电路的集合。我们将这些经常使用好用的集成电路中加入一个神经网络算法的实现电路,就成了还有一个噱头。

    

原本就成熟的芯片设计工艺和技术。加上原本就成熟的所谓“智能算法”的实现。以一个技术含量并不高的方式拼凑出来的新的卖点罢了。

 

总 结

这也仅仅是笔者个人的观点,我们能够谈一下算法、机器学习概念、最大似然预计、最大后验预计这样的统计学算法,谈一下神经网络算法的思维方式、多元回归曲线和决策树的设计,我们还是不要谈什么人工智能吧。

讲狭义的人工智能我们还能够谈谈算法,拿“人工智能”当噱头那是销售做的事情。



而至于人工智能AI芯片这个概念,着实没什么好谈的,以硬件作为载体实现算法,跟争论用C语言、Python、Keras、Tensorflow、caffe,还是VHDL、VerilogHDL,还是所谓芯片硬件去实现算法一样。

仅仅是一种算法的实现方式而已。如今的技术除了速度和性能、功耗、算法代码架构、现有工艺是否存在瓶颈等问题,是设计者须要权衡考虑的事情。

算法的实现什么时候成为问题了?

 

简单畅想一下人工智能的未来:

640?wx_fmt=png

如今这波基于机器学习和深度学习算法引爆的人工智能热潮,笔者个人不觉得会维持多久。尽管由于硬件和芯片工艺的提升,让从前因硬件成为瓶颈的问题得到了一定程度的缓解。但哪怕全然攻克了运算速度瓶颈,结合类比上述中文纸条的故事。

我们制造的不是智能,仅仅是将计算机与统计学几十年前的技术做了一次深度结合罢了,机器学的都仅仅是个样子。

    

如今吹嘘人工智能的比正经写几行所谓机器学习代码的人要多得多,大体上所谓特征提取的人脸识别、语音识别、基于神经网络算法、基于多项式回归这些的最大似然预计模型,本质上与从前传统的图像处理并没有什么差别。仅仅是从前由人工做的规律总结和特征提取工作。我们通过一定程度的算法,其本质还是以蒙特卡洛式的疯狂尝试去试错。得到一个最为近似的回归曲线罢了。

    

这次掀起了人工智能的热潮,但人工智能技术的发展本身并没有出现飞跃。仅仅是按部就班进步罢了。我们整合了大量统计学的公式,以人工智能的名义。高速在常规领域拿出了不少看似喜人的成绩。但这样的本质上没有技术突破的旧饭新炒,推进了一波以机器学习技术为中心的人脸识别、语音识别、自己主动驾驶等技术应用。也许“机器学习”是“人工智能”的一大支撑。但毕竟“机器学习”并非“人工智能”本身。并且清醒的人们非常快会開始逐步意识到最大似然预计这个模型本身就是有瓶颈的,而如今离这个瓶颈如今已经非常近了。

   

接下来会是算法的时代,但人工智能的寒冬注定会在短期内再次降临。硬件会是有效的加速辅助工具,但人工智能的核心还会是软件。

讲AI芯片是个伪概念。笔者觉得倒也不算错。

 

您是怎么看待这个问题的。欢迎留言讨论~

640?</p><p>

640?wx_fmt=jpeg

1.除了MDK-ARM和IAR,开发STM32还能够选择哪些IDE?

2.特朗普一声令下:华为中兴设备所有换掉!深层原因事实上是。

。。

3.编程界来了一位新宠 ——Julia !

4.架构师不写代码,能行吗?

5.project师们。 还在纠结35岁这个坎吗?

6.这家物联网企业低调得连官网都没有,但却已经服务了上百家品牌企业640?wx_fmt=gif

免责声明:本文系网络转载,版权归原作者所有。如涉及作品版权问题,请与我们联系。我们将依据您提供的版权证明材料确认版权并支付稿酬或者删除内容。


posted on 2018-11-02 21:22  ljbguanli  阅读(437)  评论(0编辑  收藏  举报