【文献综述】简述类脑智能及脉冲神经网络
摘 要:类脑智能已然成为人工智能前进的关键方向之一,而脉冲神经网络则作为实现类脑计算的重要模型而逐渐受到重视。本文将基于人工智能的发展历史,介绍三代神经网络的更替,并着重介绍第三代网络(脉冲神经网络)的原理、优势以及局限性,最后对于当前脉冲神经网络的发展进行总结与展望。
关键词:类脑智能;脉冲神经网络;深度学习;生物信息处理;神经科学
Review and Prospect of Brain like Intelligence and Spiking Neural Network
Abstract: Brain-like intelligence has become one of the key directions of artificial intelligence, and spiking neural network, as an important model to achieve brain-like computing, has been paid more and more attention. This paper will introduce the iteration of three generations of neural networks based on the development of artificial intelligence, and emphatically introduce the principle, advantages and limitations of the third generation network,spking neural network. Finally, the development of the current SNN is summarized and prospected.
Key word: Brain-like Intelligence , SNN , Deep Learning , Biological Information Processing , Neuroscience
1 引言
所谓人工智能,简单而言就是将人的感知、学习及认知的能力赋予机器,使其表现出如人一般的智能表现。1956年达特茅斯(Dartmouth)会议上“人工智能”一词的提出,标志着人工智能这一学科正式于人类的科技树中解锁。高涨的热情使人工智能迎来了第一次繁荣,催生了许多基于逻辑范式的智能机器。感知机、自然语言处理等概念也在这一时期诞生。但随后,对于项目难度的重新认知以及计算瓶颈的出现,人工智能研究在1974-1980年期间陷入了第一轮寒冬。专家系统的出现将人工智能从推理期拉入知识期,基于专业知识的系统的出现使得人工智能在特定的领域内迎来第二轮繁荣。但由于专家系统的局限性以及高昂的花费,其在1987-1993年间迎来了第二轮寒冬。但随着先前被冷落的神经网络重新流行,同时机器学习也在诸多复杂学科大放异彩,人工智能也得以从知识期进入学习期,终于迎来了持续至今的第三轮繁荣。尤其是2017年AlphaGo击败人类围棋冠军(Sliver,D.etal.,2017),标志着人工智能已然成就非凡。其现如今正借着物联网、大数据、云计算等技术东风而如火如荼地向前发展。
在这漫长而峥嵘的两轮寒冬与三次繁荣期间,人工智能也逐渐演化出两类主要的流派。一类观点主张研究生物的智能特性,通过计算机对高效、精巧的生物智能机理不断逼近与模仿。而另一类观点则认为“制造飞机不必学习鸟的飞行方式,而应研究空气动力学”,智能行为可以通过其它方式实现。这一观点有一种更能引发思考的表述,“我们并不了解人脑,但是我们造出了计算机”。事实上,碳基生物的大脑与硅基的计算机确实存在诸多差异,比如计算机中存算分离,而人脑的神经元与突出的计算存储机制却并非如此;再如计算机内金属层为二维链接,而大脑中存在数量庞大的三维连接;此外计算机的运算是基于布尔值数字电路的晶体管的运算,而大脑却是基于脉冲的事件驱动计算……等等方面似乎都说明了后一种观点的理由更加充分。然而也未必如此。
回顾AlphaGo与人类的围棋决战,尽管电脑战胜了人脑,但应注意到二者所付出的代价并不等同。人类的大脑在完成同步识别、推理、控制及移动等一系列复杂功能,其功耗仅接近20W(CoxandDean,2014),而一台标准计算机仅进行一个1000分类的任务,就需要大概250W(Milakov,2014)。AlphaGo的胜利离不开背后数量庞大的显卡资源的支持以及巨大功率的消耗,但人类进化了数百万年所得到的超低功耗的碳基大脑才更显得高超精妙。因而,传统的人工智能朝向类脑智能的发展已显得愈发重要(Yamazakietal.,2022;Huynhetal.,2022)。
故而在接下来的部分,将介绍三代神经网络的演变历程,并介绍第三代网络脉冲神经网络进行类脑计算的原理。而后将进一步展示脉冲神经网络的优势以及不足,并在最后展望其发展方向。
2 第三代神经网络
神经网络天然不是深度学习,但深度学习天然是神经网络。
1983年神经网络复兴,2006年至今深度学习不断崛起,这一路上神经网络获得了不断的发展。根据基本神经元的功能,神经网络可被划分为三代(Maass,1997)。以McCulloch–Pitt感知机(McCullochandPitts,1943)为代表的、进行阈值操作而后输出数字(0,1)的网络称为第一代网络。二代网络是指基于sigmoid单元或是如ReLU(NairandHinton,1943)等、神经元具备连续非线性的网络,其实现了对于一组连续的值的输出。正是这一非线性的引入,使得神经网络实现了从第一代到第二代的升级,神经网络得以在复杂应用和深层次实施方面的大规模应用,并催生出一系列里程碑式的成果。然而,尽管神经科学的皮层层次模型有力地支持了这些深度网络背后的结构性原理,但在实施层面上,类脑计算和人工智能领域所使用的模拟神经网络(ANN)之间的相似性依然十分细微。这二者之间的显著区别,正在于后者ANN中的神经元大都是在一个共同的时钟周期内工作的非线性但连续的神经元,而生物神经却是通过异步的脉冲来计算,通过数字式的、暂时准确的动作电位来显示一些特征事件的发生。
而现如今的第三代神经网络,正是使用了可以通过脉冲来交换信息的、“整合和激发”式的脉冲神经的神经网络,也就是脉冲神经网络(SpikingNeuralNetwork,SNN)。第二代神经网络与第三代的SNN的重要区别就在于信息处理的本质,前者使用的是实值(即信号的幅度),而SNN使用的是脉冲(即信号的时间(timing))。脉冲基本上是二进制事件,SNN中的神经单元只有在接收或发射脉冲时才活动,因而是事件驱动的,从而在给定的时间内提高能量效率。至于没有经历任何事件的SNN单元则保持空闲。而对于上一代深度学习神经网络而言无论实际值输入或是输出如何,所有的单元都处于一种激发的状态。
脉冲神经元具有诸如LIF和Hodgkin–Huxley(Izhikevich:7,2003)等不同的模型。同时,关于突触的可塑性(所谓突触可塑性即突出权重的调节,也就是SNN的学习过程,其依赖于突触前后脉冲的相对时间),也早已有了诸如Hebbian(Hebb,1949)和非Hebbian(AbbottandNelson,2000)的方案。在利用基于事件的、数据驱动的更新时,具有合适的突出可塑性的脉冲神经元显得尤为重要,因为这才能事现SNN在诸如识别、推理等任务时的高效计算和智能部署。此外,近年来,在机器学习、计算神经科学、嵌入式系统设计等领域的研究人员正将第二代神经网络所取得的累累硕果栽植于SNN领域,不断弥合传统深度神经网络与新兴的脉冲神经网络之间的差距。SNN在类脑的真实神经回路中表现出了良好的特性,诸如模拟计算、低功耗、事件驱动、快速推理、在线学习、大规模并行等。深度SNN也逐渐成为高效处理视觉、音频输入的发展方向之一。
综上,结合人脑的生物特性以及类脑智能的目标,我们可以得出与本小节开篇类似的语句:SNN天然不是类脑计算,但类脑计算天然是SNN。
3 脉冲神经网络简述
脉冲神经网络的基本单元是脉冲神经元。基于引言部分所提到的人工智能发展中的两类主要声音,神经网络中神经元的模型也可大抵划分为两类。一类是忽略现实的物理过程和生物结构的、将生物的神经元高度抽象概括为输入与输出之间的数学函数映射的神经元模型;另一类则是基于生物系统中的神经元的动力学特征通过动力学公式对信息进行表征,而这也正是脉冲神经元的特征之一。
由脉冲神经元构成的SNN在最初是作为生物信息处理模型而进行研究的,其中脉冲是神经元之间交换信息的方式。如果假设所有的脉冲都是典型事件(stereotypicalevents),则对于信息的处理就可以被简化为两个关键因素:其一是脉冲的时间(比如发射频率、突触前后脉冲的相对时间、特定的发射方式),其二是所使用的突触(比如连接哪写神经元、突触本身是兴奋性还是抑制性、突触强度、可能的短期可塑性或调节性等等)。根据神经元对于真实生物神经元模拟的详细程度,脉冲神经元也具有不同的模型,比如整合激发(integrate-and-fire)模型、脉冲响应模型、Hodgkin-Huxley模型等。其共同思想在于,一旦产生了一个脉冲,其就会通过轴突以极小的延迟发送给其连接的所有神经元,并将膜电位重置至给定的基线水平。
4 脉冲神经网络的优势
基于前述SNN的发展历史以及其原理,我们可以总结出SNN的一些主要优势。
SNN的根本优势在于对于时空的、基于事件的信息的充分利用的能力。由于已经出现了颇为成熟的神经形态的传感器(LiuandDelbruck,2010)(Vanarseetal.,2016)以实时记录环境的动态变化,从而可以与SNN契合、实现超低功耗的计算。SNN在其计算中也可以使用时间编码,当记录的信息很少或是没有信息时,SNN基本不进行计算,而当突发的活动被记录到后,才会进行更多的计算。当外界信息较为稀疏时,SNN就可以体现出其高效性。此外,在计算光学视觉流(Benosman,R.etal.,2012;WongsuphasawatandGotz,2012)或立体视觉方面,也可以实现深度感知(Rogister,P.etal.,2012;Osswaldetal.,2017),从而与SNN基于脉冲的学习规则相结合以进行更有效的训练。
此外,对与深度SNN而言,其异步的、数据驱动的计算模式使得显著信息通过网络在多个层之间快速传播。与基于事件的传感器结合,就可以实现伪同步信息处理,第一个输入脉冲被记录后,就可以立即获得最终层的第一个近似输出,即便是对于多层网络也是如此。而传统的DNN则需要完全更新完所有层之后计算最终输出。
综上,SNN可以对于来自神经形态传感器的时空的、基于事件的信息充分利用,实现较低的功耗,并且对于数据驱动的计算模式更为支持,本地计算也避免了高昂的内存访问操作。
5 脉冲神经网络的局限性
正如引言部分中所提到的,第二代神经网络深度网络(DNN)已经取得了诸多成熟且有效的方法,而SNN仍处于追赶的过程。尽管SNN已经逐渐有了一些进展,但其在MNIST、CIFAR或ImageNet等经典的数据集上的表现却依然不及已有的深度网络的水平。导致这一结果的原因主要有两点,其一在于缺乏专为SNN而设计的更加适用的训练算法,其二在于对于SNN的性能评价缺乏独有的基准,并且其缺乏适合其性能发挥的数据。
关于训练算法方面,由于SNN的脉冲的不连续的特性,传统神经网络训练中的基于梯度下降的反向传播算法也就无法适用。尽管SNN较好地集成了诸多可塑性学习法则从而最终实现了类似反向传播算法的学习效果,但准确型却并不尽如人意。大多数方法仍是对传统DNN的模仿与近似,因而实现超越就显得更加不可能。人脑的物理实现与硅基计算机的硬件实现终归不同,如果有神经形态的硬件实现(Songetal.,2022),深度SNN就可以表现出更快更好的效果。
除了训练算法,数据也是SNN的一大局限。SNN本身的设计是面向带有时间信息的脉冲序列,但现实却是SNN是在一些静态图像的数据集上进行评估的,这一过程中静态的数据需要被转换成脉冲序列(Kheradpishehetal.,2022),而这一转换本身有损且低效,这也就导致了SNN在于DNN的比较上先天劣势。正如在优势部分中所提到的,SNN应该是像人脑一样对于来自现实世界的不断变化的信息流进行高效而准确的处理,而非在传统机器学习的任务中一较高低。但目前,适于SNN的数据集以及可以真实反映SNN性能的评估指标均较为缺乏。一个已经较具成效的方向是收集动态视觉传感器(DVS)基准,特别是自动驾驶等方面的相关用例。
6 总结与展望
目前为止,SNN大多是在图像分类任务上取得了一定的成就。但除了对于图像分类任务的对于静态图像的感知与推断之外的方向,依然需要大力投入、多加探索(Nunesetal.,2022)。尽管SNN很适合于处理顺序数据,但现在却只有很少的工作(Diehletal.,2016)对于SNN在自然语言处理任务上的表现进行探索。此外,传统DNN领域,强化学习已经取得了深刻且广泛的良好效果,但现如今使用SNN进行强化学习的研究却依然较为稀少(Florian,2007;Vasilakietal.,2009)。
对于传统的深度学习模型而言,其在持续学习时会产生遗忘现象。也就是说,一个关于某项任务训练好的网络在接触另一项任务后,会遗忘掉关于先前的任务的知识而只记得最新的任务。如何能像人类一样在面对各种任务与环境时建立持续的学习,已经成为了深度学习研究中的一个重要方向。而SNN的数据处理中所引入的额外的时间维度,对于实现持续学习的帮助作用十分值得研究(Zuoetal.,2017)。此外,小样本学习也是深度学习的另一个重要方向。SNN中的无监督学习可以与仅仅使用一小部分标记的训练数据的弱监督方法结合,从而可以执行数据的高效训练(PandaandRoy,2016;Kheradpishehetal.,2018;MasquelierandThorpe,2007)。因而可以认为SNN已经比传统深度学习取得了更好的结果,未来或许将会再这一方向进一步发展,扩大这一优势。
此外,SNN的另一发展重点是与神经科学建立更多的联系。SNN本就一定程度地侧重于对于生物结构及物理特性的模仿,而来自神经科学领域的灵感与启发正可以帮助SNN的研究者深入理解学习规则的内在机理,制定出更有效的策略。例如Masquelier等人(MasquelierandThorpe,2007)使用STDP和时间编码来模拟视觉皮层通路,并发现这种学习导致神经元变得具有特征选择性,。类似地,通过将树突连接添加为额外的超参数,结合树突学习(RaoandSejnowski,2001)和结构可塑性(Royetal.,2017)来改进基于脉冲的学习,也不失为一项有意义的工作。此外,是液体状态机(LSM)(Maass,2011)也是SNN领域的一个补充工作,其使用非结构化、随机连接的循环网络,与简单的线性输出配对。这种脉冲的动态的框架在各种顺序识别任务中已取得了较大成功,但在复杂和大规模任务中实现它们仍然是一个悬而未决的问题。
在不远的将来,随着神经形态硬件的不断进步以及SNN研究人员的不断努力,SNN将逐渐在时序性、低能耗的应用上展现出更强的竞争力,同时基于SNN的类脑类脑智能也将迎来新的发展。
参考文献
Kashu Yamazaki,Viet-Khoa Vo-Ho,Darshan Bulsara and Ngan Le. 2022. Spiking neural networks and their applications: A Review. Brain Sciences, 2022, 12(7),863.
Phu Khanh Huynh,M. Lakshmi Varshika,Ankita Paul,Murat Isik,Adarsha Balaji and Anup Das. 2022. Implementing spiking neural networks on neuromorphic architectures: A review. arXiv preprint arXiv:2202.08897.
João D. Nunes, Marcelo Carvalho, Diogo Carneiro and Jaime S. Cardoso. 2022. Spiking neural networks: A survey. IEEE Access, 2022, 10,60738-60764.
Shihao Song, Harry Chong,Adarsha Balaji,Anup Das,James Shackleford and Nagarajan Kandasamy. 2022. DFSynthesizer: Dataflow-based synthesis of spiking neural networks to neuromorphic hardware. ACM Transactions on Embedded Computing Systems (TECS), 2022, 21(3),1-35.
Saeed Reza Kheradpisheh, Maryam Mirsadeghi and Timothée Masquelier . 2022. Bs4nn: Binarized spiking neural networks with temporal coding and learning. Neural Processing Letters, 2022, 54(2),12551273.
David Silver, Julian Schrittwieser, Karen Simonyan, Ioannis Antonoglou, Aja Huang, Arthur Guez, Thomas Hubert, Lucas Baker, Matthew Lai, Adrian Bolton, Yutian Chen, Timothy Lillicrap, Fan Hui, Laurent Sifre, George van den Driessche, Thore Graepel, Demis Hassabis. 2017. Mastering the game of Go without human knowledge. Nature 550, 354–359.
David Daniel Cox and Thomas Dean. 2014. Neural networks and neuroscience-inspired computer vision. Curr.Biol.24, R921–R929.
Milakov, M. 2014. Deep Learning With GPUs. https://www.nvidia.co.uk/docs/IO/147844/DeepLearningWith-GPUs-MaximMilakov-NVIDIA.pdf.
WOLFGANG MAASS. 1997. Networks of spiking neurons: the third generation of neural network models. Neural Netw. 10, 1659–1671.
McCulloch,W.S. and Pitts,W. 1943. A logical calculus of the ideas immanent in nervous activity. Bull. Math. Biophys. 5, 115–133.
Vinod Nair and Geoffrey E. Hinton. 2010. Rectified linear units improve restricted Boltzmann machines. In Proc. 27th Int. Conf. on Machine Learning , 807–814.
Eugene M. Izhikevich. 2003. Simple Model of Spiking Neurons. IEEE Trans. Neural Netw. 14, 1569– 1572.
D.O.HEBB. 1949. The Organization of Behavior: A Neuropsychological Theory.
L. F. Abbott and Sacha B. Nelson 2000. Synaptic plasticity: taming the beast. Nat.Neurosci.3, 1178– 1183.
Shih-Chii Liu and Tobi Delbruck. 2010. Neuromorphic sensory systems. Curr. Opin. Neurobiol. 20,288– 295.
Anup Vanarse, Adam Osseiran and Alexander Rassau . 2016. A review of current neuromorphic approaches for vision, auditory, and olfactory sensors. Front. Neurosci. 10,115.
Ryad Benosmana, Sio-Hoi Ieng, Charles Clercq, Chiara Bartolozzi, Mandyam Srinivasan. 2012. Asynchronous frameless event-based optical flow. Neural Netw. 27,32–37.
Wongsuphasawat, K. and Gotz, D. 2012. Exploring flow, factors, and outcomes of temporal event sequences with the outflow visualization. IEEE Trans. Vis. Comput. Graph. 18,2659–2668.
Paul Rogister, Ryad Benosman,Sio-Hoi Ieng, Patrick Lichtsteiner and Tobi Delbruck. 2012. Asynchronous eventbased binocular stereo matching. IEEE Trans. Neural Netw. Learn. Syst. 23„ 347– 353.
Marc Osswald, Sio-Hoi Ieng, Ryad Benosman and Giacomo Indiveri. 2017. A spiking neural network model of 3D perception for event-based neuromorphic stereo vision systems. Sci. Rep. 7,40703.
Peter U. Diehl, Guido Zarrella, Andrew Cassidy, Bruno U. Pedroni and Emre Neftci. 2016. Conversion of artificial recurrent neural networks to spiking neural networks for low-power neuromorphic hardware.. Int. Conf. on Rebooting Computing 20.
Razvan V. Florian. 2007. Reinforcement learning through modulation of spike-timing-dependent synaptic plasticity. Neural Comput. 19,1468–1502.
Eleni Vasilaki, Nicolas Fre´maux, Robert Urbanczik, Walter Senn, Wulfram Gerstner. 2009. Spike-based reinforcement learning in continuous state and action space: when policy gradient methods fail. PLOS Comput. Biol. 5,e1000586.
Fan Zuo, Priyadarshini Panda, Michele Kotiuga, Jiarui Li, Mingu Kang, Claudio Mazzoli, Hua Zhou,Andi Barbour, Stuart Wilkins, Badri Narayanan, Mathew Cherukara, Zhen Zhang,Subramanian K.R.S. Sankaranarayanan, Riccardo Comin, Karin M. Rabe, Kaushik Roy and Shriram Ramanathan. 2017. Habituation-based synaptic plasticity and organismic learning in a quantum perovskite. Nat. Commun. 8,240.
Priyadarshini Panda, and Kaushik Roy. 2016. Unsupervised regenerative learning of hierarchical features in spiking deep networks for object recognition. Int. Joint Conf. on Neural Networks,299–306.
Saeed Reza Kheradpisheh, Mohammad Ganjtabesh, Simon J. Thorpe and Timothee Masquelier. 2018. STDP-based spiking deep convolutional neural networks for object recognition. Neural Netw. 99,56– 67.
Timothee Masquelier and Simon J. Thorpe. 2007. Unsupervised learning of visual features through spike timing-dependent plasticity. PLOS Comput. Biol. 3,e31.
Rajesh P. N. Rao and Terrence J. Sejnowski. 2001. Spike-timing-dependent Hebbian plasticity as temporal difference learning. Neural Comput. 13,2221–2237.
Subhrajit Roy, Student Member, IEEE and Arindam Basu. 2017. An online unsupervised structural plasticity algorithm for spiking neural networks. IEEE Trans. Neural Netw. Learn. Syst. 28,900– 910.
Wolfgang Maass. 2011. Liquid state machines: motivation, theory, and applications. Computability in Context: Computation and Logic in the Real World (eds Cooper, S. B. Sorbi, A.),275–296.