【WRC 大咖观点】蒲慕明《脑科学与类脑智能》
2021世界机器人大会第二天线下主论坛——“未来峰会”群星璀璨,产、学、研各领域大咖齐聚首,共话巅峰,为机器人未来发展领航。
峰会现场,中国科学院神经所创任所长、我国脑机化的主要发起人蒲慕明院士通过视频连线进行演讲,演讲主题为《脑科学与类脑智能》。以下为蒲慕明院士演讲内容全文整理。
各位来宾,早上好!非常高兴能够接受大会的邀请,来到今年的世界机器人大会做一个报告,我的报告内容是《脑科学与类脑智能》。
今年我国启动了两个创新2030重大项目之一,就是脑科学与类脑研究,这和今天我讲的题目直接相关。这个项目里面,我们希望能够从基础神经科学的研究开始,然后对两个领域的应用研究有贡献。基础领域要制造脑认知功能与神经基础,包括神经环路的发育过程,并研发各种相关的技术进行这些研究。其中在理解脑认知功能的神经基础关键问题就是神经系统的复杂神经网络结构,需要能够解析,所以我们也同时开展全脑神经连接图谱的绘制,就是有细胞分辨度的,能够对各种不同类型的细胞之间的神经连接进行绘制,以此为基础更好地理解神经功能原理。
我们还有两项应用研究:脑疾病的诊断和治疗和脑机智能技术,现在我对这两方面的研究做一个介绍。
首先是所谓的认知神经原理到底包含哪些认知功能,最重要的基本认知功能包括感觉、知觉、记忆、学习、情感情绪和抉择等等,这些都是很多动物神经系统都有的认知功能,我们需要理解这些功能原理,另外还有一些高级认知功能,比如比较复杂的抉择需要通过长期的证据收集和评价进行抉择,此外还有共情心,就是对他人心情的理解,这是所谓的社会行为的基础,也有更高级的意识和语言的认知功能,这些神经环路和工作原理很多低等动物是没有的,必须灵长类以上的动物才能解析这些功能。
除了基本认知功能和高级认知功能,我们也想知道发育过程是怎么产生的,比如环路的形成和遗传因素、环境因素直接相关,所以对环境和遗传因素怎样能够产生交互作用,造成神经环路的产生,这是神经科学的一个重大问题。研究这些基本问题都需要各种模式,就是从脊椎动物最基本的斑马鱼到哺乳类的小鼠和猕猴,甚至是人类的神经网络结构,我们希望能够有一个全景式的图谱绘制,能够取得结构信息,然后进一步阐明工作原理。
我们在应用方面有重大疾病的诊断和治疗,重大疾病的定义是幼年期的自闭症和智障,这是发育性疾病,成年期有抑郁症和成瘾,这些是精神类疾病,老年期有些神经系统退化造成的疾病,包括老年痴呆和精神病等等,我们希望知道这些重大疾病的致病机理,然后对此进行诊断和治疗,经过多年来的研究,到现在绝大多数脑疾病的机理我们还是不清楚,需要真正理解这些机理可能还需要数十年的时间,社会医疗问题、各种社会负担可能不能等那么久了,所以我们在完全理解自闭机理之前能够确定各种疾病的预警和早期诊断指标,这些不见得要理解,我们都可以获得这些指标,包含血液和脑积液里面的分子、脑影像的数据、脑功能的检测指标,有了这些指标之后,如果我们能够判断哪些指标在早期就可以判断异常现象,我们就可以针对这些症状做一些干预。
这些干预包含各种药理的干预,就是各种药物的研发,包括针对这些疾病症状的治疗药物,但也包含各种生理和物理的刺激技术,比如药物研发通常是比较缓慢的一个过程,但物理和生理刺激技术现在已经在很多临床研究领域广泛开始应用,所以所谓的干预是包含药理、生理和物理。研究这些干预手段需要各种模式,就是需要有跟人类比较相近的,比如猕猴的模型就是带有人类疾病症状的猕猴模型,可以做各种生理物理干预研发的对象,猴类模型中获得结果之后再进行人身上的临床研究,这些是最有效的开发这些干预手段的方法。
另外就是脑机智能技术,其中包括大脑与机器间的融合,就是脑机接口和脑机融合的各种方法、各种模型,这些脑机接口可以运用到调控大脑的活动,包括光电磁超声等等,能够调控大脑的状态,这种调控技术也是包含在我们希望研发的脑机智能技术之一,大家可能也听说现在国际上有些脑机接口已经应用在医疗上,其实包含怎样从大脑获取信息,用这些信息操控身体外的器件,然后是从身体外的信息控制大脑,就是双向的脑机接口,一个是接入,一个是调控,这种闭环式、反馈式的脑机接口调控技术是未来开发这个领域的重要前景。
脑机技术还包括机器人工智能的研究,包括新一代机器学习算法,各种类脑计算的系统和软件等等,也包含硬件,就是类似神经元处理信息的芯片、处理器和计算机,所谓的类脑芯片、类脑处理器、类脑计算机等等,这些都是目前人工智能前沿很受关注的领域。当然,我们很希望未来机器人就是基于类脑研究获得的智能体,能够应用在服务人类的机器人系统,这些系统的研发必须基于我们对大脑智能的理解和智能的环路基础,然后在此基础上研究人工智能的各种软硬件。
目前脑机智能技术还包含对大数据的处理,人类是怎样处理大数据、有效处理外界的信息,是否可以从中获得新的信息处理的新机制、新算法、新理论,这些都是这个领域需要关注的内容。
下面大致介绍一下我国未来十年在脑科学与类脑研究两个领域的三个方向,也是一体两翼,基础研究加上两个应用研究。
关于脑科学进展和类脑研究相关的问题,首先就是网络,大脑网络是极其复杂的,人类大脑可能是宇宙最复杂的一个物体,有着近千亿的神经细胞,通过百万亿的连接组成了一个网络,每个神经细胞至少有1000个神经元以上,其它的神经元做连接,所以网络非常复杂,这些网络还有特异性,不是混乱的连接,连接过程中还有它的功能,这种网络中有特殊的环路,特殊的通道,这些通道是实现各种感知运用和思维功能的环路,我们需要理解的是一个复杂网络中的各种特殊环路的功能。
网络的复杂性不光是神经元数目多,神经元种类也非常多,估计至少有上千类不同的神经元,除了形态上的不同,生理特性也不同,神经信息载体是脉冲,脉冲放电的模式在各种不同的神经元是不太一样的,包括各种类型的神经元,可以从放电模式区分,所以形态和生理都可以不同。很多神经细胞在分子层面都有不同的基因表达的模式,产生的分子和蛋白谱系不一样,不同的神经细胞有不同的类型和不同量的分子合成,所以根据基因的表达,我们可以聚类分析,发现会有各式各样的种类。我们从形态、电生理特性、分子都可以聚类,表达谱也可以作为聚类分析,看一看是否有不同种类,所以现在脑科学面临的一个大问题就是怎样区分这么多不同的种类,因为知道不同的种类才知道都在进行什么功能,能够真正理解这种工作原理。
目前来看网络结构非常复杂,我们已经在小鼠上做非常精细的网络研究、网络图谱绘制,比如注射病毒感染的细胞,包括整个小鼠切片,然后用切片上的信息做三维重构,可以画出神经细胞、神经元的投射途径,比如不同的神经元在皮层的不同位置,全脑投射都可以一个一个细胞画出来,我们已经重构了数千个小鼠皮层的细胞,比如50多个小鼠的细胞,可以看一看复杂性,细胞体在皮层的各个位置,但神经的连接遍布整个大脑,送到大脑各个不同脑区,也是和不同脑区的神经元产生连接,所以这种复杂性就是各种复杂功能的来源,我们必须理解结构上是怎样的模式,然后才能进一步理解整个神经元网络的结构。
我们需要知道这些连接不是完全混乱的,而是会有特殊意义的连接,这些连接也不是一成不变的,大脑使用的过程中有电荷产生就会改变神经元的结构和功能,所以连接也会产生变化,至少连接的强度、传导信息的效率也会受到影响,所以这个过程就叫做学习,学习的过程就是感觉信息、认知信息,把神经元的网络结构并到新一轮的状态,学习记忆的过程就是整个网络的可溯性,可溯性是非常重要的,大脑认知最主要的基础就是可溯的,可以使得大脑使用以后未来进一步活动的时候行为会有改变,所以大脑有这么强大的能力,来源就是因为认知行为的改变。
目前我们正在研发类似大脑的人工智能,或者类似人脑机器学习的算法,其实关键就是怎样能够通过网络的使用改变网络的结构和功能,就是学习大脑是怎么变的,然后在人工网络能够实现,这是类脑人工智能的关键。我们要理解类脑人工智能是怎么回事,首先要理解大脑的可溯性,半个世纪以前就有科学家提出电活动怎样改变大脑,最通用的学习法则多年来统治脑科学对可溯性的理解,就是加拿大科学家赫博的学习法则,提出神经细胞之间的连接突触可以通过电活动改变强度,两个神经元只要放电模式相同,之间的连接就会增强,如果活动不是同步的,一个有活动,另一个没有活动,可能是其它神经元抑制活动,造成不同步的情况,连接就会削弱和消失。很多实验证据说明这种法则能够很好地解释大脑为什么会改变结构,这种法则叫做突触强化和弱化的法则,简单来说就是一起放电的神经元,同步放电的神经元连接在一起。
我们把一个神经元的输入不断刺激,高频刺激就会强化,突触传导的效率就会增加,而且是长期增加,换一个低频次就会弱化,所以有强化和弱化这种功能上传递效率的改变,已经在很多大脑的突触上发现,所以是有证据的,强化和弱化可以用赫博的学习法则解释。
另外一个很重要的发现就是大脑的记忆有短期记忆和长期记忆,什么叫做短期记忆?就是刺激进来之后只有短暂的时间才能记得,过一段时间就忘了,所以在生理学上也有这种突触传递的强度变化,比如一次性大量输入信息,就是高频刺激,这个叫做突触强化现象,大脑活体中的强化现象不会持久,随着时间就会慢慢下降和消失,看来消失是由于自发的活动造成的侵袭作用,一次性大量学习并不能够长期储存,但如果间隔性多次学习,比如这里学习60次,最后就可以侵袭,要是过一阵子再过20次,3个连续性的间隔学习就可以长期巩固,所以间隔性的学习可以造成巩固的长期记忆。
我们很多学习理论都知道要学习必须要间隔性地学习,考试前大量学习,考试后就全忘光,但考试前要是每个礼拜温习一下,多温习几次,得到的是长期记忆,所以短期和长期记忆的转化是多年来我们都知道的结果,但在十多年前实验室能够显示突触的强化,也有这种长期和短期的问题,一次性学习之后都是短期记忆,间隔学习之后都是长期记忆。
重复学习的时间间隔非常重要,就是有最佳的间隔,可以造成最高的强化,间隔时间太长也会强化,短期有效的需要转化为长期记忆,必须是非常Optimum的时间中进行,所以这是学习理论中多年来心理学上也有发现这样的特性。
这些就是刚才讲的功能上有突触效率的变化,可能造成长期的记忆,但突触的结构是很复杂的,不是简单的突触前的神经终端,就是在轴图上产生的突触,这是一个非常复杂的结构叫做输出集,这是一个可调控的结构,一般突触前的信息送到数图集之上有多少电流流到数图上面,然后被神经元整合是受结构的影响,如果有长期强化的时候数图集会变大,使其传递效率增加,假如有长期的弱化现象数图集会萎缩甚至消失,使得突触前的信息就没有权重下降,最终甚至不能影响突触后的细胞。
除了功能上的长期强化和长期弱化,伴随着还有结构上的变化,我们可以在大脑长期记忆的时候发现结构上的变化,比如小鼠的大脑中可以发现,长期记忆储存、恐惧记忆形成,突触后会对突触前原来的结构多增加一个连接,使其产生更强更有效的连接,通过结构增加连接的效率,当然也可以在突触前多长一个小炮,使得突触后的传递效率增加,两类结构的变化就是突触前和突触后的连接元素的增加都是可以增加长期记忆,包括听觉统计学习中发现的现象,所以突触的变化包括功能传递效率的增加以及结构上的变化,可以造成突触效率的改变,这些是可塑性结构的基础。
大脑认知有一个很关键的问题,认知都是外界信息的很多元素、很多成分,比如我们认识一个面孔就包括眼睛、鼻子、嘴巴、头发、各种各样的信息,我们要整合成一个面孔,这个整合到底是怎么在网络中形成的呢?这个叫做信息捆绑,也是脑科学神经网络连接面临的最大的问题之一,就是怎样理解信息是怎样捆绑成为整体感知信息,这里有两种理论:一种叫做聚合模型,就是对每个感知信息的成分都有单独的不同的神经元处理,另一种是整体的认知是另外一个神经元,接受了各个成分神经元的输入,连接上的聚合,造成信息的聚合,这个叫做连接造成的聚合模型。还有一种模式就是不需要连接上的聚合,而是用同步放电的模式聚合,比如面孔四个不同的成分都有反映神经元,怎样才能让大脑认知面孔呢?不是聚合到一个面孔认知的神经元,就是每个对成分有反应的神经元都在一起放电,造成之间连接的增强,所以就会认得这个面孔,不需要另外连接上的聚合。
同步放电模式和连接聚合模式都是现在流行的对信息捆绑问题的理解,现在最流行的就是网络模式、连接理论对信息捆绑的模式,但在真正的大脑里面很多情况下很可能同步放电模式,神经元放电的时间相同,造成的反应就是认知,现在人工智能网络模型中很少有人应用。今天特别要谈一谈赫博同步放电模式的假说,这是非常有用的,对我们理解下一步怎样进一步改进人工网络是一个很关键性的思路。
赫博假说是这样的,同步的链路可以强化细胞群的连接,强化以后就是储存感知信息,感知信息怎样提取呢?只要神经元再次被激活就是感知信息的提取,比如我们看到一个原型,感知原型不断在我们视野中出现,激活了一群大脑中的神经元,每个单一的神经元都是对这个原型每个曲线段有反应,原型出现之后这些神经元都同步放电,因为都是同时被激活,它们之间的连接将增强了,成了一群连接在一起的神经元,我们称之为神经元集群编码的原型,记忆储存原型细胞群内,只要有充分的神经元被激活,整体这一群神经元就被激活,因为之间的连接增强了,不需要整个原型就可以认知这些,这就代表对原型的视觉。
我们可以看到面孔各个部位都有一群神经元,眼睛神经元集群,每个点代表一群神经元,面孔不断出现的时候各个部位都有各种群,代表各种面孔部位集群一起激活,所以我们就把这一大群神经元集群之间的连接加强了,所以是一个超级的细胞群,细胞群之间的连接都加强了,这种细胞群代表族谱面孔的记忆,记忆储存在这些连接上,就是这些连接加强了,现在只要有部分信息来了,只要激活部分眼睛、鼻子的细胞群,可以把其它的细胞群一起激活,这就是面孔记忆的提取。
举个例子,大家可以在图中看出什么吗?现在是黑白的影像输入,看不出来什么意义,假如各位以前没有看过这张图片的话也看不出来上面代表什么信息,但现在假设不断地让一个信息输入大脑,这是一个面孔的信息,那么就会在你看到这个信息之后建立一个面孔细胞群,这个细胞群是针对这个面孔,假如这些细胞群建立之后再有部分信息出现就可以看出这个细胞和面孔。可以看到大脑已经建立细胞群,你的感知只要有部分信息就可以提取,所以这个信息可以储存,所以细胞群可以把记忆储存相当一段时间,这也是我们对细胞群的看法。
最后讲到一个概念的形成,也是类似的,刚才我们说的祖母的概念就是这样的超级细胞群形成的,所以我们看到祖母的名字就会想起她的面孔、想起她唱的歌和身影,这些是最好的理解,所谓的一个网络怎样储存概念最好的方式,就是把这个信息储存在整个网络,分布式地储存在大群细胞的连接之中,我们现在也在做很多实验证实。
实际上这些不是没有证据,各个医院都有PET成像,我们看几个字的话视觉就会被激活,听几个字听觉就会被激活,说几个字说话园区就会被激活,现在闭上眼睛不听不说,想像那几个字是什么意思,这个就是全脑激活,表示概念都是遍布全脑,大范围、成千上万、数千万神经元的同时激活。
神经网络的概念是怎么形成的呢?就是出生之后由于经验造成的网络之间的强化,尤其是在出生之后几岁大量网络形成的时候,有些网络是要不断地修剪,好的网络可以留下来,不好的网络就要修剪,幼儿期和青春期网络是在形成的过程中,修剪大于生存,后来慢慢地就会造成整体网络整体网络的简化,所以这是年纪大了,可塑性下降,记忆慢慢衰退的原因之一。网络的形成和修剪过程不正常的话就会造成各种疾病,这是现在对精神类疾病网络异常的说法。
讲到人工网络,多年来数字计算机、Digital Computer始祖多年来就提出我们要理解网络是怎样处理信息,怎样才是最好的Program,我们可以学习儿童是怎样产生认知,与其去想一个Program模拟成年人的大脑,还不如看一看大脑的形成过程、学习过程,就是早期的网络是怎样形成的,现在为什么要研究类脑智能的发育过程,就是想从这里知道网络是怎样自我改进的,结构是随着学习而变,造成一个最有效的、最高智能的人工网络。
我们可以看到种类有很多,各种条目神经网络,形状和生理放电模式都不一样,所以连接神经网络也是更为复杂,现在大多数人工网络是正向连接,自然网络中有顺向的、逆向的、侧向的连接,造成各种各样的环路都有各种功能,所以这些是可以借鉴的内容。
刚才我们提到可塑性,包括功能的可塑性,效力可以增强或者减弱,这是人工网络已经可以应用的,最常用的学习模式和机器学习的算法,其实就是长期学习、长期增强或者减弱可塑性的应用,也是一个效率的应用。我们刚才提到频率,除了功能的可塑性还有结构的可塑性,就是网络可以增加连接、减少连接、新生和修剪,这是人工网络还没有考虑到的结构上的变化,可以是学习的过程中改变,这是人工网络可以借鉴的性质。其实可塑性也可以传播,这是自然网络画像,包括各式各样的传播模式,可以造成可塑性的变化。
记忆储存有短期记忆和长期记忆的问题,结构效力的改变就是记忆储存,但储存的记忆会消退,短期记忆可以转化为长期记忆,就是有巩固过程,规则性的重复也是很重要的,而且是可以引进到记忆学习,就是人工网络没有考虑到两种不同记忆之间的转换,记忆消除也有各种模式,自然网络中提取记忆就是记忆电活动重新出现作为记忆提取的模式。一群突触可以同时消失,强化学习在人工网络已经开始应用,但人工网络强化学习没有什么特异性,所以在自然网络中强化学习的过程是通过调节,就是有特异性地对突触群的修剪。
集群是今天我想讲的最重要的概念,就是网络中是一个集群的应用,刚才讲过各种成分都是由不同的集群造成,集群之间可以造成连接的变化,集群的集群,这种嵌套式是各种信息捆绑很重要的模式,多模态的信息就是靠这种捆绑,但捆绑的关键就是要同步活动震荡,或者是有耦合活动捆绑不同集群,所以怎样能够应用到人工类脑研究,就是利用人工网络的学习算法之中,那么就很关键,要把时间的信息放到人工智能里面,所以我认为脉冲神经网络是非常重要的,就是用脉冲网络可以更好地储存时间信息,然后在时间信息上可以做同步信息的捆绑,造成嵌套式的信息捆绑的过程,产生各种多模态的整合和各种概念的储存和提取。
类脑研究并不是模拟大脑,刚才我讲的只是一些概念,这些概念怎么应用到人工智能,这些都是概念的应用,不是要模拟整个连接是怎么造成的,目前来讲是做不到的。