让电脑像大脑一样工作?在过去的一年里,这依旧是研究人员们努力的方向…

36氪  •  扫码分享
我是创始人李岩:很抱歉!给自己产品做个广告,点击进来看看。  

IBM在2013年继续在人工神经网络领域进行探索。从2011年开发出了“神经突出计算机超级芯片(neurosynaptic芯片)”之后,又展开了有关于神经性自适应塑料可微缩电子系统的研究(SyNAPSE)。

而学术界、科技界对于人工神经网络的探索可以追溯到1950年。上世纪50年代到60年代的近二十年间,研究人员都在尝试用单片感知器来实现人工神经网络。不过由于技术的限制,很快这股热潮就消失殆尽了。一直到了1983年,Hopfield网络、Boltzmann机以及BP算法的出现再一次让人工神经网络成为了研究热点,并且延续到了90年代初。而最近一次有关人工神经网络的研究井喷式的出现是由深度学习网络,也就是我们常说的deep learning引爆的。

以上所说的这一些更多是算法层面上对于人工神经网络的研究,是计算机科学中狭义的人工智能,并没有人工建造人脑那样的野心。这种人工智能,是基于数学(统计)进行问题求解的机器学习算法(machine learning algorism),即我们常常提到的大数据时代的算法核心。

我们今天要聊的,也就是所IBM研究的更多的是硬件上对于神经系统的模拟,或者换句话说就是真正试图来人工建造人脑。我们的大脑有10的11次方个神经元,而每一个神经元都要和10的4次方个神经元相连,可以说如果单从技术角度想去解决它实在是无法想象的。

我曾经有幸和国内在该领域非常领先的中科院半导体所的鲁华祥教授探讨过,国内目前可以实现的是在100这一数量级的类神经元处理器的制造,继续的下一步发展还存在非常大的困难。或许在这一个方面我们和国际一流最领先的技术还存在一定的差距,但我们都存在一个相当共同的问题,那就是目前的人工神经网络的构建还都是采用了一种神经元模型,即Golgi I型神经元,而对于数量更多的Golgi II型神经元细胞和胶质细胞几乎无人考虑。更不用说在微观层面上对于神经活动表征得非常好的离子通道模型,尽管目前已经有相当多的研究关注与通过阻变式存储器(RRAM)的特性模拟突触可塑性,可依旧还存在很大的困难。

说了这么多负面的情况,难道在人工神经网络的研究就毫无意义?又或者说完全是徒劳的么?
当然不是这样,从研究算法的角度来看,对于人脑行为的一些抽象模拟很好的解决了机器学习领域中的一些问题。继续拿deep learning来举例,这一概念的提出是源于1981的诺贝尔生理学或医学奖,神经生物学家David Hubel和Torsten Wiesel发现了视觉系统的信息处理机制是分层进行的。deep learning就是在机器视觉处理上取得了突出的成功。从生物学中提取知识,再将其抽象转化为算法模型应用到计算机的人工智能领域,这样的深入研究会让计算机在处理更多非逻辑非数值,或者说是“更感性更直觉”的问题上不断进步。

而对于试图制造人工大脑的人来说,目前的研究或许真的力不从心。在不能全面了解脑机制的情况下就试图去制造人工脑其实是一件很危险的事情。不过这样的研究也同样有利于神经科学领域的继续探索,尽管人工制造的大脑和实际的脑组织的差别还较大,但是在神经信息学和计算神经科学领域,抽象的模型还是有助于进一步的研究分析。

最后的最后,在我们试图把电脑变得同时,电脑也在不知不觉地改变着人脑的构造。近日《科学》杂质官方网站报道了北京大学魏坤琳教授团队的研究成果(没错,就是《最强大脑》里的那个帅哥Dr. 魏),通过一系列心理物理学实验,发现对于有或者无电脑使用经验的人,他们对感知运动映射的学习速率是一样的,但是他们的运动学习的方向性泛化(从一个方向上学习到的运动技能泛化到其它方向上)有很大的差别。 这项研究成果也为神经科学的研究提出了警醒,因为目前的大多数实验使用的被试都是通过电脑完成的。我们得到的结果很有可能就是被电脑“篡改”过的。

不管是IBM,还是其他的研究机构,对于人造大脑的制造可能会一直进行下去。而我们人类对于大脑的探索,可能永远都不会结束。

[ 36氪 原创文章,作者: krokodil]

随意打赏

提交建议
微信扫一扫,分享给好友吧。