人类思维遭AI破译,机器可能很快可以像人一样思考
据外媒报道,近日,日本研究人员成功借助人工智能破译了人类的思维和想象,从而在理解人类思想及其背后的大脑机制方面取得了重大的突破与进展。
这看起来非常新鲜,但并非是科学界在这方面首次取得突破,而且这种突破也不是个例。破解人类思维的内容与方式一直是科学界长久以来的愿望,在人类的努力和技术进步的共同作用下,人类在这一方面取得了重大突破。这意味着,人工智能在未来有可能会像人一样思考。
那么,人类是如何做到让人工智能模仿人类思考的?这种技术的成熟度又到了怎样的地步?青出于蓝而胜于蓝,在人工智能理解人类甚至是有了自主意识之后,人类又该如何与之“和谐共处”?这都是值得我们认真思考的问题。
一、人工智能仿人类思考成果颇多,技术在其中起到重要作用
在此次研究取得突破之前,出现了许多促使人工智能破译人类所见、回忆、想象和梦境内容的研究。早在2008年,日本的另一个科学家团队直接在电脑屏幕上成功地重现了从人类大脑活动中获取的图像。
然而,以往的研究存在着诸多障碍。由于个体的大脑内容具有独特性,故而很难创建思维模式的目录。而且这些模式都要和少数预编程图像相结合,而要完成这一阶段就必须对实验参与者接收的长期的、高成本的图像测试进行大量的处理,难度颇大。
不过,随着人工智能技术的不断进步,该领域的研究进入了一个新的阶段。
日本京都大学教授神谷之康及其团队日前在《自然·通讯》中发表研究报告称,根据其团队的研究成果,发现可以利用人工神经网络破译人类的大脑活动,将其转为可理解的信号。
在这一研究中,人工神经网络其实就是一种在实验室造神经元基础之上建立起的计算机模型。通过传统的算法技术,人工神经网络能够制造出具有理解能力和解决难题能力的计算机软件,它的运行方式类似于人类大脑神经元,能够解读人类思维。
成就不止来源于日本科学团队,在太平洋彼岸的美国,谷歌AI也同样能够像人类那样思考,甚至能创作出“艺术作品”了。
《大西洋月刊》是美国最受尊敬的杂志之一。最近《大西洋月刊》撰文称,人类最早在岩石上画图的时候,就意味着认知跃进已经实现。如今,计算机也在学习做同样的事情。最主要的表现,是谷歌AI能够通过人类那样的思维方式去完成绘画。
例如,让我们去画一辆车和一头猪,我们会这样画:
这非常简单。然后,我们被要求画个“猪卡车”。按照人类的思维模式,会想办法将二者结合起来,于是就变成了这样:
车轮变成了小猪蹄,驾驶室应该是小眼睛,猪鼻子是车头。单就这幅画来看,的确是对“猪卡车”很有创意的解读。不过,这并不是人类的作品,而是来自于人工智能系统SketchRNN。这一系统是谷歌AI项目Project Magenta中的一部分,旨在探究AI能否创作艺术。
该项目负责人Doug Eck表示,
SketchRNN的意义远不止学习如何绘画,而是在于“用类似于人类的方式概括归纳抽象的概念”。换言之,该团队并非只是为了打造一台能够画猪的机器,而是使机器能够识别出“猪的特征”。比如,即便是机器只得到诸如“卡车”这类的提示性语言,也能够不受任何影响地做出准确判断。
这其中隐含的意思是,人类在绘画过程中,会对外部世界产生抽象概念。我们画出的是“猪”的广义概念,而非某头特定的猪。换言之,人类如何画猪,和大脑中如何储存“猪的特征”这一信息相关联。学习如何画猪,就能学会人脑合成“猪的特征”的能力。
以上就是谷歌AI软件的运作模式。此外,谷歌还开发了一款名为“Quick, Draw!”的游戏,在游戏过程中,会生成一款涵盖雨、救火车、瑜伽动作、猫头鹰等人类格式绘图的庞大数据库。
这种项目所产生的图像看上去与人类对现实世界的观察相差无几,让人觉得既不可思议,又相当有趣。Eck表示:“人类……并不是把世界当成一个像素网格去理解,而是发展出抽象的概念去表示我们所看到的东西,而我们从小时候就能够通过用铅笔或者蜡笔在纸上绘画来传达我们所看到的东西。”
实际上,这一切都要归功于人工智能深度学习的能力,这种能力需通过对海量数据的解析方可获得。
此前,日本科学家利用DNN(深度神经网络)架构克服了在破解与人类思维、想象及梦境有关的研究中遇到的一些障碍。
神谷之康表示:“我们研究证实,深度神经网络的信号模式可以被用来识别一个人看到或想象的物体”。解码器获得神经网络信号模式,将其与大数据库中的影像进行比对,用这种方式对人类所见所思的物体进行识别,成功率相当高。
而在谷歌SketchRNN中,机器学习则是被采用的最为广泛的概念。通过编程,使计算机通过自学的方式,掌握如何执行不同类型的任务,常见方式是通过连接系统为原型的神经网络,给计算机注入标签数据来进行“训练”。在这一过程中,不同的人工神经元节点会相互连接,不同的权重会对部分输入信息做出响应,但不会响应其他的输入信息。
由此可见,在技术进步的背景下,人工智能在模仿人类思维这一领域已然取得了引人瞩目的成果。可以大胆猜想,人工智能在未来也可能会拥有自主意识,而如何与之相处,就成了一个值得被重视的议题。
二、人工智能或在未来拥有自主意识,神经网络起重要作用
关于人工智能是否能够模拟人类思维的问题,可以从技术层面加以分析。
AI的本质是函数,但并非输入或输出的简单映射,而是个动态逼近某一极值的函数,这种过程是依靠函数的迭代修正来实现的。以神经网络为例,输入数据为X,输出数据为Y,Y=F(X)是系统的映射函数,设当前迭代次数为N,则F(N+1)=G(F(N), L, D),这里用L指代LossFunction,D指代训练数据集,其中真正具备“智能”属性的是G而非F。简而言之,智能代表的是一种自适应过程,而非自适应的结果。
近几年来,多层级神经网络在解决包括翻译和图像识别在内的诸多问题上屡获成功,谷歌则在这些新架构上重新构建了多种核心服务。这些神经网络模拟的是人类大脑的运作过程,其互相连接的层可识别输入信息的不同模式。
构建具备这类机制与架构的网络会带来超乎想像的成效,使得原本艰深的计算难题转变为调整模型的训练,而后让一些图形处理单元运算的问题。Gideon Lewis-Kraus在《纽约时报》中评论到:“该AI系统一夜之间就有了巨大的提升,这种提升相当于老系统在整个生命周期积累的全部提升”。也正是因为如此,神经网络的使用量及类型才呈现井喷式增长。
人工智能之所以能有大幅度的进步,靠的是机器学习的能力,即对规律的总结。在模仿人类思维这一领域,编程只是人类教给计算机的规则,让AI按部就班地运行。但是,现实世界永远都不是非黑即白的,更多的时候是没有办法总结成确定的规则和规律的。
虽然人类不能将这部分完完整整地教给AI,但可以赋予AI一套用于“总结规律”的规则,使得人工智能可利用其自身强大的计算能力自行找出规律。不过,这种机制也并不是完美的。因为机器只会忠实地执行人的命令,有时可能会产生不那么好的结果。
例如微软的人工智能机器人小冰,入驻Twitter不到一天就变成了一个满口脏话的种族歧视者,还不承认南京大屠杀的存在,就是因为小冰在网民们发布的各类信息中学习到了错误的信息。曾经有一个人做了一个图像识别的AI,教它区分哈士奇和阿拉斯加。由于在这一过程中,阿拉斯加的背景全部是白色的雪地,导致机器错误地把注意力放在了背景上,认为“白背景的就是阿拉斯加”,而并未学会怎么区分图片上的狗。
所以说,机器学习很强大,足以产生基本的“智能”。但要保证AI学习到的都是正确的,还必须人为把控,做不到真正的强人工智能。要想实现这一点,就要依靠人工神经网络。在人工神经网络中,一个个神经元变成了一个个算法和规则,输入的信息可以由网络层层处理,走向不同的道路。最关键的是,如果神经网络觉得有不对的地方,还会自我修改以适应环境,从而实现AI的类人思维。
所以,我们或许可以大胆地预测,未来某天,AI终将发展至强人工智能阶段,甚至拥有自主意识。到时是人类依然可以主宰AI,还是AI与人类共存,抑或是AI统治地球?一切都还未知,而人类能做的,是利用先进科技提升自身,并学会与之“和谐共处”。
更多精彩内容,关注钛媒体微信号(ID:taimeiti),或者下载钛媒体App