脑机结合并不能阻止机器人的崛起
OpenAI创始人兼CEO Elon Musk上周提出,人类可以延缓因为机器崛起变得无足轻重的命运,办法是与机器结合,成为电子人。
然而,目前软件型的人工智能和深度学习技术对这一主张提出了严重质疑,尤其是从长期来看。这一质疑不仅因为硬件限制,也与人类大脑在这场比赛当中担任的角色有关。
Musk的观点直截了当:通过利用机器学习和对涉毒学习这样的家数,人类大脑与计算机之间足够先进的接口可以让人类极大地增强自身能力。
但交换必须是双向的。在执行目前算法上不擅长的任务,比如做出微妙的基于上下文的决定上,通过让人来“弥补差距”,脑机接口也许能帮助提高机器学习算法的表现。
这种想法并不新鲜,在二十世纪中叶的时候,J. C. R. Licklider等人就考虑过“人机共生”的可能性和影响。
然而,这方面的进展很慢。原因之一是硬件的研发。iPod之父Tony Fadell 说:“硬件(hardware)之所以叫硬件的原因之一,是做起来很难(hard)。”而建立与有机系统对接的硬件更是难上加难。
相对于我们在《黑客帝国》之类电影里面所看到的那些脑机接口,目前的技术还非常原始。
深度学习的怪异之处
假设硬件挑战问题最终被解决了,也还有更大的问题等着你。过去10年深度学习研究所取得的不可思议的进展披露了还有一些根本性的挑战有待克服。
第一点很简单,那就是我们对于这些复杂的神经网络究竟是怎么运作的仍难以理解和归纳。
我们信任简单的技术,比如计算器我们知道它会一直像我们希望那样计算精确。结果错误几乎永远是因为人输入的错误。
脑机增强的愿景之一是让我们成为算术超人。所以有了脑机接口的话,我们可以不必掏出计算器或者智能手机,只需要脑子过一遍公式然后“辅助”机器就可以把答案告诉我们了。
但如果我们试图接入由深度学习这样的机器学习提供的更先进功能时,情况就开始变得有些怪异了。
假设你在机场担任保安的角色,并且有了一个增强的脑机接口,机器可以自动扫描你每天看到的成千上万张人脸,然后警告你可能出现的安全风险。
大多数机器学习系统都收到一个臭名卓著的问题困扰,也就是一个人或者对象的外观出现一点小小的变化都会导致系统对此分类做出灾难性的错误判断。把一张人的图片变动不到1%,机器学习系统可能突然就会以为自己看到的是自行车。
此图显示了如何通过给图像增加感觉不到的噪声而愚弄AI的图像识别。
恐怖分子或者犯罪分子可能会利用机器不同的漏洞来绕开安全检查,目前的在线安全已经出现了这种问题。人类自身尽管存在限制,但可能对这类漏洞具备免疫力。
尽管机器学习技术有不感情用事的美誉,但一样会像人类那样存在偏见,如果给它输送合适的数据的话,甚至还会表现出种族主义的行为。这种不可预测性对人类如何植入机器,更重要的是如何信任机器具有重大影响。
相信我,我是一名机器人
这还是一条双向车道。人类思想是复杂的、高度动态的活动。在上一节相同的安全场景下,就算有了足够先进的脑机接口,机器如何才能知道需要忽略哪些人类偏见呢?毕竟,无意识偏见是我们每个人都面临的挑战。如果该技术是在帮助你面试应聘者呢?
通过看看全球各地的国防力量在日益人与自动化混合的战场上如何处理脑机接口的信任问题,我们可以在一定程度上预览一下脑机接口信任方面的问题。
对受信任自主系统的研究涉及到两方面的问题,一是人类对机器的信任问题,二是机器对人类的信任问题。
战争机器人必须对人类下达的非法命令做出道德决定,脑机接口发生的事情正好与之呼应:机器既要解析人的想法,同时也要对人类思维当中深层次的无意识偏见进行过滤。
在防御的场景下,人类大脑理性的角色正在检查这一决定是否道德。但当人类大脑接入机器时,在由于机器利用的数据规模大到大脑无法理解的地步而造成干扰的情况下,人类又该作何判断呢?
从长期来看,这个问题将是人类是不是需要(如果是的话如何)参与到日益由机器来做出决策的过程当中的问题。很快,机器就将做出没人能看得明白的医疗决策。在这个过程当中,人类大脑可以以及应该扮演什么样的角色呢?
在某些情况下,自动和人类工人的结合可以增加就业岗位,但这种效应似乎转瞬即逝。那些机器人和自动系统会不断改进,有可能最终消灭它们所局部创造出来的岗位。
类似地,尽管人类最初在脑机系统中也许扮演着“有用”角色,但随着技术的不断改进,把人纳入到这个循环里面的理由也许会越来越少。
通过把人类大脑与人工大脑集成起来以保持人类的重要性这个想法很吸引人。有待观察的是在这里面人脑能作何贡献,尤其是在技术的发展节奏相对于人脑的进化速度是天壤之别的情况下。