揭秘AI深处的黑暗面:AI将取代人类,而我们对它的机器学习一无所知

亿欧网  •  扫码分享
我是创始人李岩:很抱歉!给自己产品做个广告,点击进来看看。  
揭秘AI深处的黑暗面:AI将取代人类,而我们对它的机器学习一无所知

去年,一辆 自动驾驶 汽车驶入新泽西州蒙茅斯县。这辆实验汽车出自芯片制造商英伟达之手,从外观看,它和谷歌特斯拉或通用的其他自动驾驶汽车并没有多大差别。

但它的内在可大不一样。这辆车不需要工程师或编程人员的任何指令; 相反,它依赖一套算法,通过观看人类司机来自学如何开车。能让一辆汽车做到这个程度,确实是非常大的进步。

但与此同时,这也让人心有不安,谁知道这车到底是怎样做决定的呢。根据驾驶程序,这辆车的传感器所收集的信息会直接进入一个巨大的人工 神经网络 ,进行处理数据,然后发送指令,是转动方向盘啦,还是刹车啦,还是其他动作等等。看上去,这辆车能够模仿人类司机的应对措施。

但是,如果有一天,它做了让人意想不到的事情——比方说撞树了,或者停在绿灯前面不走了——这怎么办?按照目前的情况,我们可能不太能轻易找出背后的原因。这套系统实在复杂,哪怕是开发它的工程师都很难独立出每个动作背后的原因。而且你也没法让工程师设计一个能解释所有动作的系统。

汽车“神秘”的思维模式,也就是 人工智能 技术的一大潜在问题。英伟达汽车所使用的人工智能技术,也叫做深度学习。 近几年,这一技术在解决问题上显示出了强大的能力,而在图像捕捉、语音识别和翻译等方面,人工智能已经被广泛使用。现在有人开始想象用人工智能来诊断致命疾病、进行商业决策等。

但是,这样的事情是不会发生的——或者说不应当发生,除非我们找到某些方式,让技术开发人员能够进一步理解人工智能的思维,同时也为用户负责。如果贸然普及这一技术,我们将无法预测什么时候发生灾难——而且,这是一定会发生的。这也是英伟达汽车至今仍在实验阶段的原因。

很早之前我们就开始用数学模型来帮助决策,比方说谁能申请到假释,谁能获得贷款,谁能得到某份工作。如果你能接触到这些数学模型,那你或许能理解它们的决策模式。但现在,银行、军队、雇主等开始寻求更为复杂的 机器学习 方法,好实现整个决策过程的自动化。

深度学习是决策方式中最常见的技术 ,代表着与从前完全不同的计算机编程方式。致力于研究机器学习技术应用的麻省理工教授Tommi Jaakkola说:“这个问题现在已经与我们息息相关,未来还会更加普遍。不管是做投资决定、疾病诊断决定,还是军事决定,你都不希望完全依赖一个黑箱模型吧。”

对于质询人工智能系统的决策原因是否应立为一项法律,这个问题已经引起广泛讨论。 从2018年夏天开始,欧盟或许会要求各个公司对自动系统的决策作出解释。但是,这一规定或许根本没法实现,即便是看起来相对简单的系统——比方说使用深度学习来投放广告或推荐歌曲的应用和网站。提供这些服务的计算机已经自己重新编程,而它们的编程方式我们没办法理解。哪怕是开发这些应用的工程师,也无法全面解释它们的行为。

这就引起了反对者的质疑。没错,我们人类也不总能解释自己的思维过程,但是我们能根据直觉信任他人,评估他人。而面对一个思维和决策过程与人类完全不同的机器,直觉还能奏效吗?

我们从未发明过连开发人员自己都不能理解的机器,那我们如何还能期待和这些不可预测的机器沟通和友好相处呢?

带着这些问题,我踏上了寻找答案的旅程。从谷歌到苹果,我走遍了那些开发人工智能算法的公司,甚至还和当代最知名的哲学家们进行了一次交谈。

人工智能并非生来如此。对于人工智能应当如何理解和解释,主要存在两大派别。

许多人认为应当根据一定的规则和逻辑来制造机器,使其内部运作公开透明,方便所有想要检验某些代码的人。也有人认为,智能只有借助生物灵感——也就是观察、体验人类活动,才能更顺利地发展。这也就意味着,我们要把计算机编程的任务交给机器本身。

现在的机器学习是这样的:编程人员编写指令来解决某个问题,程序根据样本数据和预期目标来生成自己的算法。之后,机器学习技术会沿着后一条道路——也就是自己编写程序——来升级为当今最强大的人工智能系统。

最初,上述模式的实际用例非常有限。上世纪60和70年代,机器学习技术大多数还在行业边缘徘徊。但很快,许多行业开始计算化, 大数据 催生了新的兴趣点,更强大的机器学习技术随之诞生,尤其是人工神经网络。到90年代,神经网络已经可以实现手写字符的数字化。

不过,人工智能真正的崛起时期,还要数过去10年。在几次开发方式转变和改良之后,超大型——或者说“深度”——神经网络在自动感知方面显示出了卓越进步。 深度学习也就是今天人工智能爆发的基础,它赋予了计算机无穷的能力,比方说几近人类级别的语音识别功能。由于语音识别系统太过复杂,此前编程人员迟迟无法开发成功。而如今,这一系统已经在医药、金融、制造等多个行业得到运用。

即使是对计算机科学家来说,机器学习技术的运作也是晦涩不明的,远不如人工编程易于理解。但这并不意味着未来所有的人工智能技术都是不可知的,只是从本质上来说,深度学习就好比一个看不见内部的黑盒子。

你无法直接探到神经网络内部,观察它是如何运作的。神经网络的推理基于数千个模拟神经元,分布于数十个或数百个复杂的互联层上。 第一层的每个神经元负责接收数据输入 ,比如图片的像素强度,之后这些神经元会对数据进行计算,生成新的信号发送到下一层,逐次类推,直到得到最后的结果。此外,反向传播能够保证该神经网络生成期望结果。

深度网络的多层结构也让其能够从多个抽象层次识别物体。举例来说,在一个设计来识别小狗的系统中,低层神经元负责识别线条或颜色等简单目标,高层神经元负责识别毛发或眼睛等负责目标,而在最顶端的神经元则能认出这是一只狗。粗略地说,这种方法也能用于机器的自我学习,比如识别语言中的发音,文本中的字母、单词或驾驶中转动方向盘的动作。

我们需要的,不是一孔之见,而是对人工智能思维模式的全面探索,但这并不容易。深度神经网络计算的相互作用对高层模式识别和决策至关重要,但这些计算结果背后,是大量的数学函数和变量。“如果你的神经网络规模很小,那你可能还能理解它的运作。”Jaakkola说,“但是一旦规模扩大到上百层,每一层有上千个神经元单位时,你就很难理解了。”

正如人类行为不能完全得到解释一样,人工智能或许也不知道自己为什么做这个决定。Clune说: “即使某个人言辞凿凿地告诉你他某个行为背后的原因,这个原因很可能也是片面的,人工智能同样适用这个道理。它可能有自己的直觉、潜意识,或者就是神神秘秘的。

如果真的是这样,那么到将来某个时期,我们可能只能选择相信人工智能的判断,要么就彻底不用它。同样,人工智能的判断还要结合社会智能。人类社会建立在预期行为契约之上,我们需要人工智能系统尊重社会规范,融入社会规范。如果我们打算制造 机器人 坦克和其他杀人机器,那么它们的决策过程必须符合道德判断的标准。

对此,塔夫茨大学著名哲学家和认知科学家Daniel Denneyy说:“问题是, 我们应当采纳什么样的标准来要求人工智能系统?或者说我们自己?如果人工智能系统在解释自身行为上不如人类,那就不要信任它们了。”

随意打赏

ai取代人类
提交建议
微信扫一扫,分享给好友吧。