可解释的AI系统为人工智能开启下一阶段,让算法解释决策过程
美国国防部的研究机构正在进行跨国合作解决广泛采用人工智能的最大障碍,即训练算法来向人类解释它们的决策。
30多所大学和私人机构的100名研究人员正在尝试打造“可解释的AI”系统,来讲复杂的算法决策转变成人类能够理解的语言。协调研究工作的是国防部高级研究计划署(DARPA),该机构被认为催生了诸多技术突破,包括互联网的发明。
DRAPA负责该项目的主管David Gunning表示,随着人工智能更加深入日常生活,解释复杂算法得出结论的过程变得越来越重要。有用的解释可以使人们深入了解算法的决策过程,建立起人与机器之间最大程度的信任度。
该项目也符合欧盟即将于2018年5月生效的《欧盟通用数据保护条例》(General Data Protection Regulation)。该条例规定,深受算法决策影响的人有权要求解释。
该项目获得了DARPA 7500万美元的资金支持,并已于5月份正式启动。目前该项目正处于研究重点领域的第一阶段。他们将在11月份向DARPA提交他们的初步研究结果。
第二阶段预计将持续两年半时间,每个机构都需要解决海军研究实验室推荐的两个“挑战问题”之一。第一个挑战是使用AI分类多媒体中的时间,第二个挑战是训练模拟自治系统来执行一系列任务。
最终的产品将会是机器学习技术和用户交互界面的结合物,可以让政府或企业用于打造自己的可解释AI系统。
DARPA项目的任务是深入深度学习的核心,打造一个强大但容易理解的人工智能。深度学习工具包括神经网络和尝试模拟人脑操作的软件。神经网络是由相互连接的人造神经元组成的,通过输入大量用于识别模式的训练数据进行学习。例如,通过查看数千或数百万张图像,该算法可以调整其神经元之间的连接,学习狗或者猫的特征。如果它掌握了这一模式,那就可以查看新的测试图像并正确识别。如果失败了,工程师可以添加更多的数据,或者修改神经网络的结构。
虽然这些系统可以以前所未有的准确性和速度得出结论,但我们对密集的计算网络如何达成特定结论的过程却不是很清楚。
麻省理工电子工程和计算机科学系教授Dirk Englund说:“基本上,你只能相信这个黑匣子。”
Charles River分析公司和布朗大学、麻省大学的研究人员正在建立一个可以解释AI工具如何分类人群活动的系统。该系统不仅仅是识别一个嫌疑人,而是会提供被算法分类为可疑特征的图像。这可以为标记嫌疑人提供证据理由。
Charles River分析公司的首席科学家James Tittle说:“神经网络也许一直都是对的,但是如果看上去发生了一些错误,我是无法向它表示质疑的。”
DARPA的技术遗产部分归功于它能够吸引世界各地的人才来解决未知问题。现在的互联网脱胎于1969年DARPA的一次演示,而Gunning领导的一个DARPA项目最终演变成了iPhone手机助手Siri。现在的AI研究最终也会演变成大型公司可以使用的可解释AI系统项目。
Gunning说,如果人类无法开发出一种可以理解机器原理的方法,那么在军方和企业环境中的深度学习部署可能会减缓甚至停滞。
“我认为这真的会发生,只是现在还没有实现而已,或者人们不相信自己能够使用它们。”