详解全球首份国家AI发展战略
人工智能成第二个“阿波罗登月计划”?详解全球首份国家AI发展战略
2016年10月,美国总统奥巴马在白宫前沿峰会上发布报告《国家人工智能研究和发展战略计划》(以下简称“计划”)。这项被奥巴马称美国新 “阿波罗登月计划”的规划,旨在运用联邦基金的资助不断深化对AI的认识和研究,从而使得该技术为社会提供更加积极的影响,减少其消极影响。
2015年,美国政府在 人工智能 (AI)相关技术方面的研发投入约为11亿美元。AI在制造、物流、金融、通信、交通运输、农业、销售、科技等领域得到了应用。此外,AI在提高教育机会、更好的改善人类生活质量、提高国土安全等方面具有积极的作用。
美国此次发布的“计划”是全球首份国家层面的AI发展战略计划,对于全球各国尤其是我国未来AI发展战略的制定具有重要的参考和借鉴意义。
“计划”主要包括下列七大战略:
-
AI研究的长期投资战略;(基础研究战略)
-
开发有效的人类与人工智能合作措施战略;(人机交互战略)
-
AI的伦理、法律和社会学研究战略;(社会学战略)
-
确保AI系统的安全战略;(安全战略)
-
开发适用于AI培训和测试的公共共享数据集和环境战略;(数据和环境战略)
-
通过标准和基准测量和评估AI技术战略;(标准战略)
-
更好的了解国家AI研发人力需求战略。(人力战略)
七大战略的具体关系可以用下图来展示(七大战略分别用数字1-7标明):
一、 AI研究的长期投资战略
AI的研究投入需要在有长期潜在回报的领域进行,同时这些有长期回报的领域伴随着高研发风险。以互联网和深度学习为例,在这两个案例中,对其基础的研究开始于20世纪60年代,经过30多年的研究努力,这些概念变成了在很多AI领域中运用的技术。在下列领域中AI技术将进行持续投入:
-
基于数据驱动的以知识开发为目的方法论
在发展机器学习算法中,可以运用大数据来识别所有有用信息。很多开放性问题都围绕着数据的创立和使用,包括AI系统学习中的精确性和恰当性。数据的精确性在处理大量数据时是很大的挑战,我们需要继续研究数据清洗技术(data cleaning techniques)以提高数据的利用效率,研发新的技术以发现数据中的矛盾和异常。此外,还需要研发新技术保证数据挖掘和与该数据相关联的元数据的挖掘同时进行。
-
增进AI系统的感知能力
感知是智能系统通往世界的窗户。感知开始于各种形式的传感数据(sensor data),感知系统需要从众多的传感器和包括云计算在内的其他来源中整合数据,从而来确定AI系统应该做出的反应及对未来的预测。在复杂多变的环境下,AI对目标的探测、分类、识别仍然面临挑战,感知进程的改进可以不断提高AI系统的认知准确性。
-
了解AI的理论能力和限制
AI算法的最终目标是可以挑战人类解决问题的能力,但是目前我们对于AI的理论能力和限制达到何种程度仍然没有很好的理解。我们缺乏对AI系统统一的理论模型或框架。我国需要同时研究现有的硬件,从而了解硬件是如何影响这些算法的。
-
开展广义的AI研究
AI可以划分为“狭义AI”和“广义AI”。狭义的AI系统只专注于完成某个特别设定的任务,例如语音识别、图像识别和翻译,也包括近年来出现的IBM的Watson和谷歌的AlphaGo,这些系统被称为“超级人类”,因为他们的表现可以打败人类。与“狭义AI”相对的是“广义AI”,这些AI体系包括了学习、语言、认知、推理、创造和计划。广义的AI目标是将一个领域内的知识运用到另外一个领域,同时可以与人类开展交互式学习。广义AI的目标还没有达成,需要我们进行长期的、持续性的努力和投入。
-
开发可拓展的AI系统
开发和使用多重AI系统对于计划、协调、控制方面带来很多研究性挑战。我们之前的研究集中于中心计划和协调技术,但是,这些方法存在不足。未来,多重的AI系统需要运行的足够快速从而适用不断变化的环境。未来应着力研发在计划、控制与合作方面更加有效、更具活力及可拓展的多重AI系统技术。
-
促进类人类AI的研究
类人类AI旨在让AI系统能够像人类一样解释自己从而使得人类明白。例如智能家教系统和智能助手可以帮助人们更好的完成任务。人类可以从有限的学习范例中学习知识,但是AI可以从数以千计的范例中不断学习和优化自己,从而达到超越人类的状态。未来在这方面还要不断研究新方法从而达到这一目标。
-
研发能力更强更可靠的机器人
机器人在人类的生活中应用广泛。目前,我们正研究如何更好的开展机器人与人类的合作。机器人技术可以更好模仿并提高人类的体能和智能。未来科学家还需要继续研究如何使机器人系统更可信和方便使用。同时,提高机器人的认知和推理能力,使其可以更好地进行自我评价,提高其处理复杂问题的能力,更好地与人类开展互信合作。
-
改善硬件提高AI性能
AI研究经常与软件研发相关,但是AI系统的性能很大程度上取决于其硬件的运行。提升AI系统硬件运行功能需要通过可控的方式关闭和打开数据通道。未来的研究需要使得机器学习算法可以有效的从大量的数据中进行有效的学习。基于机器学习反馈的方法可以使AI技术更好地进行数据取样和分析,运用在例如智能建筑和物联网等领域。
-
研发适用于先进硬件的AI
更先进的硬件可以提高AI系统的运行能力,同时更好的AI系统可以反过来提高硬件的性能。更好的AI算法可以通过提升多核系统的性能,这对于高性能计算(High Performance Computing,HPC)运行的提升尤为重要。
二、 开发有效的人类与人工智能合作措施战略
-
寻找具有人类感知的AI新算法
近年,AI算法已经可以解决越来越复杂的问题。人类可以感知的智能体系需要与用户进行互动从而开展人机互动。我们需要开发中断模式从而在合适的时候打断人类。AI体系需要具有提升人类认知的能力,在用户不能准确描述自身需求时,可以了解用户需求。未来的AI可以拥有情感智能,可以了解用户的情绪并作出恰当的反馈。另一个目标是建立“系统-系统”的互动即多个机器可以与多人同时进行互动。
-
开发增强人类能力的AI技术
人类增强研究包括算法在不同情形下的运用,例如在固定设备中、可穿戴设备中、植入设备中以及具体的用户环境中。以医学助手为例,人类增强意识可以帮助识别在手术中出现的微小错误或将之前的实验经验运用于用户的现有情况。另一个领域是在自主学习方面。目前的自主学习还仅仅是在人类的监督下进行的,未来的研究将会集中于在无人监督下的自主学习。
-
开发可视化和人类与AI交互界面技术
可视化 和用户界面必须以一种越来越清晰的并且可以被人类理解的方式呈现,这需要提供实时运行的结果和反馈。人类与AI的合作可以被广泛地运用于各个领域,例如人类和AI系统在太空中的远程交流,在交流过程中需要评估自主运行状态,其中的运行要求和限制是用户界面研发者需要研究的问题。
-
开发更加有效的语言处理系统
让人类与AI系统通过书面和口头的语言形式进行交流是AI研究者的一个长期研究目标。目前我们已经可以实现在安静的环境中AI对于流利英语的识别,但这只是第一步。AI目前还无法对在嘈杂的环境中的、有浓重口音的以及小孩的语言进行识别。未来我们需要将该系统应用在不同语言中,从而达到可以实现AI在实时状态下与人类的对话。
三、 AI的伦理、法律和社会学研究战略
该领域的主要研究目的在于了解AI技术的伦理、法律和社会意义。同时,研发新的方法来实现AI与人类预先设定的伦理、法律和社会准则相一致。隐私是需要考虑的重要因素,关于隐私方面的问题可以参见“国家隐私研究战略”(National Privacy Research Strategy)。
-
通过设计提高公平性、透明度和可责性
在AI系统设计时需要考虑本身的公平、合理、透明和可信赖性。研究者必须了解如何设计AI系统从而使得保证其决策的透明和容易被人类理解。
-
构建AI伦理
伦理问题本身是哲学问题。研究者需要研究出新的算法确保AI做出的决策与现有的法律、社会伦理一致,这是一项具有挑战性的任务。伦理难题需要首先解决的是如何将伦理难题准确的翻译为AI可以识别的语言。同时,当面临新的道德困境时,AI如何进行决策。伦理问题因各国文化、宗教和信仰等的不同而存在差别。我们需要构建一个可以被广泛接受的伦理框架来指导AI系统进行推理和决策。
-
设计AI伦理的架构
另外一项基础性的研究集中在如何在AI系统设计中包含伦理推理。在这方面我们尝试了多种方法。未来,AI伦理框架的构建,可能包括下属的多体系、多层次的判断,例如匹配规则的迅速回应、接收用户信任的社会信号、遵守文化准则等。研究者需要集中于如何描述和设计AI系统使其符合道德的、法律的和社会的目标。
四、 确保AI系统的安全战略
AI系统在全球性范围内投入使用之前,需要以可控的方式确保该系统的安全性。由于AI应用环境的复杂性和不确定性、突发行为的影响、执行目标的不明确性、人机交互等因素的影响,AI系统可能面临着重大的安全挑战。
-
提高可解释性和透明度
基于深度学习的许多算法对于使用者来说是不透明的。在很多领域例如健康护理,医生需要对于在治疗过程中的特殊治疗方法进行合理性解释。AI技术为很多决策提供了合理性解释但是不够准确。研究者需要研发更加透明的决策体系,从而为用户提供决策推理的合理解释。
-
建立互信
为了获取信任,AI系统的设计者需要建立用户友好型的交互式界面,同时确保AI系统的准确性和可信赖性。目前对于AI系统的一个重要挑战是软件制造技术品质的不一致性。随着人类与AI系统的联系越来越紧密,在该领域的互信挑战也面临越来大的挑战。
-
增强核实(verification)和验证(validation)
在AI体系的核实和验证方面需要建立新的方法。“核实”是确立一个满足形式要求的系统,“验证”是确立一个满足用户操作需求的系统。对于已经自动运行了一段时间的系统,系统设计者或许没有考虑到在各种环境中可能遇到的情况,因此需要系统拥有自我检测、自我诊断和自我修复的功能以确保其可信赖性。
-
对抗攻击的安全战略
AI体系为了应对各种事故,需要具备预防恶意网络攻击的措施。安全工程需要了解该体系的脆弱性以及有可能进行攻击的人。AI在网络安全体系中的运用需要高度的自治能力,这需要未来进一步的研究。
-
实现长期的AI安全和价值一致
AI系统最终的目的是实现“循环的自我提高”。软件的改进是通过软件自身修复完成的而非由人类完成的。为了达成这一目标,我们需要进一步研究可以用来检测人类设计的目标与AI系统行为是否一致的自我监测技术及使用者的目标等。
五、 开发适于AI培训和测试的公共共享的数据集和环境战略
-
为不同种类的AI兴趣及应用开发和制作种类广泛的数据集
完整和可利用的AI培训和测试数据集对于确保结果的可信赖性来说至关重要。机器学习领域的AI挑战经常与大数据分析相关。在现实世界中,数据集经常因其不一致性、不完整性而受到质疑。在建立AI应用的数据集之前需要一系列的数据预先处理技术,例如数据清洗、整合、转化、还原和展示。
-
使训练和测试资源能够对商业和公共利益做出回应
随着数据的不断增多,数据资源和信息技术都在不断增加。 数据分析 技术不能跟上原始信息资源的产生数量。虽然我们现在拥有数据存储器,但是仍然难以满足成比例增长的数据,我们需要建立动态的和灵敏的数据存储器。
-
开发开源软件库和工具集
不断增加的开源软件库和工具集为开发者提供了便捷的入口。例如Weka工具集、MALLET,和OpenNLP,它们都加速了AI技术的发展和应用。为了支持该领域的持续性创新,美国政府促进在研发、支持和使用开放AI技术方面的努力,尤其是使用开放格式或开放标准的开放资源。美国政府同样鼓励在政府内部更广泛的采用开放AI资源以降低创新者的准入门槛。政府应致力于将算法和软件纳入开放资源项目。同时,由于政府在某些领域有特别的关注,例如数据的隐私与安全。
六、 通过标准和基准测量和评估AI技术战略
标准、基准、测试平台是指导AI研发战略中的核心要素。具体来说应在以下几个方面做出努力:
-
开发范围广泛的AI标准
AI技术必须满足客观的标准从而保持其安全性和可信赖性。目前一项与AI相关的标准是P187202015(机器人与自动机器标准)。该标准提供了在现有的知识体系下系统性的标准条款和内容,为AI技术在机器人领域的应用提供了基础。此外,AI标准需要满足安全性、可用性、可追溯性、隐私保护等要求。
-
创建AI技术基准(benchmarks)
技术基准包括测试和评价,为标准的制定提供定量测量,同时评估标准的遵守情况。为了更有效的评估AI技术,相关的测试方法必须标准化。标准的测试方法应该描述AI技术评估、比较、管理的方法和程序,包括但不限于:准确性、复杂性、信任和能力、风险和不确定性、可解释性、与人类行为的比较以及经济影响等。
-
增加AI测试平台(testbeds)的可用性
测试平台对于研究者至关重要,因为研究者可以利用实际的研究数据在真实的世界中进行建模和实验。在AI的所有领域中都需要有足够多的测试平台。例如政府有大量的敏感数据,这些数据不能对研究机构之外的机构公开。我们可以为科研人员在安全的测试平台中创设合适的项目进行相关的测试。这些AI的实验数据和实验方法仅对AI科学家、工程师和学生在测试场景下公开。
-
组建AI标准和基准共同体(community)
AI共同体由使用者、产业人员、学术人员和政府人员组成,这些人员需要参与AI标准和基准制定的项目。基于共同体发起的基准可以通过提供测试数据来降低准入门槛、强化激励,促进技术开发商之间的良性竞争。
七、 更好的了解国家AI研发人力需求战略
在研发领域拥有强大实力的国家在未来的发展中也必将占据领先地位,而技术专家在其中发挥着重要作用。虽然现在还没有AI研发人员的数据,但是根据商业和学术机构的报告显示AI领域的专业人才存在不断增长性的缺口。高科技公司不断增加雇佣AI方面人才的投入。大学和研究机构也在不断招募AI方面的专业人才。未来我们需要更好的了解国家AI研发人才的需求数据,包括科研机构、政府和产业方面的需求。我们需要对AI人才的供应和需求量做出测算,从而可以帮助预测未来的人力需求,并制定合理的计划。
孙 那
腾讯研究院研究员、腾讯公司与中国社科院联合培养博士后
责任编辑:陈卓阳