超级智能该如何监管?全球最红AI公司OpenAI这么说
北京时间5月23日消息,ChatGPT开发商OpenAI CEO萨姆·阿尔特曼(Sam Altman)上周在美国国会作证时坦言,人工智能(AI)会对世界造成重大伤害,并呼吁加强AI监管。
OpenAI CEO阿尔特曼
美国当地时间周一,阿尔特曼联合OpenAI总裁格雷格·布罗克曼(Greg Brockman)、首席科学家伊尔亚·苏茨克维(Ilya Sutskever)在OpenAI官方博客上发布了《超级智能的治理》的文章,详细阐述了他们的监管提议。
以下是文章全文:
鉴于我们现在所看到的情况,可以想象的是,未来十年内,AI系统将在大多数领域超过专家的技能水平,并能够开展与当今最大公司之一一样多的生产活动。
OpenAI博文《超级智能的治理》
就潜在的优势和劣势而言,超级智能将比人类过去不得不与之抗衡的其他技术更强大。我们可以拥有一个明显繁荣得多的未来,但我们必须控制风险才能实现这一目标。鉴于我们面临潜在生存风险,我们不能只是被动应对。核能是一个常用的历史例子,它具有这种特性。合成生物学是另一个例子。
我们也必须减轻当今AI技术的风险,但超级智能将需要特殊的对待和协调。
三个理念
对于我们来说,有许多重要理念能够帮助我们更好地把握这一发展方向。在这里,我们列出了我们对其中三个理念的初步想法。
首先,我们需要在领先的开发项目之间进行一定程度的协调,以确保超级智能的发展以一种既能维护安全又能帮助这些系统与社会顺利整合的方式进行。有很多方法可以实现这一点:世界各地的主要政府可以建立一个项目,让许多当前努力成为其中的一部分,或者我们可以集体商定(在一个新组织的支持下,就像下面建议的那样),将前沿AI能力的增长速度限制在每年一定比例上。
当然,个别公司应该被要求以极高负责任的标准行事。
其次,我们很可能最终需要像国际原子能机构(IAEA)这样的机构来开展超级智能工作。任何超过一定能力(或算力等资源)阈值的工作都需要服从于国际权威机构,该机构可以检查系统,要求审计,测试以确定项目是否符合安全标准,对部署程度和安全级别进行限制等等。跟踪计算和能源使用可能会有很长的路要走,但它给了我们一些希望,相信这个想法实际上是可以执行的。作为第一步,企业可以自愿同意开始实施该机构某一天可能要求的要素;第二步,个别国家可以实施。重要的是,这样一个机构应该把重点放在降低生存风险上,而不是那些留给各个国家的问题上,比如定义AI应该被允许说什么。
第三,我们需要让超级智能安全的技术能力。这是一个开放的研究问题,我们和其他人都投入了大量的精力。
一般AI不应受监管
在这个范围之外,我们认为允许企业和开源项目开发低于重大能力阈值的模型是很重要的,它不需要像我们在这里描述的那种监管(包括像许可证或审计这样繁重的机制)。
如今的系统在世界上创造了巨大的价值,虽然它们确实存在风险,但这些风险的程度与其他 互联网 技术和社会上可能采取的方法相当。
相比之下,我们所关注的是超级智能系统,它拥有比目前所创造的任何技术都强大的能力。我们应该小心,不要把类似的标准应用到远远低于这个标准的技术上,从而淡化对超级智能的关注。
公众意见及潜力
但是,对于最强大系统的治理,以及关于其部署的决策,必须有强有力的公众监督。我们相信,世界各地的人们应该民主地决定AI系统的界限和默认设置。我们还不知道如何设计这样一个机制,但我们计划对这一发展进行试验。我们仍然认为,在这些广泛的界限内,个人用户应该对他们所使用AI的行为有很大的控制权。
考虑到这些风险和困难,我们有必要考虑一下为什么要开发这项技术。
在OpenAI,我们有两个基本原因。首先,我们相信它会带来一个比我们今天所能想象的更好的世界(我们已经在教育、创造性工作和个人生产力等领域看到了早期的例子)。世界面临着许多问题,我们需要更多的帮助来解决这些问题。这项技术可以改善我们的社会,每个人使用这些新工具的创造能力肯定会让我们大吃一惊。 经济 增长和生活质量的提高将是惊人的。
其次,我们相信,阻止超级智能的创造具有令人难以置信的风险,也是困难的。因为好处是如此巨大,构建它的成本每年都在下降,构建它的参与者的数量正在迅速增加,这是我们所走的技术道路的固有组成部分。阻止它的发展,需要类似全球监督制度这样的体制,但即使如此也不能保证成功。因此,我们必须确保正确处理这一问题。
【来源: 凤凰网 科技 】