当AI遇上AI,他们会合作共赢,还是互不相让?Google为此做了一个有趣的研究
未来,人类社会的诸多方面都可能会由人工智能控制。人工智能计算机代理程式能够管理各种系统,小到交通信号灯,大到整个国家的经济。抛开它们能否胜任自己的工作不谈,现在我们面临着另一个挑战,即这些代理程式之间能够友好相处吗?如果某款人工智能产品的目标与另一款产品的目标相左,那会出现什么样的情况呢?它们是激烈争斗还是相互合作?
近日,谷歌旗下的人工智能子公司DeepMind公布了一项全新研究,对那些处于“社交困境”中的人工智能代理程式进行测试,看它们之间到底如何互动。在这种情况下,个体的自私并不会带来好处,而是会导致全体受损。其中最著名的例子就是囚徒困境,当同伙中只有一人选择背叛时,他或许有希望减刑。可一旦二人都选择说假话,那后果就是一起接受更严重的惩罚。
DeepMind在一篇博客中表示,公司的研究人员通过将人工智能代理程式放进两款视频游戏中,来观察它们如何应对这些“困境”。
在第一款叫做Gathering的游戏中,游戏双方需要从一大堆苹果中收集苹果,看谁收集的多。玩家可以选择用激光束“标记(tagging)”对方,暂时被对方从游戏中踢飞,从而让自己有机会收集更多苹果。
在第二款叫做Wolfpack的游戏中,游戏双方需要在一个布满障碍的环境中追捕猎物。在成果捕获之后,不仅捕获的玩家能够得分,当时在猎物附近的玩家都可以得分。
由此,研究人员得出了一个非常有趣的结论,那就是人工智能代理程式会根据不同的情境,相应地改变自己的行为,可能达成合作,也可能互相斗争。
举个例子,在第一款游戏中,如果苹果数量较多的话,玩家就不会急着用激光束把对方杀死。但当苹果数量较少时,它就会改变策略,选择攻击对方。最有趣的是,如果换成计算能力更强的代理程式,那么不管苹果数量有多少,它都会选择先将对方消灭掉。换句话说,不管是什么样的情况,聪明一点的人工智能总是会选择斗争和侵略,而不是合作。
那照这么说,人工智能代理程式最好的战略选择就是斗争?其实,也不一定。研究人员推测,较为聪明的玩家之所以会选择跟踪并杀死对方,应该只是因为这个行为需要更强的计算能力作为支持,而它们又恰好拥有这种优势。当然了,如果它们提前知道合作的效果会更好,那也许就会选择合作了。
相反,在第二款游戏中,聪明一点的人工智能代理程式,更倾向于与其他玩家进行合作。至于原因,研究人员是这样解释的:学着与对方合作,以跟踪并捕获猎物,需要更强的计算能力。
所以,研究结果表明,人工智能代理程式的行为,会根据具体的游戏规则发生改变。如果这些规则潜意识中鼓励斗争行为,比如只有杀死对方才能拿到更多苹果,那么人工智能代理程式就会采取斗争战略;而如果这些规则潜意识中鼓励友好合作,比如只有合作才能得分,那么人工智能代理程式就会采取合作战略。
这也就意味着,将来我们如果想控制人工智能代理程式的话,就一定要确保设置合理的规则。公司的研究人员在其博客中总结道:“有了这次研究,我们或许能够更好地理解和控制复杂的多代理程式系统,比如国家经济、交通系统,以及整个地球的生态系统健康问题,认识到持续不断的合作才是唯一可行的出路。”
小程序搜索难?猎云网精品小推荐正式上线,你想要的都在这里: xiao.lieyunwang.com
270549