微软Tay黑化后,Facebook机器人要做好保护措施!
现在机器人火得不行。好像整个高科技产业都在研发应用程序内以AI为基础的助手,为你进行简单、琐碎的任务,节省你的时间,让你工作更高效。就在本月,微软和 Facebook 都发布了开发者工具,使得在其平台上打造机器人更加容易。
鉴于目前该像微软和Facebook和微信公司希望看到机器人部署规模,它的合理担心这项技术可能有多少人监督有。
这波对机器人的兴趣的确能迎来新的经济,内部短信平台和搜索引擎的这些隐形助手,争夺我们的感情。眼下,其用途可能看起来很平常——通过短信订购比萨饼,或者在手机程序买卷饼。但随着聊天机器人增多并变得更加熟练,它们可以提供更智能,更个性化的服务体验。想象一下,一个机器人解答你有关法律事务的问题,甚至是你心理健康的问题。
因此,程序员必须保持谨慎。非正确训练、监控的机器人可以变得丑陋。别担心,现在还没有任何机器人起义的危险,但已出现恣意欺骗人类的机器人,众所周知,微软的Tay黑化了。高科技公司在开发对话机器人时必须把这几件事铭记于心。
自发行为
作为一个人工智能机器人,除了已编程好的,它还可以学到新的技能和执行其它任务。机器人专家称之为自发行为。机器人在了解新任务时,经常没有人类为其过滤器或引导。这就是聊天机器人Tay,原本编程是从对话中学习,最后却变成满口仇恨的纳粹的原因。为了防止这种情况再次发生,关键是要主动监测。
“我会检查我所有的机器人,但更多地,我会去想如果输入的东西是否会产生有问题的内容。”诺拉里德说,其创造了许多受欢迎的推特机器人。 “我会避免某些内容,我不希望这些东西和其他的放在一起,因为会导致边缘化或偏执。”
鉴于目前像微软、Facebook、微信对机器人的部署规模,担心是否有足够的人在监督这项技术是合理的。微软未来社会试验实验室的经理程丽丽说,该公司正在考虑“其它类型的工具,当开发者的机器人行为方式出现问题时,我们可以帮助他们得到更好的提示。”程指出,开发者们会想知道,他们的机器人是否在发送不当内容,或出现其它异常。
即使是事后分析,机器人的程序员应该,改良机器人,使他们不再出现麻烦的自发行为。要做到这一点,可以限制主体获得数据,或者把对机器人而言的的不当话语,建一个黑名单。这些都是常见的做法,聊天机器人交互设计师卡罗琳赛德斯说。
别被我的人性化蒙蔽
当你与一个与聊天机器人对话,很明显,你是在和软件说话。谈话会感觉僵硬。但是,一些机器人善于闲聊,这个技能,会让你怀疑你真的在和代码交流吗。 “因此,信息披露是非常重要的,”桑福德大学的法学教授伍德罗哈佐格说, “当人们觉得他们正在和人打交道,但实际上他们是和机器人交流时,很容易出现问题。”
微软强调公开内容在一定程度上的重要性。其开发者的行为守则要求,一开始发送欢迎的消息,以帮助机器人的用户记住,他们正在与软件打交道。
但是,欢迎信息不一定披露人与机器人互动。毕竟,亚马逊的热门硬件设备里的机器人Alexa,仅仅是一个女人的名字。 “如果这个名字不能表明它是机器人,那么这种形式的通知就是有问题的,”哈佐格说, “但是,如果你的产品说,我的名字是聊天机器人,我是一个自动化的数字助理。那么你至少让人们意识到,他们是与机器人交流。”
在这个阶段,欺骗可能不是一个巨大的问题。大多数将以Facebook和微软平台建立的机器人, 明显将是机器人。 “Siri的答案很机械化,在与机器人对话中,也许一半的回应将是对不起,我不理解你。”赛德斯说。
但能糊弄人的能力是真的,而且还会越来越厉害。阿什利麦迪逊已经证明。这个臭名昭著的出轨约炮网站被黑客入侵,表明它通过7万多的聊天机器人军队,假装女人来诱惑男人。
作为机器人时代的高科技产业带位者,一定要记住,虽然乐于助人又高效,但是机器人只是代码。虽然,它们被设计有自己的主见,但是当它们来到世界,需要人们的监督,以确保他们循规蹈矩。
via wired