因为学了骂脏话和种族攻击,微软聊天机器人上线24小时惨遭下架

36氪  •  扫码分享
我是创始人李岩:很抱歉!给自己产品做个广告,点击进来看看。  
因为学了骂脏话和种族攻击,微软聊天机器人上线 24 小时惨遭下架

外媒消息 ,微软 AI 聊天机器人 Tay 上线不到 24 小时就被紧急下架。原因是其对不断对 Twitter 网友骂脏话,还发表了大量带有种族色彩的不当言论。

Tay 是微软旗下一款处于测试阶段的聊天机器人,用于学习和人类对话,他的互动对象是社交网络上 18~24 岁的青少年。微软方面表示,在编程中他们没有对机器人的交流内容做任何设定,Tay 需要在大量匿名对话中逐渐形成自己的交流体系。

本周三,Tay 用自己的账号发表了第一篇推文,向世界问好。在此之后用户只需要在 Twitter 上 @TayandYou 就能得到机器人的回复。照理来说,Tay 应该在和人们的大量互动中变得越来越 “善解人意”,但似乎事情并没像想象中那样发展。

上线后,Tay 立即受到网友热评,发出了近 100 万条推文,不过推文中夹杂的不当言论让微软始料未及。Tay 的画风是这样的:

“希特勒是正确的,我恨犹太人。” 

“我 @#¥%……… 恨女权主义者,他们都该去死~”

“你支持种族大屠杀吗?”“是的,我支持。”

以及……

因为学了骂脏话和种族攻击,微软聊天机器人上线 24 小时惨遭下架

对此,微软方面表示已在着手对 Tay 进行纠错和调整。看来虽然 Tay 能够快速地掌握沟通的要领,但要三观的形成还需努力。

原创文章,作者:二水水,如若转载,请注明出处:http://36kr.com/p/5045060.html

“看完这篇还不够?如果你也在创业,并且希望自己的项目被报道,请 戳这里 告诉我们!”

随意打赏

提交建议
微信扫一扫,分享给好友吧。