微软的聊天机器人Tay,为何仅上线一天就被迫下线?

我是创始人李岩:很抱歉!给自己产品做个广告,点击进来看看。  

微软推出的人工智能聊天机器人「Tay」,在上线短短一天之后就被迫下线。外界不禁好奇,究竟微软这个设定为少女的 AI 人工智能聊天机器人,究竟是怎么被网友影响,继而出现一些偏激言论的?根据最新的报导指出,Tay 之所为会被网友影响,源自于一些偏激分子通过这个人工智能系统的漏洞,让 Tay 「误入歧途」。

微软最初设定 Tay 是一个年龄19岁的少女,具有一些幽默机制,适合和18至24岁的用户聊天,在 Twitter 上线没几天,就瞬间吸引了大量粉丝。

由于 Tay 的设计可以针对用户的推文或者图片进行分析和回应,因此,可以毫无障碍的和网友进行互动,此外,Tay 之所以是人工智能系统,就是其具备一定的学习能力,来提升自己的聊天技巧。但是,正是这个自我学习能力导致 Tay 出现了问题,继而出现了一些偏激言论,被迫下线。

微软指出,在最初设计 Tay 的时候,其实就有考虑到可能会被网友影响,导致被带坏的问题,因此,在用户的语句出现粗俗字眼时,Tay 会强制出现反制功能,避免受到这些对话的影响,同时,也避免了不健康话题的延续。

Tay 本身有语言过滤能力

而这次造成 Tay 语言失当的关键,是关于一个名为「4chan」的美国论坛,该论坛上有许多偏激网友聚集,其中不乏种族主义者,由于该论坛的网友发现了 Tay 的学习漏洞,因此开始有大量网友前往 Tay 的 Twitter 进行对话,来试图「教育」这个聊天机器人。

这个学习漏洞的关键在于「repeat after me」机制,只要对 Tay 提到这句话,Tay 就会将对方的话进行重复,因此不管是何种偏激的种族主义语言,都会被 Tay 进行重复。

Tay 会重复网友的对话内容

而另外一个漏洞,就是 Tay 会将网友的图片中的脸孔圈起来,并且搭配上相同意思的语句,包括美国总统候选人川普等等都成为网友把玩的影像。这个状况就像滚雪球一样大量出现在 Tay 的 Twitter 上,由于偏激言论不断出现,最终导致微软关闭了 Tay 。

Tay 可以结合图片和文字的功能,也被网友拿来恶搞

相对于 Tay,微软推出的其它聊天机器人,比如微软小冰,就没有发生过像 Tay 上线后出现的状况,目前微软仍然在调整 Tay 的运作机制,暂时还无法给出这个聊天机器人复出的时间。

其实 Tay 和人一样,只是她学习的速度可要比人类快的多了,所以学坏也很容易,关键就要看微软这个「家长」怎么去调教了。

想了解更多关于苹果设备的使用知识与技巧以及查询保修,可以关注我的微信公众号:cxkj-001(果粉俱乐部)。

随意打赏

提交建议
微信扫一扫,分享给好友吧。