您当前的位置: 首页 > 新闻 > 其他

被迫下线的微软聊天机器人Tay犯了什么错?

来源: 编辑:vbeiyou 时间:2017-06-30 05:29 人阅读
如今,  聊天机器人已渐渐被人们所熟悉,它可以像朋友一样来沟通交流,像百科全书一样来为人们答疑解惑,像小管家一样陪伴照料老人小孩……而微软推出的聊天机器人Tay却是命途多舛,上线短短一天就被迫下线,这究竟是为什么呢? 被迫下线的微软聊天机器人Tay犯了什么错?(图1) 微软最初设定 Tay 是一个年龄19岁的少女,具有一些幽默机制,适合和18至24岁的用户聊天。可万万没有想到的是,Tay在 Twitter 上线没几天就“误入歧途”甚至出现偏激言论,而这正是源自一些不良网民利用人工智能系统的漏洞而进行的一场恶搞。 微软表示,在设计Tay的时候就有考虑到可能会被网友影响的问题,因此还特意为Tay设置了反制功能,当用户的用语出现粗俗字眼时,Tay会强制反制避免不健康话题的延续。 而此次这个学习漏洞在于「repeat after me」机制,只要对 Tay 提到这句话,Tay 就会将对方的话进行重复,因此不管是何种偏激的种族主义语言,都会被 Tay 进行重复,而这个状况在滚雪球一样大量出现在在 Tay 的 Twitter 上,由于偏激言论不断出现,最终导致微软关闭了 Tay 。 微软原本想研发一款能言善辩且具备一定学习能力的聊天机器人,没想到恰恰在学习环节出了问题。不得不说,当人们在大肆宣扬聊天机器人带给人们的便利时,也要十分警惕其存在的威胁,到目前微软还没有给出Tay的复出时间,看来这次要好好修补bug了。

本站所有文章、数据、图片均来自互联网,一切版权均归源网站或源作者所有。

如果侵犯了你的权益请来信告知我们删除。邮箱:business@qudong.com

标签: 微软