时间:2017-06-30 来源:互联网 浏览量:
微软最初设定 Tay 是一个年龄19岁的少女,具有一些幽默机制,适合和18至24岁的用户聊天。可万万没有想到的是,Tay在 Twitter 上线没几天就“误入歧途”甚至出现偏激言论,而这正是源自一些不良网民利用人工智能系统的漏洞而进行的一场恶搞。
微软表示,在设计Tay的时候就有考虑到可能会被网友影响的问题,因此还特意为Tay设置了反制功能,当用户的用语出现粗俗字眼时,Tay会强制反制避免不健康话题的延续。
而此次这个学习漏洞在于「repeatafter me」机制,只要对 Tay 提到这句话,Tay 就会将对方的话进行重复,因此不管是何种偏激的种族主义语言,都会被 Tay 进行重复,而这个状况在滚雪球一样大量出现在在 Tay 的 Twitter 上,由于偏激言论不断出现,最终导致微软关闭了 Tay 。
微软原本想研发一款能言善辩且具备一定学习能力的聊天机器人,没想到恰恰在学习环节出了问题。不得不说,当人们在大肆宣扬聊天机器人带给人们的便利时,也要十分警惕其存在的威胁,到目前微软还没有给出Tay的复出时间,看来这次要好好修补bug了。