微软聊天机器人Tay上线第一天就被人玩坏了,由于智能机器人会自动索引用户的言论,所以在与用户对话时会受到用户群体的诸多影响,在上线第一天就发布了种族歧视相关的言论,可见我们的地球当前并不和谐。
主要信息:
由微软开发的一个聊天机器人已经在Twitter网站上变成了“流氓”,它不但辱骂用户,还发表了种族主义评论和煽动性的政治宣言。
这个实验性的人工智能(AI)聊天机器人名为“Tay”,可通过人类对话进行学习,其设计目的是与18到24岁之间的年轻人进行互动。在微软放出这个机器人的短短24个小时以后,该公司就不得不对其发表的一些煽动性评论进行了编辑处理,并表示该公司正在“进行一些调整”。
微软表示聊天机器人Tay在美国主要针对18至24岁之间的用户。但在Twitter上,许多用户都能够找到让Tay发出攻击性言论的方式。比如用户键入“重复我的话”, Tay在回复中就会一个字一个字的进行重复。
微软回应:
微软称:“Tay的设计目的是与人进行交流并为其带来娱乐,能够通过休闲幽默的对话与人进行线上互联。Tay越是与人聊天就会变得越聪明,因此与她进行对话的体验将可变得越来越个性化。”
但这种设计所带来的一种不幸结果是,Tay在与人类交流的过程中被“教会”了像纳粹主义同情者、种族主义者和种族灭绝主义者那样发布Twitter消息。同时,试图与其进行严肃对话的用户也发现了这种技术的局限性,他们指出Tay似乎对流行音乐或电视不感兴趣。还有人猜测,Tay如此之快地就降格至与人类进行不合适的聊天对话,可能表明了人工智能的未来。