西西软件园多重安全检测下载网站、值得信赖的软件下载站!
软件
软件
文章
搜索

首页业内动态 业内资讯 → 微软聊天机器人被教坏了 聊天机器人Tay发种族歧视言论

微软聊天机器人被教坏了 聊天机器人Tay发种族歧视言论

相关软件相关文章发表评论 来源:西西整理时间:2016/3/25 10:16:07字体大小:A-A+

作者:西西点击:184次评论:0次标签: 微软AI聊天机器人Tay

  • 类型:聊天其它大小:1KB语言:中文 评分:10.0
  • 标签:
立即下载

微软聊天机器人Tay上线第一天就被人玩坏了,由于智能机器人会自动索引用户的言论,所以在与用户对话时会受到用户群体的诸多影响,在上线第一天就发布了种族歧视相关的言论,可见我们的地球当前并不和谐。

主要信息:

由微软开发的一个聊天机器人已经在Twitter网站上变成了“流氓”,它不但辱骂用户,还发表了种族主义评论和煽动性的政治宣言。

这个实验性的人工智能(AI)聊天机器人名为“Tay”,可通过人类对话进行学习,其设计目的是与18到24岁之间的年轻人进行互动。在微软放出这个机器人的短短24个小时以后,该公司就不得不对其发表的一些煽动性评论进行了编辑处理,并表示该公司正在“进行一些调整”。

微软表示聊天机器人Tay在美国主要针对18至24岁之间的用户。但在Twitter上,许多用户都能够找到让Tay发出攻击性言论的方式。比如用户键入“重复我的话”, Tay在回复中就会一个字一个字的进行重复。

微软回应:

微软称:“Tay的设计目的是与人进行交流并为其带来娱乐,能够通过休闲幽默的对话与人进行线上互联。Tay越是与人聊天就会变得越聪明,因此与她进行对话的体验将可变得越来越个性化。”

但这种设计所带来的一种不幸结果是,Tay在与人类交流的过程中被“教会”了像纳粹主义同情者、种族主义者和种族灭绝主义者那样发布Twitter消息。同时,试图与其进行严肃对话的用户也发现了这种技术的局限性,他们指出Tay似乎对流行音乐或电视不感兴趣。还有人猜测,Tay如此之快地就降格至与人类进行不合适的聊天对话,可能表明了人工智能的未来。

    聊天女仆类似的软件
    (21)聊天女仆类似的软件
    聊天女仆类似的软件有哪些呢?聊天女仆是AI聊天软件,能够帮助用户打发无聊的时间,随时随地可以进行聊天,每位用户都有专属的女仆,会多国语言,能够正常进行交谈,还可以自由选择性格和形象,小编特意为大家收集了聊天女仆类似的软件,用户可以自由选择合适的一款进行下载使用哦!...更多>>

    相关评论

    阅读本文后您有什么感想? 已有人给出评价!

    • 8 喜欢喜欢
    • 3 顶
    • 1 难过难过
    • 5 囧
    • 3 围观围观
    • 2 无聊无聊

    热门评论

    最新评论

    发表评论 查看所有评论(0)

    昵称:
    表情: 高兴 可 汗 我不要 害羞 好 下下下 送花 屎 亲亲
    字数: 0/500 (您的评论需要经过审核才能显示)