ARP联盟图文中心下载中心手机频道最近更新软件最近更新文章网络热点
您当前的位置→图文中心新闻资讯探索发现微软的AI「聊天机器人」在网络上恐吓用户后必须被强行关闭
站内搜索:

微软的AI「聊天机器人」在网络上恐吓用户后必须被强行关闭


2016/3/30  编辑:admin 来源:本站整理 

当人工智能走向歧途,可能真的会上演「天网(魔鬼终结者)」的情节。微软在社群媒体推出自制的聊天机器人Tay,可以在与网络用户的互动中学习,不幸的是,机器人学到了一些很坏的习惯。



机器人的制造者说:「Tay是微软研究院与Bing团队开发用来体验、进行对话理解研究的机器人。Tay的工作是在网络上与用户聊天交流,取悦大众,Tay与使用者聊得越多,就会变得越聪明,越贴近使用者的个性。」

他们邀请社群媒体爱好者来分享笑话或故事给Tay,或是与她玩游戏,这些动作都可以帮助她学习。

不论对Tay的智力抱持怀疑的人怎么想,但她一开始的确是个好机器人,比较像艾萨克艾西莫夫,而不是像「魔鬼终结者」。她一开始的贴文内容是像「我可以说我「超级兴奋」与你见面吗?人类真是超「超级酷」。」

然而过没几天,Tay开始说出「希特勒是对的」配上一些带有种族歧视的言语,在这些言语出现前不久,她也曾经针对她的性别(制造者定义为女性)说过「我恨女权主义者,这些人应该死光光。」并且对杰出女性表现出仇恨。

这些是编辑团队拼命试着让Tay保持发言得体所释出的留言,谁知道还有哪些不适当的发言被隐藏。在Tay从网络下架之后,微软说Buzzfeed允许对留言进行「调整」。发言人说Tay「是个用来进行社会文化实验的技术」。微软的AI「聊天机器人」在网络上恐吓用户后必须被强行关闭_arp联盟

微软起初宣布「Tay的目标对象是18至24岁的美国人。」这个年龄族群的种族歧视者比老一辈的人少(可惜的是还是不少),但Tay似乎落入了一群坏人之中,这群人想要有组织性地将Tay调教成「为邪恶发声的传播者」。

我们现在还没有那种阅读、信仰种族主义文本或种族大屠杀网站的机器人,而是一些具有攻击性的人利用Tay的设计缺点来灌输邪恶的观念。如果送给Tay的句子里包括「跟着我重复一次」,无论后面的句子内容是什么,Tay都会跟着重复一次。再加上她并没有搭载可以将偏执、淫秽或辱骂内容过滤的功能,会有这种结果是不可避免的。这次智能设计会失败是因为制造者没有预料到会发生这种情况。

参考消息:http://www.arpun.com/虽然Tay在不懂的情况下跟着别人说出具有攻击性的话语,但这不表示她就会开始有种族歧视或性别歧视,更别说是出现暴力行为了。尽管如此,人工智能专家们警告说,如果机器人会变成一种威胁,通常是因为他们学到了人性最恶劣的部分,而不是对他们的地位产生自我意识或有所不满。Tay的实验印证了一些人的恐惧,像史蒂芬霍金就认为机器人的设计太重要了,不能交给不受政府管制的私人部门制造。

更多精彩,请查看本类栏目: 新闻资讯 - 探索发现
除非注明,ARP联盟文章来于网络,投稿原创等,转载请以链接形式标明本文地址。
本文地址:http://www.arpun.com/article/20476.html

相关文章
  • ·[图文]微软的AI「聊天机器人」在网络上恐吓用户后必须被强行关闭
  • ·微软Build 2016应用在哪下载
  • ·[图文]微软聊天机器人是什么
  • ·[图文]微软Build2016视频直播地址 Build2016发布会什么时候举行
  • ·[图文]微软Bing搜索引擎疑被中国屏蔽
  • ·[图文]索尼PS4和微软Xbox One对比解析
  • ·[图文]腾讯游戏收入42.39亿美元 成最赚钱游戏公司力压微软索尼
  • ·微软宣布将停止支持老版本IE浏览器
  • 发表评论
    栏目列表
    阅读排行
    本类最新
    网站帮助 - 广告合作 - 下载声明 - 网站地图