IT资讯/综合软件下载站!┆ 最新软件 最新文章 最新手机 UFO外星人 网站分类

您当前的位置→图文中心新闻资讯探索发现微软的AI「聊天机器人」在网络上恐吓用户后必须被强行关闭

微软的AI「聊天机器人」在网络上恐吓用户后必须被强行关闭


2016/3/30  编辑:admin 来源:本站整理 

当人工智能走向歧途,可能真的会上演「天网(魔鬼终结者)」的情节。微软在社群媒体推出自制的聊天机器人Tay,可以在与网络用户的互动中学习,不幸的是,机器人学到了一些很坏的习惯。



机器人的制造者说:「Tay是微软研究院与Bing团队开发用来体验、进行对话理解研究的机器人。Tay的工作是在网络上与用户聊天交流,取悦大众,Tay与使用者聊得越多,就会变得越聪明,越贴近使用者的个性。」

他们邀请社群媒体爱好者来分享笑话或故事给Tay,或是与她玩游戏,这些动作都可以帮助她学习。

不论对Tay的智力抱持怀疑的人怎么想,但她一开始的确是个好机器人,比较像艾萨克艾西莫夫,而不是像「魔鬼终结者」。她一开始的贴文内容是像「我可以说我「超级兴奋」与你见面吗?人类真是超「超级酷」。」

然而过没几天,Tay开始说出「希特勒是对的」配上一些带有种族歧视的言语,在这些言语出现前不久,她也曾经针对她的性别(制造者定义为女性)说过「我恨女权主义者,这些人应该死光光。」并且对杰出女性表现出仇恨。

这些是编辑团队拼命试着让Tay保持发言得体所释出的留言,谁知道还有哪些不适当的发言被隐藏。在Tay从网络下架之后,微软说Buzzfeed允许对留言进行「调整」。发言人说Tay「是个用来进行社会文化实验的技术」。微软的AI「聊天机器人」在网络上恐吓用户后必须被强行关闭_arp联盟

微软起初宣布「Tay的目标对象是18至24岁的美国人。」这个年龄族群的种族歧视者比老一辈的人少(可惜的是还是不少),但Tay似乎落入了一群坏人之中,这群人想要有组织性地将Tay调教成「为邪恶发声的传播者」。

我们现在还没有那种阅读、信仰种族主义文本或种族大屠杀网站的机器人,而是一些具有攻击性的人利用Tay的设计缺点来灌输邪恶的观念。如果送给Tay的句子里包括「跟着我重复一次」,无论后面的句子内容是什么,Tay都会跟着重复一次。再加上她并没有搭载可以将偏执、淫秽或辱骂内容过滤的功能,会有这种结果是不可避免的。这次智能设计会失败是因为制造者没有预料到会发生这种情况。

虽然Tay在不懂的情况下跟着别人说出具有攻击性的话语,但这不表示她就会开始有种族歧视或性别歧视,更别说是出现暴力行为了。尽管如此,人工智能专家们警告说,如果机器人会变成一种威胁,通常是因为他们学到了人性最恶劣的部分,而不是对他们的地位产生自我意识或有所不满。Tay的实验印证了一些人的恐惧,像史蒂芬霍金就认为机器人的设计太重要了,不能交给不受政府管制的私人部门制造。

下一页【埃及发现神秘古碑文】内容或将改写古埃及历史

相关文章
  • ·[图文]Win10微软拼音输入法没有记忆功能怎么办
  • ·[图文]微软 Surface Pro 4重装win7系统步骤(图文教程)
  • ·[图文]微软再次提醒:2020年将停止支持win7,请尽快升级win10
  • ·[图文]微软官方WinPE如何制作
  • ·微软小娜苹果1.9.0有什么新功能
  • ·[图文]微软的AI「聊天机器人」在网络上恐吓用户后必须被强行关闭
  • ·微软Build 2016应用在哪下载
  • ·[图文]微软聊天机器人是什么
  • 发表评论
    栏目列表
    阅读排行
    网站帮助 - 广告合作 - 下载声明 - 网站地图