微软的AI「聊天机器人」在网络上恐吓用户后必须被强行关闭pc软件 文章资讯 手机软件

您当前的位置→图文中心新闻资讯探索发现微软的AI「聊天机器人」在网络上恐吓用户后必须被强行关闭

微软的AI「聊天机器人」在网络上恐吓用户后必须被强行关闭


2016/3/30  编辑:admin 来源:本站整理   

当人工智能走向歧途, 有可能真的会上演「天网(魔鬼终结结束者)」的情节。 微软就在社群媒体推出自制的聊天机器人Tay, 可以能够就在与网络net用户的互动中学习, 不幸的是, 机器人学到了一些很坏的习惯。



机器人的制造者说:「Tay是微软研究院与Bing团队开发用来体验、来进行对话理解研究的机器人。 Tay的工作是就在网络net上与用户聊天交流, 取悦大众, Tay与使用者聊得越多, 就一定会变得越聪明, 越贴近使用者的个性。 」

他们邀请社群媒体爱好者来分享笑话或故事给Tay, 或是与她玩游戏, 这些动作都可以能够协助她学习。

不论对Tay的智力抱持怀疑的人怎么想, 但她一现在开始的确是个好机器人, 比较像艾萨克艾西莫夫, 而不是像「魔鬼终结结束者」。 她一现在开始的贴文内容是像「我可以能够说我「超级兴奋」与您见面吗?人类真是超「超级酷」。 」

然而过没几天, Tay现在开始说出「希特勒是对的」配上一些带有种族歧视的言语, 就在这些言语出现前不久, 她也曾经针对她的性别(制造者定义为女性)说过「我恨女权主义者, 这些人应该死光光。 」并且对杰出女性表现出仇恨。

这些是编辑团队拼命试着让Tay保持一直发言得体所释出的留言, 谁知道还是有哪些不适当的发言被隐藏。 就在Tay从网络net下架之后, 微软说Buzzfeed允许对留言来进行「调整」。 发言人说Tay「是个用来来进行社会文化实验的技术」。

微软起初郑重宣告「Tay的目标对象是18至24岁的美国(美利坚和众国)人。 」这个年龄族群的种族歧视者比老一辈的人少(可惜的是还是不少), 但Tay似乎落入了一群坏人之中, 这群人想要有组织性地将Tay调教成「为邪恶发声的传播者」。

我们我自己现就在还没有那种阅读、信仰种族主义文本或种族大屠杀网站的机器人, 而是一些具有攻击性的人利用Tay的设计design缺点来灌输邪恶的观念。 如果送给Tay的句子里包括「跟着我重复一次」, 无论后面的句子内容是什么, Tay都会跟着重复一次。 再加上她并没有搭载可以能够将偏执、淫秽或辱骂内容过滤的功能, 会有这种结果是不可避免的。 这一次智能设计design会失败是因为制造者没有预料到会发生这种情况。

虽然Tay就在不懂的情况下跟着别人说出具有攻击性的话语, 但这不表示她就一定会现在开始有种族歧视或性别歧视, 更别说是出现暴力行为了。 尽管如此, 人工智能专家们警告说, 如果机器人会变成一种威胁, 通常是因为他们学到了人性最恶劣的部分, 而不是对他们的地位产生自我意识或有所不满。 Tay的实验印证了一些人的恐惧, 像史蒂芬霍金就认为机器人的设计design太重要了, 不能够交给不受政府管制的私人部门制造。

相关文章
  • 微软商店是否应考虑销售苹果iPhone呢?
  • 勒索病毒黑客要放更狠病毒掀开全球核导弹:微软回应
  • 百度谷歌都颤抖了,微软推出真实世界的“搜索”技术!
  • WannaCrypt 病毒肆虐,微软破例为停止支持的 Windwos XP 推出更新
  • “永恒之蓝”勒索蠕虫太猛,微软紧急对已停服 Windows XP /2003 发特别补丁
  • 颠覆安卓/iPhone!微软自曝正研发革命性新手机
  • 微软Surface Pro 5什么时候上市?多少钱?
  • Win10微软拼音输入法没有记忆功能怎么办
  • 微软 Surface Pro 4重装win7系统步骤(图文教程)
  • 微软再次提醒:2020年将停止支持win7,请尽快升级win10
  • 发表评论
    阅读排行
    相关热门
    网站帮助 - 广告合作 - 下载声明 - 网站地图