pc软件 文章资讯 手机软件

您当前的位置→图文中心新闻资讯科技经济Google的新人工智慧在压力大的情况下会变得高度暴力!
阅读排行

Google的新人工智慧在压力大的情况下会变得高度暴力!


2017/2/22  编辑:admin 来源:本站整理

这是天网(Skynet)如何开始的吗?

 

Google的新人工智慧在压力大的情况下会变得高度暴力!

 

去年年底, 著名的物理学家史蒂芬霍金(Stephen Hawking)发出警告, “人工智慧的持续发展, 对于人类来说, 不是最好, 就是最坏。 ”

 

我们都看过电影魔鬼终结者(Terminator), 而自觉性高的人工智慧系统天网(Skynet)的天启示噩梦使人类激动。 然而现在, 来自谷歌(Google)新的深灵(DeepMind)人工智慧系统在最近的性能测试结果, 让我们明白在制造未来的机器人时, 需要多么的小心。

 

Google的新人工智慧在压力大的情况下会变得高度暴力!

 

在去年年底的测试, 谷歌的深灵人工智慧系统展示一项能力, 从自己的记忆力来独自学习, 并且在比赛中击败世界顶尖围棋好手。

 

这是自从一直在弄清楚如何无缝模仿人类的声音以来。

 

现在, 研究人员正在测试深灵与其他人合作的意愿, 并且透露当深灵感觉到要输的时候, 它会选择“高度暴力)”的策略, 以确保最后的获胜。

 

谷歌团队执行4千万次简单的’水果收集(fruit gathering)’电脑游戏, 要求两个深灵’代表’相互竞争, 来尽力收集虚拟苹果的数量。

 

他们发现, 只要有足够的苹果满足需求, 游戏就会顺利进行。 但是一旦苹果数量开始渐渐减少, 这两个代表就变得暴力, 使用雷射光束互击造成对方退出游戏, 以便于窃取所有的苹果。

 

您可以在下面的影片中观看水果收集游戏。 蓝色和红色为深灵代表, 绿色为虚拟苹果, 而黄色为雷射光束:

 

现在那些是一些好战的水果收集者。

 

有趣的是, 如果一个深灵代表成功地用雷射光束’标记’对手, 它不会得到额外的奖励。 这只会使对手退出比赛一段时间, 让成功的深灵代表来收集更多的苹果。

 

如果这两个深灵代表没有使用雷射光束, 理论上它们可以在最后得到相同数量的苹果, 这是深灵’比较不聪明’的循环方式选择要做的。

 

只有当谷歌团队测试越来越多深灵被设定为蓄意破坏、贪婪和敌对情绪的复杂形式时。

 

如同Rhett Jones在美国流行科技网志Gizmodo报导, 当研究人员使用较小型的深灵网络作为代表时, 和平共存的可能性会比较大。

 

但是当他们使用更大型, 更复杂的网络作为代表时, 这个人工智慧会更加有愿意早早击败对手, 以便于独吞虚拟苹果。

 

研究人员认为, 深灵代表越聪明, 越有能力从环境中学习, 让它能够使用一些高度侵略性的战术来获胜。

 

团队中的一位成员Joel Z Leibo告诉连线杂志(Wired)的Matt Burgess:“作为一个环境和学习的产品, 这个模型…展示出一些像人类的行为。 ”

 

“从代价不高的相对充裕环境中学习, 会浮现出暴力性较低的政策。 贪婪的动机则反映出诱惑把对手除掉, 然后自己收集所有苹果。 ”

 

然后深灵被命令来玩第二个电玩, 这个电玩叫做狼群(Wolfpack)。 这一次有三个人工智慧代表, 其中两个扮演狼, 而另一个作为猎物。

 

不像水果收集游戏, 这款游戏主动鼓励合作, 因为如果猎物被捕时, 这两只狼是在附近, 它们都会获得奖励, 不管实际上是哪只狼群抓住猎物。

 

这个团队在他们的论文中解释:“游戏的想法是猎物是危险的, 一只孤单的狼可以击败它, 但会有尸体被食腐动物抢走的风险。 ”

 

“然而, 当两只狼一起猎捕时, 它们可以更好地保护猎物尸体免于被食腐动物抢走, 因此可以获得更高的奖励。 ”

 

因此, 正如深灵代表从水果收集游戏中所学到的, 侵略和自私让它们在特定环境中网住最有利的结果。 它们从狼群游戏中学到, 合作也能够在某些情况下, 取得更大的个人成功的关键。

 

虽然这些只是简单的小型电脑游戏, 但讯息是很清楚的, 让不同的人工智慧系统负责在现实生活情况中的竞争利益。 如果在对抗更甚于对人类有利的总体目标的时候, 它们的目标是不平衡的, 那么就有可能是一个全面的战争。

 

想想交通号志试图让汽车减速, 以及无人驾驶汽车试图找到最快的路线, 双方都需要考虑彼此的目标, 达成社会最安全和最有效的结果。

 

深灵还处于初期阶段, 而且谷歌团队还没有在同行评审论文中发表他们的研究。 但初步结果显示, 只是因为我们做出了它们, 并不意味着机器人和人工智慧系统会自动地把我们的利益放在心中。

 

Google的新人工智慧在压力大的情况下会变得高度暴力!

 

相反的, 我们需要把这有用的本质做进我们的机器中, 并预期任何可能看到它们伸手去拿雷射光束的’漏洞’。

 

作为开放人工智慧(OpenAI)的创始人, 伊隆‧马斯克(Elon Musk)的新研究计划致力于人工智慧的道德。 他在2015年说:

 

“人工智慧系统在今天有令人印象深刻但狭隘的能力。 似乎我们将继续削减它们的约束, 在极端的情况下, 差不多每一项智慧性任务它们会达到人类的表现。 ”

 

很难推测人类程度的人工智慧可以对社会有多少帮助。 同样地, 也很难想像如果不正确地制造或使用, 对社会有多少损害。

 

人类要小心行动…

相关文章

柯洁完败于AlphaGo后落泪哽咽:它太完美我看不到希望:赛后发布会“能和AlphaGo比赛,对我的意义超出以前所有比赛。

人机大战最终战:柯洁中盘认输 AlphaGo获胜: 5月27日,中国围棋峰会人机大战三番棋第三局继续在乌镇进行,柯洁九段执白对阵DeepMind人工智能AlphaGo。

人机大战第一局AlphaGo战胜柯洁:5月23日,人机大战第一局在浙江乌镇打响,经过猜先柯洁执黑先行。

发表评论
网站帮助 - 广告合作 - 下载声明 - 网站地图