阿尔法狗机器人(阿尔法go)

导读大家好,小乐来为大家解答以上问题,阿尔法狗机器人,阿尔法go很多人还不知道,现在让我们一起来看看吧!1、谷歌AlphaGo是什么?作为一种人

大家好,小乐来为大家解答以上问题,阿尔法狗机器人,阿尔法go很多人还不知道,现在让我们一起来看看吧!

1、谷歌AlphaGo是什么?作为一种人工智能,AlphaGo与上世纪IBM打败国际象棋大师卡斯帕罗夫的深蓝超级计算机,以及同时代的苹果Siri和Google Now有着显著的不同。要解读AlphaGo,首先我们要知道AlphaGo的背后是什么。

2、实际上,谷歌AlphaGo的背后是谷歌2014年收购的英国人工智能公司DeepMind开发的神经网络系统。与深蓝不同,这个系统不是超级计算机,而是由许多数据中心作为节点连接起来的神经网络系统,每个节点有多台超级计算机。就像人脑一样,是由50-100亿个神经元组成的,这就是为什么这种机器学习架构被称为神经网络。

3、你可以把AlphaGo理解为《超验骇客》(传输)中约翰尼德普扮演的人工智能,它控制的超级计算机就像影片中人工智能控制的人类一样,共同服务于一个蜂巢思维。

4、003010,人工智能控制的工人马丁。马丁没有思想,但是他看到的东西会被人工智能直接获得。

5、AlphaGo就是专门为在这个神经网络系统上下围棋而开发的例子。不过,虽然名字已经介绍了它的功能,但是AlphaGo背后的神经网络系统适用于任何智力竞技赛事。

6、这个系统的基础叫做卷积神经网络(CNN),是过去在大规模图像处理中表现优异的神经网络。常用于人工智能图像识别,比如谷歌的图片搜索,百度的图像识别功能。这也解释了为什么AlphaGo是基于卷积神经网络的。毕竟围棋的制胜原则是:

7、游戏双方轮流将黑白棋子放在棋盘格子的交叉点上。棋子掉落后,不能移动。在下棋的过程中,围起来的“地”的大小决定了胜负。

8、AlphaGo背后的系统也利用了一种叫做深度Q学习(DQN)的技能。强化的灵感来源于心理学中的行为主义理论,即生物如何在环境给予的奖励或惩罚的刺激下,逐渐形成对刺激的预期,产生能够获得最大收益的习惯性行为。不仅如此,AlphaGo借鉴了蒙特卡罗树搜索算法,在判断当前局势的效用函数和决定下一步行动的策略函数上都有非常好的表现,远超可以媲美人类棋手的最后一个围棋程序。

9、DeepMind训练AlphaGo的步骤说明:以10万个大师棋谱作为初始数据,进行分类,用于训练策略函数;然后和自己下棋;强化训练策略功能,继续下棋;经过3000万步,进行回归分析,整合蒙特卡罗树搜索模型,训练效用函数。

10、效用函数和策略函数分别对应AlphaGo的两个思维维度:棋盘的现状和自己/对手的下一步走向。

11、AlphaGo采用的DQN是一种具有广泛适应性的强化学习模型。说白了就是不需要修改代码。如果你让它下围棋,它也能下围棋。如果让它在红白机上玩超级玛丽和太空入侵者,它就不会出生。作为一种基于卷积神经网络、采用强化学习模型的人工智能,AlphaGo具有很强的学习能力。它往往开始一个新的项目,玩几局就能获得比世界上最好的选手都强的实力。

12、2014年,已经被谷歌收购的DeepMind用雅达利的五款游戏Pong,Brick-hitting,Space Invader,Underwater Rescue和Beam Rider测试了自己的人工智能的性能,发现在两三款游戏之后,神经网络的操控能力已经远远超过了世界上任何已知的游戏大师。

13、DeepMind使用同一套人工智能,在不调整代码的情况下测试各种智力竞技赛事,取得了优异的成绩,证明了今天坐在李世石面前的AlphaGo的学习能力有多强。

14、李世石是黑棋,AlphaGo是白子。大约85分钟后,进入休息阶段。

15、在此之前,DeepMind已经进行了无数次虚拟象棋训练,并在去年击败了欧洲围棋。

AlphaGo 的水平大约在专业六段左右。再和其他围棋程序的 495 盘较量中胜 494 盘;在让 4 子的前提下仍有 75% 的胜率。

尽管棋盘上风云变化,早在本次开战前,AlphaGo 跟李世石就已不在同一起跑线上了。根据 DeepMind 透露的情况,从去年 10 月 5-0 击败樊麾二段到现在,AlphaGo 已经在神经网络容量(数据容量)以及自己跟自己下棋用于训练的数据质量上有了较大的提升。而且神经网络的分布式计算延迟也得到了优化,最终使得AlphaGo 能够在两小时的限定时间内击败了李世石九段。

AlphaGo 只是 DeepMind 证明自己的一个工具。你也可以将这次和李世石的对局理解为 Google 的公关策略。

2014 年,这家公司曾经在其官网上写道: DeepMind 致力于用研究深度学习的方式去真正了解智慧 (solve intelligence) 。但对于 DeepMind 和 Google 来说,打造AlphaGo 以及其他人工智能神经网络不是终点

将机器学习和神经科学进行结合,打造出一种“一般用途的学习算法”。通过这种算法,DeepMind 和 Google 希望能够将智能“定型化”,理解智能是什么,进而更好的帮助人类理解大脑。DeepMind 联合创始人之一的 Demis Hassabis 曾经写道:

用算法将智慧提炼出来,有可能成为理解人类思维最神秘原理的最佳方式。

attempting to distil intelligence into an algorithmic construct may prove to be the best path to understanding some of the enduring mysteries of our minds.

在 Google 收购 DeepMind 前,收购条款中的一项就是 Google 必须成立人工智能道德委员会。因此,在目前阶段人们不必担心这样的人工智能最终杀死或统治人类。但至少,人工智能在围棋这样的智力类竞技项目上击败人类,是已经注定的事情。

作为一种决策树巨大的游戏,围棋本来适合人脑思考,不适合机器运算。但 DeepMind AI 的方向就是模仿人脑思考,用神经网络“重现”智慧。

本文讲解到此结束,希望对大家有所帮助。

免责声明:本文由用户上传,如有侵权请联系删除!