新AlphaGo赢过旧版:不仅会自学 且只需4个TPU
新浪科技讯 北京时间10月19日早间消息,谷歌旗下人工智能研究部门DeepMind发布了新版AlphaGo软件,它可以完全靠自己学习围棋。
这款名为AlphaGo Zero的系统可以通过自我对弈进行学习,它利用了一种名为强化学习的技术。在不断训练的过程中,这套系统开始靠自己的能力学会围棋中的一些高级概念。
经过3天的训练后,这套系统已经可以击败AlphaGo Lee,也就是去年击败韩国顶尖棋手李世石的那套系统,而且比分高达100比0。经过40天训练后,它总计运行了大约2900万次自我对弈,使得AlphaGo Zero得以击败AlphaGo Master(今年早些时候击败世界冠军柯洁的系统),比分为89比11。
结果表明,具体到不同技术的效果,人工智能在这一领域仍有很多学习的空间。AlphaGo Master使用了很多与AlphaGo Zero相同的开发技术,但它需要首先利用人类的数据进行训练,随后才切换成自我对弈。
值得注意的是,虽然AlphaGo Zero在几周的训练期间学会了一些关键概念,但该系统学习的方法与人类有所不同。另外,AlphaGo Zero也比前几代系统更加节能,AlphaGo Lee需要使用几台机器和48个谷歌TPU机器学习加速芯片。其上一代AlphaGo Fan则要用到176个GPU芯片。AlphaGo Zero只需要使用一台配有4个TPU的机器即可。(书聿)