除了AlphaGo,Google还有其他人工智能“武器”
AlphaGo 连胜李世石两局 ,向人们证明了机器的“智慧”。AlphaGo 是人工智能在应用上的体现,但是人工智能并不是只能用来下围棋。
The Next Web 发现了一篇 Google 的 报告 ,介绍了 Google 是如何利用“卷积神经网络”( AlphaGo 也基于此 )来让14台机械臂相互学习如何拿起小物件的。这个方法模拟了1-4岁的小孩子的学习方式:看大人是怎么拿东西的,然后模仿并学会自己拿东西。
让机械臂去拿一个东西并不难,只要设定好程序,机器就能做到。难的是,让机器看到东西在那里,然后自主找出最佳的拿到它的方法。在这个过程中,机器会需要不断的尝试,经历多次失败,在这些经验上改进自己取东西方法。
这个实验的意义在于,今后机器在遇到从没见过的物体或者物体出现在特殊位置的时候,机器不需要人类调整程序,自己会找到取到这个物体的方法。 从另一个角度来说,这就是让机器更加智能,降低机器对人类的依赖。
实验过程非常乏味,就是让14个机械臂不停的抓取东西,重复80万次。因为有14只手臂,每次抓取都会略有不同,这14只手臂可以相互学习。
在80万次抓取之后,在没有人工调整程序的情况下,这些机械手展示出了惊人的适应能力:他们学会了调整抓取不同物体的手势,甚至学会了把物体调整到最合适的角度再进行抓取。
这一次,AlphaGo 和李世石的对局,有专人来替 AlphaGo 落子,但下一次,AlphaGo 或许可以完全依靠自己的机械臂来爪子落子了。