【独家专访AI大神】“人工愚蠢”谈何毁灭人类

我是创始人李岩:很抱歉!给自己产品做个广告,点击进来看看。  

MIT Technology Review 中国大陆地区独家授权,未经授权严禁转载。更多精彩内容请搜索官方微信“mit-tr”,同我们一道关注即将商业化的技术创新,分享即将资本化的技术创业

约书亚·本吉奥(Yoshua Bengio)

近年来,从人类语音识别、图像分类到基本的对话技能,深度学习赋予计算机的惊人能力让人们有了这样的担忧:人工智能的进步已经接近或者说可能已经超越了人类的智慧。史蒂芬·霍金(Stephen Hawking)和埃隆·马斯克(Elon Musk)等知名人士甚至警告说,人工智能将对人类的生存构成威胁。

马斯克等人为此投资了数百万美元对人工智能的潜在危险及其解决方案进行研究。但这些可怕的言论让许多正在开发该技术的人觉得不可思议。

现任蒙特利尔大学教授的约书亚·本吉奥(Yoshua Bengio)是深度学习技术复兴的缔造者之一,同时也是少数仍在学术界的深度学习专家之一,而他的大多数同行其他专家已投身于产业界,加入了谷歌和Facebook等科技公司。

在一次独家专访中,他向TR君正确解释了人工智能和机器人技术。

TR:我们应该担心人工智能的快速发展吗?

Yoshua Bengio(下文简称YB): 有些人过分高估了我们目前取得的进展。这些事情的背后是多年以来取得的一个个小的进展,包括很多平凡之事,比如更多的数据和计算机能力等。

人们炒作的重点不是关于我们正在做的东西是不是有用——它是有用的。但人们还是低估了还需要继续研究的工作量。

要从现实中将这种炒作分离出来很难,因为我们正在见证这些伟大的事物,并且在肉眼看来,它们过于神奇。

TR:有没有这样一种风险,那就是人工智能的研究人员不小心“释放出了恶魔”就像马斯克所形容的那样?

YB: 这与有人突然间发现了某种神奇的配方不同。世间万物往往比有些人讲述的简单故事要复杂的多。

新闻记者有时候会讲这样一个故事:有人在车库里突然有了这样一个很棒的想法,然后我们找到了突破口并且发明了人工智能。

同样,公司会讲这样一个很好的小故事:“哦,我们有了这个革命性的技术,它将改变世界,人工智能就在这儿,我们公司将把它发扬光大。”

但事情根本不是这样的。

“我们忽略了很重要的一点:我们已经取得了相当快的进展,但这还没有达到我们所说的机器理解的水平。我们还差的很远。”

TR:这些问题的核心观点是,人工智能可以在某种程度上开始自我完善,然后变得越来越难以控制,对这一点您怎么看?

YB: 目前的人工智能不是这样构建的。机器学习是一个很艰难、也很漫长的过程,需要从数以百万计的例子中获取信息。

机器的确会自我完善,但非常非常缓慢,并且是以非常专业的方式实现的。我们使用的演算方法与自动编程的小病毒完全不一样,那不是我们正在做的事情。

TR: 人工智能尚未解决的大问题有哪些?

YB: 无监督学习真的、真的非常重要。

目前,我们让机器变得智能的方法是,我们必须告诉计算机什么是图像,甚至是在像素层面上。

对于自动驾驶,人类则是标记大量的汽车图像来显示哪些部分是行人或道路。 这与人类的学习方式大相径庭,而且也不是动物的学习方式。

我们忽略了很重要的一点。这是我们在实验室做的主要事情之一,但目前没有短期的解决办法——研发出的一件产品可能在明天就会变得毫无用处。

另一大挑战是自然语言的理解。我们在过去几年里取得了相当快的进步,这非常鼓舞人心。但这还没有达到我们所说的机器理解的水平。

机器理解应该是我们读到一个段落,然后提问有关该段落的任何问题,机器能够以合理的方式像人类一样基本作答。

我们离这个目标还很遥远。

TR:除了深度学习以外,还需要什么方法才能创造出一个真正的机器智能呢?

YB: 传统的努力,包括推理和逻辑——我们需要把这些东西和深度学习结合起来,才能迈向人工智能。

只有极少数人认为研究机器学习的人员,尤其是研究深度学习的,应该更加注重神经科学。

我就是这样认为的。我们仍然不知道大脑为什么有多种运作方式,而提高这方面的认识可能会极大地有利于人工智能的研究。

如果神经科学的研究人员关注我们的研究,并尝试将他们对大脑的观察与我们在机器学习中研发出的各种概念联系起来,我认为他们也会受益匪浅。

TR: 您有没有想过向人们解释,人工智能不会掌管世界?那一定很奇怪。

YB: 这无疑是一个新的担忧。这么多年来,人工智能一直在令人失望。

作为研究人员,我们努力想让机器变得稍微聪明一点,但他们还是很笨。 我曾经想过这个领域不应该叫做人工智能,而应该叫做人工愚蠢。

事实上,我们的机器是无知的,而我们只是在让他们变得不那么无知而已。

现在,由于人们从演示上看到了这些进步,我们就可以说“哦,天哪,它真的能够说英语,它还能够理解图像的内容。”于是,我们将这些东西和我们看过的所有科幻小说联系起来,就变成了“哦,我害怕!”

TR: 好吧,但毫无疑问,现在考虑人工智能的最终结果很重要。

YB: 没错,我们应该谈论这些事。在可预见的未来,我更担心的事情并不是计算机会掌管世界。 我更担心的是人工智能的使用不当 ,比如,不好的军事用途,通过真正的智能广告来操控人类。

还有社会影响,比如许多人会失去工作。社会需要人们凝聚在一起,给出一个集体的回应,而不是让它在丛林法则中自寻出路。

更多精彩内容请关注官方微信公众号:MIT-TR

随意打赏

提交建议
微信扫一扫,分享给好友吧。