IBM赋予AI的诗和远方:除了让Watson赚钱,更在教AI表现得像人脑
「AI For Business」,是昔日蓝色巨人IBM 对其人工智能的定位,清晰而坚定,即便其营收连续21个月下滑、遭到投资人的质疑,也未曾改变。
对于这家最善于把脉未来趋势的公司,在人工智能席卷而来时当然也早有准备,比如他们的明星产品Watson。
认知商业,这是 IBM 人工智能的战略方向,而毫无疑问Watson 是实现一切战略的核心。
从最近的信息中,我们不断看到Watson在不同领域的大小动作,与某医院签约,入驻某家机构,和某公司战略合作,一副沃森很忙的样子。而忙的一切,也都成了为IBM努力赚钱的最终结果。
至于一家有国际影响力的巨头公司,当然提钱不免有些俗气,除此之外,它更想让人知道的是这家公司在人工智能的诗和远方:教AI来表现得更像人脑。
今天,我们希望通过这篇文章来试图描述这位重要玩家在其AI上的布局和观点,希望对你有帮助。
灵感来源:大脑
人类最伟大的思想家也逃脱不了从自然界寻求创作的灵感的路径,比如达芬奇设计的“ Ornithoper ”(翼型飞机)。
即便现在也没有改变。人工智能和机器学习方面的突破性进步也是以从自然语言中最先进的计算机构提取设计线索:那就是人的大脑。
模仿我们的脑灰质不仅仅是一个聪明的手段来建立更好更快的AI,对于他们的持续发展绝对有必要。
人脑和机器学习系统天然的差异
深度学习神经网络 - AlphaGo以及当前所有的图像识别和语言翻译系统,都是我们迄今为止开发的最好的机器学习系统。
他们具有令人难以置信的专长,但仍然面临着重大的技术障碍,比如说为了接受具体技能的培训,他们需要对大量数据集进行前期认知和巨大的计算能力。
更重要的是,如果你想重新训练神经网络来执行一个新的技能,你基本上必须擦掉它的记忆,从头开始 - 一个被称为“灾难性遗忘”的过程。
与人类大脑进行比较,人脑是逐渐学习,而不是从数据点海域完全形成。 这是一个人脑与机器大脑的根本的区别:深入学习AI是从上而下生成的,知道自己需要的一切,而人类的思想是从前面建立的,以前的经验教训应用于随后的经验创造新的知识。
更重要的是,人的心灵特别擅长执行关系推理,这依赖逻辑来建立过去经验之间的联系,以帮助提供对发展过程中新情况的洞察。
统计AI(即机器学习)能够模拟大脑的模式识别技能,但是在应用逻辑时却是无用的。 另一方面,AI可以利用逻辑(假设已经对该推理系统的规则进行了培训),但通常不能实时应用该技能。
人脑+AI
如果我们能够将人脑的计算灵活性与AI的大量处理能力结合在一起呢? 这正是DeepMind这个团队试图做的。
他们构建了一个能够将关系推理应用于其任务的神经网络。 它的工作方式与大脑的神经元网络大致相同。
虽然神经元使用彼此的各种连接来识别模式,但是DeepMind的计算机科学家Timothy Lillicrap告诉“ 科学”杂志 ,“我们明确发现强迫网络与情景中的对象之间存在的关系” 。
在六月份接下来的任务是回答关于图像中几何对象的相对位置的复杂问题 - 即“蓝色事物前面有一个对象;它是否与右边的微小的青色物体具有相同的形状的灰色金属球?” 。
结果是达到了96%的正确识别率。 传统的机器学习系统在42 - 77%的识别率。 反观人类,目前也只有92%的几率成功了。 没错, 这个混合的AI比任何建立它的人都更好 。
当AI被提供词语问题时,结果是一样的。 虽然传统的系统能够将DeepMind与简单的查询相匹配,例如“Sarah有一个球,Sarah走进办公室,球在哪里?
混合AI系统在比较复杂的推理问题取得了成功,比如“莉莉是天鹅,百合是白色的,格雷格是天鹅,格雷格是什么颜色的?” 在那些方面,DeepMind正确回答率为98%,而竞争对手则大约为45%。
IBM基于人脑研究的“注意算法”
DeepMind目前已经在一个“记住”重要信息的系统上工作,并将这些累积的知识应用于未来的查询。 而IBM也正在采取这一概念,进行下一步的工作研究。
在上周在澳大利亚墨尔本举行的2017年国际人工智能联合会议上提交的一份研究论文中,IBM提交了两项研究:一项研究如何授予AI“注意跨度” ,另一项研究如何应用生物神经发生过程即神经元的诞生和死亡 - 机器学习系统。
IBM研究人员Irina Rish曾透露,
“神经网络学习通常是经过设计的,提供最有效的特定架构进行很多工作,然而这几乎是一种试验和错误的方法。如果这些网络可以建立自己,这将是最有效的。”
IBM的注意算法基本上通知神经网络,哪些输入提供最高的回报。 奖励越高,网络将越来越重视并向推进。 这在数据集不是静态而是现实生活的情况下尤其有用。 Rish说:
“注意算法是奖励驱动的机制,它不仅仅是与我们的决策和我们的行动完全脱节的事情。”
“当我们看到一个图像,人眼基本上呈现一个比较狭窄的视野,”Rish说。 “所以,根据分辨率,你只能看到图像的部分像素,但其他的一切都是模糊的,当你快速移动你的眼睛,使得不同部分的归属机制图像,按照正确的顺序,让您快速识别图像是什么。”
IBM注意算法的应用
注意算法功能的首次使用应用在图像识别中,并且它可以被用于各种领域。
例如,如果您使用牛津数据集 (主要是建筑图像)训练AI,则可以轻松地正确识别城市景观。 但是,如果你从乡村的场景(田野和花朵等)中显示出一堆照片,那么AI就要歇菜了,因为它不知道是什么花。
然而,当对人类和动物进行同样的测试,你将触发神经发生,因为他们的大脑尝试调整他们已经知道的城市对国家新形象的看法。
这个机制基本上告诉系统应该关注什么。 以你的医生为例,她可以对你进行数百次潜在的测试,以确定你是什么,但这是不可行的 - 无论是时间上还是金钱的。那么她应该问什么问题,以及应该在最短的时间内进行什么样的测试以获得最佳诊断?
“这就是算法学习得出的结论,”Rish解释说。 它不仅仅是弄清楚什么决定导致最好的结果,它还会学习在哪里查看数据。 这样,系统不仅仅做出更好的决策,它使效率更高,因为它不是查询不适用于当前问题的数据集的部分。
当你进来抱怨胸痛和呼吸急促时,您的医生不会用那个奇怪的小锤子的东西轻轻点你的膝盖。
虽然注意系统有助于确保网络保持任务,但IBM对神经可塑性的工作(记忆“坚持”)能够为网络提供长期的回忆。 它实际上是在人类海马中看到的与神经元出生和死亡相同的机制之后建模的。
有了这个系统,“你不必一定要从数百万个参数开始而且绝对训练,”Rish解释说。 “你可以从一个更小的模型开始,然后,根据你看到的数据,它会适应。
当提供新的数据时,IBM的神经系统开始形成新的和更好的连接(神经元),而一些较老的,没有用的则会像Rish那样“修剪”。
这并不是说系统在字面上删除旧的数据,它根本就是没有把它链接到一个强大的方式,你的旧的日常记忆往往会变得模糊多年,但那些具有重大意义情绪依恋多年后仍然活跃。
IBM注意力算法的远方
“神经发生是适应深层网络的一种方式,”Rish说。 “神经网络是模型,你可以从头开始构建这个模型,或者你可以改变这个模型,因为你有多层隐藏的单位,你可以决定你想要有多少层隐藏的单位(神经元),这都取决于数据。”这很重要,因为您不希望神经网络无限扩展。
如果这样做,数据集将变得如此之大,即使对于AI数字等效的超忆症(Hyperthymesia)也是无用和低效的。 “这也有助于规范化,所以AI不会超过数据”Rish说。
总而言之,这些进步可以为AI研究界提供一个福音。 Rish的团队接下来想要处理他们所谓的“内部关注”。
您不仅可以选择想要网络的输入,还可以根据数据集和输入在计算中使用网络的哪些部分。 基本上注意力模型将涵盖短期,主动,思维过程,而内存部分将使网络能够根据当前情况简化其功能。
不过,Rish警告说,不要期望AI很快就会看到与人类意识的深度相抵触。
“我会说至少几十年,但是或者这只可能是一个狂野的猜测,我们现在可以做什么,像非常高精度的图像识别仍然非常远离人类情感的基本模型” 她说 “目前我们也只是触碰到了表面。”
就在近日,IBM 决定投资 2.4 亿美元,在 10 年时间里和 MIT(麻省理工学院)合作建立一个 AI 实验室,未来一起开发新的 AI 算法来提高机器学习的能力。
IBM的AI正在进行时,对任何一家公司都是路漫漫长远,当机器大脑一旦临近人脑,那会发生什么奇妙的事情? 让时间给我们这些迷人的答案。
【钛媒体作者:遇见人工智能 (微信ID: gowithai )】
更多精彩内容,关注钛媒体微信号(ID:taimeiti),或者下载钛媒体App