从1308年到2016年,人工智能在这700年时间里发生了什么?

亿欧网  •  扫码分享
我是创始人李岩:很抱歉!给自己产品做个广告,点击进来看看。  
从1308年到2016年,人工智能在这700年时间里发生了什么?

2016年, 人工智能 达到沸点,在此之前,人工智能一直以概念的形态存在,时间不过几十年而已。然而,一个引领时代潮流的先进理念早就在历史中被孕育、被培养,最后被孵化。

在我们未知的时间里,人工智能早已在历史的长河里萌芽,从1308年到2016年,人工智能已有700年的历史,从播种到成长的阶段,人工智能走了数百年,细数这700年的历史,我们会在历史的长河中,发现什么呢?

本文来自福布斯,智东西海中天编辑,供行业内人士参考。


从神学家到科学家,到作家,无数人都在向我们描绘AI,在几百年的历史长河中,AI的面容渐渐清晰。最近,《福布斯》发表文章,为AI修订了一本“简史”,通过这篇文章,我们就可以理解AI的过去与现在,以及未来。

1308年:加泰罗尼亚诗人、神学家雷蒙·卢尔(Ramon Llull)发表作品《Ars generalis ultima》(意思就是最终的综合艺术),详细解释了自己的理论:用机械方法从一系列概念组合中创造新知识。

1666年:数学家和哲学家莱布尼茨(Gottfried Leibniz)出版《On the Combinatorial Art》,他继承了雷蒙·卢尔的思想,莱布尼茨认为人类的所有创意全都来自于少量简单概念的结合。

1726年:英国小说家乔纳森·斯威夫特(Jonathan Swift)出版《格列佛游记》,他在书中描述了一台名叫“Engine”的机器,这台机器放在Laputa岛。斯威夫特描述称:“运用实际而机械的操作方法来改善人的思辨知识。”“最无知的人,只要适当付点学费,再出一点点体力,就可以不借助于任何天才或学力,写出关于哲学、诗歌、政治、法律、数学和神学的书来。”

1763年:托马斯·贝叶斯(Thomas Bayes)创造一个框架,可以用来推理事件的可能性。最终贝叶斯推理方法成为机器学习的主要理论。

1854年:乔治·布尔(George Boole)认为逻辑推理可以系统进行,就像解答方程式一样。

1898年:在麦迪逊广场花园举行的电气展览会上,尼古拉·特斯拉(Nikola Tesla)展示世界第一艘无线电遥控船。按照特斯拉的描述,船只拥有“借来的思想”。

1914年:西班牙工程师莱昂纳多·托里斯·克维多(Leonardo Torres y Quevedo)展示世界上第一台可以自动下象棋的机器,不需要人类干预,机器可以自动下国际象棋。

1921年:捷克作家卡雷尔·恰佩克(Karel Čapek)在他的作品《Rossum’s Universal Robots》中首次使用了“ 机器人 (Robot)”一词,这个词汇来自于“robota(工作)”。

1925年:无线电设备公司Houdina Radio Control展示世界第一辆用无线控制的 无人驾驶 汽车,汽车可以在纽约街道上行驶。

1927年:科幻电影《大都会》(Metropolis)上映。在影片中,一位名叫Maria的农村女孩是机器人,她在2026年的柏林引起骚乱。这是机器人第一次出现在荧幕上,后来《星球大战》中的“C-3PO”受到它的启发。

1929年:西村真琴(Makoto Nishimura)设计出“Gakutensoku”,在日语中,该名称的意思就是说“向自然之法学习”,它是日本制造的第一个机器人。机器人可以改变面部表情,可以通过空气压力机制移动头部和手部。

1943年:沃伦·麦卡洛克(Warren S. McCulloch)和沃尔特·皮茨(Walter Pitts)在《数学生物物理学公告》上发表论文《神经活动中内在思想的逻辑演算》(A Logical Calculus of the Ideas Immanent in Nervous Activity)。这篇论文对后世影响巨大,它讨论了理想化、简化的人工神经元网络,以及它们如何形成简单的逻辑功能,后来诞生的 计算机 “ 神经网络 ”(以及最后出现的深度学习)受到它的启发,所谓的“模拟大脑”这一说法也来自于它。

1949年,埃德蒙·伯克利(Edmund Berkeley)出版《Giant Brains: Or Machines That Think》,他在书中写道:“最近出现许多消息,谈论的主题是奇怪的巨型机器处理信息,速度极快,技能很强……这种机器与大脑相似,由硬件和线缆组成,而不是血肉和神经……机器可以处理信息,可以计算、可以得出结论、可以选择,还可以根据信息执行合理操作。总之,这台机器可以思考。”

1949年:唐纳德·赫布(Donald Hebb)发表《Organization of Behavior: A Neuropsychological Theory》,他提出一种理论:根据猜想学习,这些猜测与神经网络高度关联,随着时间的推移,神经元突触会得到强化或者削弱。

1950年:克劳德·香农(Claude Shannon)发表《编程实现计算机下棋》(Programming a Computer for Playing Chess),这篇论文第一次开始关注计算机象棋程序的开发问题。

1950年:阿兰·图灵(Alan Turing)发表论文《Computing Machinery and Intelligence》,他在论文中谈到了“模仿游戏”这一概念,也就是广为人知的“图灵测试”。

1951年:马文·明斯基(Marvin Minsky)和迪恩·爱德蒙(Dean Edmunds)开发了SNARC,它是“Stochastic Neural Analog Reinforcement Calculator”的简称,意思是“随机神经网络模拟加固计算器”。SNARC是第一个人工神经网络,用3000个真空管模拟40个神经元的运行。

1952年:阿瑟·萨缪尔(Arthur Samuel)开发出第一个计算机跳棋程序,它也是世界上第一个可以自己学习的程序。

1955年8月31日:专家在一份提案中首次提出“AI(人工智能,artificial intelligence)”这一术语,提案建议由10名专家组成小组,花2个月时间研究人工智能。这份提案是达特茅斯学院约翰·麦卡锡(John McCarthy)、哈佛大学马文·明斯基(Marvin Minsky)、IBM纳撒尼尔·罗彻斯特(Nathaniel Rochester)和贝尔电话实验室克劳德·香农(Claude Shannon)联合提交的。1956年7月和8月,讨论会正式举行,这次会议成为人工智能诞生的标志。

1955年12月:赫伯特·西蒙(Herbert Simon)和艾伦·纽厄尔(Allen Newell)开发了“Logic Theorist”,它是世界上第一个AI项目,在罗素和怀特海《数学原理》第二章有52个定理,AI可以证明其中的38个。

1957年:弗兰克·罗森布拉特(Frank Rosenblatt)开发了“Perceptron”,它是一个人工神经网络,可以利用两层计算机学习网络识别模式。《纽约时报》刊文称,Perceptron是电子计算机的雏形,美国海军预测未来它可以自己行走、可以说话、可以看见东西、可以书写,还可以自己生产自己,能感知到自己的存在。《纽约客》认为它是一台“了不起的机器……可以思考。”

1958年:约翰·麦卡锡(John McCarthy)开发了程序语言Lisp,它最终成为AI研究最流行的程序语言。

1959年:阿瑟·萨缪尔(Arthur Samuel)创造了“机器学习”这一术语,他在论文中谈到了一个程序,该程序可以让计算机学习如何下棋,棋艺可以超越程序开发者。

1959年:奥利弗·赛弗里奇(Oliver Selfridge)发表论文《Pandemonium: A paradigm for learning》,他在论文中描述了一种处理模型,不需要预先设定,计算机就可以通过该模型识别新模式。

1959年:约翰·麦卡锡(John McCarthy)发表论文《Programs with Common Sense》。他在论文中谈到了Advice Taker,这是一个程序,可以通过控制正式语言中的句子解决问题,它的终极目标是开发出可以像人类一样从过往经历不断学习的程序。

1961年:第一台工业机器人Unimate在新泽西州通用汽车的组装线上投入使用。

1961年:詹姆斯·斯拉格(James Slagle)开发了SAINT(符号自动积分程序),这套启发式程序可以有效解决大学一年级微积分符号整合问题。

1964年:丹尼尔·鲍勃罗(Daniel Bobrow)完成论文《Natural Language Input for a Computer Problem Solving System》,这是他在MIT的博士论文。鲍勃罗还开发了STUDENT,也就是自然语言理解计算机程序。

1965年:赫伯特·西蒙(Herbert Simon)预测在20年内,机器可以做人类所能做的事。

1965年:赫伯特·德雷福斯(Herbert Dreyfus)发表《Alchemy and AI》,他认为智力与计算机是不一样的,有些限制无法打破,直接导致AI无法进步。

1965年,古德(I.J.Good)在《Speculations Concerning the First Ultraintelligent Machine》写道:“第一台超智能机器将是人类的最终发明,机器足够温顺,完全可以告诉我们如何控制它。”

1965年:约瑟夫·维森班(Joseph Weizenbaum)开发了ELIZA,这是一个交互程序,它可以根据任何主题进行英文对话。一些人想将人类的感觉赋予计算机程序,对此维森班感到很震惊,他开发程序只是为了证明机器与人的交流很肤浅。

1965年:费根鲍姆(Edward Feigenbaum)、布鲁斯·布坎南(Bruce G.Buchanan)、莱德伯格(Joshua Lederberg)和卡尔·杰拉西(Carl Djerassi)在斯坦福大学研究 DENDRAL,它是第一个专家系统,能够自动做决策,解决有机化学问题,它的目的是研究假说信息,构建科学经验归纳模型。

1966年:机器人Shakey诞生,它是第一款基于通用目的开发的移动机器人,可以按逻辑形成自有动作。1970年,《生活》杂志称它是“第一个电子人“。文章还引用计算机科学家马文•明斯基(Marvin Minsky)话称:”3到8年之内,机器的智力就可以达到普通人的平均水平。“

1968年:电影《2001太空漫游》上映,电影中的角色Hal就是一台有感知能力的计算机。

1968年:特里·维诺格拉德(Terry Winograd)开发了SHRDLU,它是一个理解早期语言的计算机程序。

1969年:阿瑟·布莱森(Arthur Bryson)和何毓琦(Yu-Chi Ho)在论文中描述称,反向传播可以作为多阶段动态系统优化方法使用。这是一种学习算法,它可以应用于多层人工神经网络,2000-2010年深度学习之所以大获成功离不开它的启发,在后来的日子里,计算机性能突飞猛进,可以适应巨大网络的训练。

1969年:马文·明斯基(Marvin Minsky)和西摩尔·帕普特(Seymour Papert)联合发表作品《Perceptrons: An Introduction to Computational Geometry》。1988年该书扩充再版,两位作者在书中表示,1969年得出的结论明显减少了神经网络研究所需的资金。作者称:“我们认为,由于缺少基本理论,研究已经基本处于停滞状态……到了60年代,人们在认知器演算方面进行了大量实验,但是没有一个人可以解释系统为何可以识别特定模式,而其它模式却无法识别。”

1970年:第一个拟人机器人诞生,它就是WABOT-1,由日本早稻田大学开发,它包括了肢体控制系统、视觉系统、会话系统。

1972年:MYCIN是一个早期专家系统,它可以识别引发严重传染病的细菌,还可以推荐抗生素,该系统是斯坦福大学开发的。

1973年:詹姆斯·莱特希尔(James Lighthill)向英国科学研究委员会提交报告,介绍了AI研究的现状,他得出结论称:“迄今为止,AI各领域的发现并没有带来像预期一样的重大影响。”最终政府对AI研究的热情下降。

1976年:计算机科学家拉吉·瑞迪(Raj Reddy)发表论文《Speech Recognition by Machine: A Review》,它对自然语言处理(Natural Language Processing)的早期工作做了总结。

1978年:卡内基梅隆大学开发了XCON程序,这是一套基于规则开发的专家系统,可以辅助DEC VAX计算机,根据客户的要求自动选择组件。

1979年:在没有人干预的情况下,Stanford Cart自动穿过摆满椅子的房间,前后行驶了5小时,它相当于早期无人驾驶汽车。

1980年:日本早稻田大学研制出Wabot-2机器人,这是一个人型音乐机器人,可以与人沟通,可以阅读乐谱,还可以演奏普通难度的电子琴。

1981年:日本国际贸易和工业部向“第五代计算机”项目投入8.5亿美元,该项目只为开发出可以对话、翻译语言、解释图片、像人一样推理的计算机。

1984年:《电脑梦幻曲》(Electric Dreams )电影上映,它讲述了一名男子、一名女子和一台电脑的三角恋故事。

1984年:在年度AAAI会议上,罗杰·单克(Roger Schank)和马文·明斯基(Marvin Minsky)发出警告,他们认为“AI寒冬”已经来临,AI泡沫很快就会破灭,AI投资与研究资金也减少,正如70年代出现的事情一样。

1986年:在恩斯特·迪克曼斯(Ernst Dickmanns)的指导下,慕尼黑大学开发了第一辆无人驾驶汽车,这是一辆奔驰厢式货车,配有摄像头和传感器,座位上没有人,最高时速55英里。

1987年:苹果当时的CEO斯卡利(John Sculley)在Educom发表主题演讲,谈到了“知识领航员”(Knowledge Navigator)的概念,他描述了一个诱人的未来:“我们可以用智能代理连接知识应用,代理依赖于网络,可以与大量数字化信息联系。”

1988年:朱迪亚·珀尔(Judea Pearl)发表了《Probabilistic Reasoning in Intelligent Systems》,2011年珀尔获得图灵奖,颁奖词介绍称:“朱迪亚·珀尔为不确定条件下处理信息找到了具象特征,奠定了计算基础。人们认为他是贝叶斯网络的发明人,贝叶斯网络是一套数据形式体系,可以确定复杂的概率模型,还可以成为这些模型推断时的主导算法。”

1988年:罗洛·卡彭特(Rollo Carpenter)开发了聊天机器人Jabberwacky ,它可以用有趣、娱乐、幽默的形式模拟人类对话。利用与人互动的方法开发AI,卡彭特做出了独特的尝试。

1988年:IBM沃森研究中心发表《A statistical approach to language translation》,它标志着过渡的开始,以前我们采用的是基于规则的机器翻译概率法,它开始向“机器学习”转移,机器学习是以已知案例的数据分析作为基础的,而不是对手上任务的理解。IBM的项目名叫Candide,它可以成功在英语和法语之间翻译,这套系统以220万对句子作为基础。

1988年:马文·明斯基(Marvin Minsky)和西摩尔·帕普特(Seymour Papert)出版了图书《Perceptrons》,这本书1969年首次出版,1988年扩充后再版。两人解释了再版的原因:“AI领域的研究为何没有取得突破?因为研究人员不熟悉历史,老是犯一些前人已经犯过的错误。”

1989年:燕乐存(Yann LeCun)与AT&T贝尔实验室的其它研究人员携手合作,成功将反向传播算法应用于多层神经网络,它可以识别手写邮编。由于当时的硬件存在限制,训练神经网络花了3天。

1990年:罗德尼·布鲁克斯(Rodney Brooks)发表了《lephants Don’t Play Chess》,他提出了新的AI方法:利用环境交互重新打造智能系统和特殊机器人。布鲁克斯称:“世界就是我们的最佳模型……关键在于正确感知它,保持足够高的频率。”

1993年:弗农·温格(Vernor Vinge)发表了《The Coming Technological Singularity》,他预测在30年之内,我们可以用技术创造出超智者,简言之,人类将会终结。

1995年:理查德·华莱士(Richard Wallace)开发了聊天机器人 A.L.I.C.E(Artificial Linguistic Internet Computer Entity的缩写),它受到了ELIZA的启发,由于互联网已经出现,网络为华莱士提供了海量自然语言数据样本。

1997年:赛普·霍克赖特(Sepp Hochreiter)和于尔根·施密德胡伯(Jürgen Schmidhuber)提出了LSTM概念(长短期记忆),今天的递归神经网络就是用这种方法开发的,它可以识别手写笔迹,还可以识别语音。

1997年:IBM研发的“深蓝”(Deep Blue)击败人类象棋冠军。

1998年:戴夫·汉普顿(Dave Hampton)和钟少男(Caleb Chung)开发了Furby,它是第一款家庭机器人,或者说是宠物机器人。

1998年:燕乐存(Yann LeCun)与人合作发表论文,谈到了用神经网络识别手写笔迹的问题,还谈到了优化向后传播的问题。

2000年:MIT研究人员西蒂亚·布雷泽尔(Cynthia Breazeal)开发了Kismet,它是一个可以识别、模拟表情的机器人。

2000年:本田推出了ASIMO,它是一个人工智能拟人机器人,可以像人类一样快速行走,在餐馆内可以将盘子送给客人。

2001年:斯皮尔伯格拍摄的电影《人工智能》上映,影片中一个机器人很像人类小孩,他的程序很独特,拥有爱的能力。

2004年:第一届DARPA自动驾驶汽车挑战赛在莫哈韦沙漠举行,可惜没有一辆自动驾驶汽车完成150英里的挑战目标。

2006年:杰弗里·辛顿(Geoffrey Hinton)发表《Learning Multiple Layers of Representation》,他首次提出了“机器阅读”这一术语,所谓机器阅读就是说系统不需要人的监督就可以自动学习文本。

2007年:杰弗里·辛顿(Geoffrey Hinton)发表《Learning Multiple Layers of Representation》,根据他的构想,我们可以开发出多层神经网络,这种网络包括自上而下的连接点,可以生成感官数据训练系统,而不是用分类的方法训练。辛顿的理论指引我们走向深度学习。

2007年:李飞飞(Fei Fei Li )和普林斯顿大学的同事携手合作,开始研究ImageNet,这是一个大型数据库,由大量带注解的图片组成,旨在为视觉对象识别软件研究提供辅助。

2009年:Rajat Raina、阿南德·马德哈迈(Anand Madhavan)和吴恩达(Andrew Ng)发表论文《Large-scale Deep Unsupervised Learning using Graphics Processors》,他们认为“现代图形处理器的计算能力远超多核CPU,GPU有能力为深度无监督学习方法带来变革。”

2009年:谷歌开始秘密研发无人驾驶汽车,2014年,谷歌在内华达州通过了自动驾驶测试。

2009年,西北大学智能信息实验室的研究人员开发了Stats Monkey,它是一款可以自动撰写体育新闻的程序,不需要人类干预。

2010年:ImageNet大规模视觉识别挑战赛(ILSVCR)举办。

2011年:在德国交通标志识别竞赛中,一个卷积神经网络成为赢家,它的识别率高达99.46%,人类约为99.22%。

2011年:IBM开发的自然语言问答计算机沃森在“危险边缘”(Jeopardy!)中击败两名前冠军。

2011年:瑞士Dalle Molle人工智能研究所发布报告称,用卷积神经网络识别手写笔迹,错误率只有0.27%,之前几年错误率为0.35-0.40%,进步巨大。

2012年6月:杰夫·迪恩(Jeff Dean)和吴恩达(Andrew Ng)发布报告,介绍了他们完成的一个实验。两人向大型神经网络展示1000万张未标记的图片,这些图片是随机从YouTube视频中抽取的,发现当中的一个人工神经元对猫的图片特别敏感。

2012年10月:多伦多大学设计的卷积神经网络参加ImageNet大规模视觉识别挑战赛(ILSVCR),它的错误率只有16%,比往年25%的错误率大幅改进。

2016年3月:谷歌DeepMind研发的AlphaGo击败围棋冠军李世石。

随意打赏

2016年2017年2016人工智能大会2016年人工智能2016人工智能人工智能技术
提交建议
微信扫一扫,分享给好友吧。