查看原文
其他

人工智能诞生65周年

光子盒研究院 光子盒 2021-12-15
光子盒研究院出品

 
1956年8月,约翰·麦卡锡、马文·明斯基等科学家在美国达特茅斯学院开会研讨“如何用机器模拟人的智能”,首次提出“人工智能(Artificial Intelligence,简称AI)”这一概念,标志着人工智能学科的诞生。
 
如同蒸汽时代的蒸汽机、电气时代的发电机、信息时代的计算机和互联网,人工智能正成为推动人类进入智能时代的决定性力量。
 
目前,人工智能的浪潮汹涌澎湃,在视觉图像识别、语音识别、文本处理等诸多方面已经达到或超越人类水平,在视觉艺术、程序设计方面也开始崭露头角,令人惊叹不已。可以说,整个社会已经进入人工智能时代。
 
但是已有65年历史的人工智能,并非一帆风顺,每次蓬勃发展后都曾陷入低谷。
 
想要了解人工智能未来的将向何处去,首先要知道人工智能从何处来。
 
 
回溯人工智能的起源,可以追溯到古希腊时期。人类自古就开始探索延伸大脑能力的想法,而这一想法在近现代逐渐有了可成功实现的雏形。
 
1936年,英国数学家阿兰・图灵(AlanTuring)构想出了图灵机,它是计算机的理论模型,圆满地刻画了机械化运算过程的含义,并最终为计算机的发明铺平了道路。
 
这一年,图灵向伦敦权威的数学杂志投一篇论文,题为“论数字计算在决断难题中的应用”。在这篇开创性的论文中,图灵给“可计算性”下了一个严格的数学定义,并提出著名的“图灵机”(Turing Machine)的设想。
 
“图灵机”不是一种具体的机器,而是一种思想模型,可制造一种十分简单但运算能力极强的计算装置,用来计算所有能想象得到的可计算函数。
 

  
1943年,神经学家沃伦·麦卡洛克(Warren McCulloch)和数学家沃伦·皮茨(Walter Pitts)合著了《神经活动中固有的思维逻辑运算》(ALogical Calculus of the Ideas Immanent in Nervous Activity),他们提出将数学和算法的结合,建立了神经网络的数学模型,以模仿人类的思维活动。
 
他们研发出了第一个人工神经网络(Artificial Neural Network),机器学习领域中的人工神经网络大门由此开启
 
这一时期科学家对于人工智能的研究着重于探索神经病学、信息理论及控制论之间的联系,由此构造出基于电子网络的初步智能。
 
而这一研究方法并未持续多久。20世纪50年代后,由于计算机研制成功,研究者开始探索人类智能是否能简化成符号处理。直到20世纪80年代,人们再次关注到人工神经网络和联结主义。
 
 
在提出“图灵机”的设想后,1950年,图灵发表了一篇划时代的论文,文中预言了创造出具有真正智能的机器的可能性。也正是这篇文章,为图灵赢得了“人工智能之父”的桂冠。
 
由于注意到“智能”这一概念难以确切定义,他提出了著名的图灵测试:若某台机器能够让人无法判断出自己究竟是在和人交谈还是在和机器交谈,那么就证明这台机器是智能的。
 
这一构想使得人们开始相信“能够思考的机器”是可能的。
 
随着计算机的发展,人们对于人工智能的研究开始侧重于符号处理研究,这一研究方法也被称为老式人工智能(Geod old-Fashioned AI,简称GOFAI)。研究主要集中在卡内基梅隆大学,斯坦福大学和麻省理工学院,而各自有独立的研究风格。
 
 
1955年,卡内基梅隆大学的Allen Newell、Herbert Simon和Cliff Shaw共同撰写了第一个人工智能计算机程序“Logic Theorist”。
 
这是一个解决问题的计算机模拟程序,第一个刻意模仿人类解决问题技能的程序。它采用产生式系统的结构,以逆向搜索为主要工作策略,参照适当的启发法,成为第一个启发式的产生式系统和第一个成功的人工智能系统。
 
它的成功支持了物理符号系统理论,加速了信息加工观点在心理学中的渗透,开辟了人工智能这一新的科学领域,开创了计算机模拟这一认知心理学方法。尽管对计算机模拟在心理学中的意义尚有待讨论,但逻辑理论家的成功,已经被公认为认知心理学兴起的一个标志性事件。
 
为了在计算机上实现逻辑理论,这三位研究人员开发了一种编程语言,即IPL(Information Processing Language),它使用了相同的符号列表处理形式,后来在此基础上,形成了麦卡锡的Lisp编程语言。Lisp编程语言是人工智能研究人员仍在使用的一种重要语言。
 
 
后来,Newell和Simon在卡内基梅隆大学建立了第一批人工智能实验室之一,并研发了一系列有影响力的人工智能程序和理论,包括GPS(General Problem Solver)、Soar和统一认知理论。
 
1956年夏天,在美国新罕布什尔州达特茅斯学院举行了为期一个月的会议,这次会议在人工智能史上的地位就相当于物理史上的第五届索尔维会议,汇集了人工智能领域的多位顶尖科学家。
 
在这次会议上,人们提出了这样一个猜想,即“原则上可以精确地描述智能的每一个特征,从而能够制造一台机器来模拟”。会议的组织者包括计算机科学家约翰·麦卡锡(John McCarthy)、认知科学家马文·明斯基(Marvin Minsky)、数学家克劳德·香农(Claude Shannon)和计算机科学家纳撒尼尔·罗切斯特(Nathan Rochester),参与者还包括政治学博士赫伯特·西蒙(Herbert Simon)和计算机科学家艾伦·纽厄尔(Allen Newell),这些人全都在人工智能领域做出了巨大的贡献。
 
他们在这次会议共同确定了人工智能的名称和任务,标志着人工智能这门学科的正式诞生。
 
  
自此,迎来了人工智能的黄金时代。
 
 
在理论沉淀过后,人工智能研究进入了长达二十年的黄金时代,相继取得了一批令人瞩目的研究成果,如机器定理证明、跳棋程序等,掀起人工智能发展的第一个高潮。
 
在这个黄金时代里,麦卡锡开发了Lisp语言,成为几十年来人工智能领域最主要的编程语言;明斯基对神经网络有了更深入的研究,也发现了简单神经网络的不足;多层神经网络、反向传播算法开始出现;专家系统也开始起步。
 
从1952年开始,IBM科学家Arthur Samuel研制了具有学习功能的跳棋程序,该程序能够从棋谱中学习,也能通过实践经验提高棋艺,他定义了一个新词——机器学习(Machine Learning,ML)。到1962年,Samuel的程序第一次获得跳棋州冠军。
 
1957年,康奈尔大学FrankRosenblatt发明了感知机(Perceptron),这不仅是人工神经网络的典型结构,同时也是支持向量机的基础,在当时引起了不小的轰动。
 
然而由于Rosenblatt等人没能够及时推广感知机学习算法到多层神经网络上,造成了人工神经领域发展的长年停滞及低潮,直到人们认识到多层感知机没有单层感知机固有的缺陷及在80年代反向传播算法的提出,才有所恢复。
 
1958年,斯坦福大学人工智能实验室主任约翰·麦卡锡开发了表处理编程语言Lisp,成为后来人工智能研究中最流行的编程语言。
 
而Lisp至今仍不过时的原因,则是因为它的基础是数学,而不是当时的硬件架构。硬件会过时,但数学不会。
 
最初,麦卡锡本来没打算把Lisp设计成编程语言,至少不是现在意义上的编程语言。他的原意只是想做一种理论演算,用更简洁的方式定义图灵机。
 
而在60年代,J.A.Robinson提出归结法(Resolutionprinciple),可将大部分人工智能问题转化为一个定理证明问题。T.M.Cover和P.E.Hart提出KNN(K-NearestNeighbor)最邻近分类算法,使计算机可以进行简单的模式识别。
 
1961年,当时的机械工程专业学生詹姆斯·L·亚当斯(JamesL.Adams)发明了斯坦福购物车,这是一种配备了电视的遥控移动机器人。在1979年,“滑块”或机械旋转装置从侧面移动了电视摄像机,另一面是当时的博士生Hans Moravec添加的。推车在大约五个小时内成功地穿越了一个充满椅子的房间,没有人为干扰,使其成为自动驾驶汽车的最早例子之一。
 
  
1965年,计算机科学家兼教授约瑟夫·魏曾鲍姆(Joseph Weizenbaum)开发了ELIZA,这是一种交互式计算机程序,可以与人进行英语交谈。Weizenbaum的目标是证明人工智能思维与人类思维之间的交流是“肤浅的”,但后来许多人将人工智能的拟人化特征归因于ELIZA。
 
Weizenbaum开发了最早的聊天机器人ELIZA,用于在临床治疗中模仿心理医生。ELIZA的实现技术是通过关键词匹配规则对输入进行分解,而后根据分解规则所对应的重组规则来生成回复。简而言之,就是将输入语句类型化,再翻译成合适的输出。
 
近年来,人机对话交互技术成为人工智能的热点领域。众多业界公司相继推出了人机对话技术相关产品,如个人事务助理、手机助理、虚拟情感陪护机器人、娱乐型聊天机器人、智能音箱等等,并将人机对话交互技术作为其公司的重点研发方向。目前比较知名的产品有:Amaze的Alexa、Google的GoogleAssistant、Apple的Siri等等。
 
作为聊天机器人始祖,就连Siri也认为ELIZA是ta的启蒙老师。
 

  
1965年,爱德华·费根鲍姆(Edward Feigenbaum)等人在总结通用问题求解系统的成功与失败经验的基础上,结合化学领域的专门知识,研制了世界上第一个专家系统DENDRAL。DENDRAL中保存着化学家的知识和质谱仪的知识,可以根据给定的有机化合物的分子式和质谱图,从几千种可能的分子结构中挑选出一个正确的分子结构。
 
专家系统是一个智能计算机程序系统,其内部含有大量的某个领域专家水平的知识与经验,能够利用人类专家的知识和解决问题的方法来处理该领域问题。简而言之,专家系统是一种模拟人类专家解决领域问题的计算机程序系统。
 
专家系统通常由人机交互界面、知识库、推理机、解释器、综合数据库、知识获取等6个部分构成。其中尤以知识库与推理机相互分离而别具特色。专家系统的体系结构随专家系统的类型、功能和规模的不同,而有所差异。
 
  
如今,专家系统已由第一代专家系统如dendral,向具有多知识库、多主体的第四代专家系统过渡和发展。
 
1966年,卡内基梅隆大学博士生Ross Qullian展示了语义网络可以使用图形来建模人类知识的结构和存储。Quillian希望通过它们之间的关系来探索英语单词的含义。这些图的特征是通过线连接的节点。每个节点代表网络“知道”的概念或单词,节点之间的线代表关系。
 
后来,在2001年,TimBerners-Lee等学者提出了语义网络的新的应用场景:语义网(semanticweb),其偏重于数据在不同应用中的共享和重用。
 
由于语义网络可以使用图结构更好地表示自然语言的结构,其常常用于机器翻译、问答系统和自然语言理解。
 
 
1969 年,明斯基和Seymour Papert在出版的《感知器:计算几何简介》一书中强烈地批判了感知器模型:首先,单层的神经网络无法解决不可线性分割的问题,典型例子如异或门;其次,当时的计算能力低下无法支持神经网络模型所需的计算量。此后的十几年,以神经网络为基础的人工智能研究进入低潮。
 
1970年,第一个拟人化机器人WABOT-1在日本早稻田大学建造。它的功能包括可移动的四肢,看见的能力和交谈的能力。
 

  
在蓬勃发展的这二十年里,这些成就使人们对人工智能的发展过于乐观,甚至断言“二十年之内,机器将能完成人能做到的一切”。
 
这一时期的研究经费十分充裕,且研究范围十分宽泛,并没有需要做出明确成果的要求。
 
1963年6月,MIT从新建立的ARPA(即后来的DARPA,国防高等研究计划局)获得了二百二十万美元经费,用于资助MAC工程,其中包括Minsky和McCarthy五年前建立的AI研究组。此后ARPA每年提供三百万美元,直到七十年代为止。
 
ARPA还对Newell和Simon在卡内基梅隆大学的工作组以及斯坦福大学AI项目(由JohnMcCarthy于1963年创建)进行类似的资助。另一个重要的AI实验室于1965年由DonaldMichie在爱丁堡大学建立。在接下来的许多年间,这四个研究机构一直是AI学术界的研究(和经费)中心。
 
这期间经费几乎是无条件地提供的。时任ARPA主任的J.C.R.Licklider相信他的组织应该“资助人而不是项目”,并且允许研究者去做任何感兴趣的方向。
 
这导致了当时无约无束的研究氛围及黑客文化的形成,但是好景不长。
 
 
当事实证明,人工智能将比原先的预期花费更多的时间来实现时,众多科技投资机构中纷纷传出了不满的流言蜚语,这一切在1973年发布的《莱特希尔报告》(Lighthill Report)中得到了明确的体现。
 
1973年,《莱特希尔报告》针对英国AI研究状况批评了AI在实现其“宏伟目标”上的完全失败。这份报告严厉批评了人工智能领域里的许多基本研究,特别是机器人和自然语言处理等知名子领域,还重点突出了人工智能中的“组合问题”,即当变量数量增加时,涉及两个或三个变量的简单计算就会变得很棘手。而这导致了英国AI研究的低潮。
 
由于缺乏进展,对AI提供资助的机构(如英国政府、DARPA和NRC)对无方向的AI研究逐渐停止了资助。
 
早在1966年ALPAC(Automatic Language Processing Advisory Committee,自动语言处理顾问委员会)的报告中就有批评机器翻译进展的意味,已然预示了这一局面的来临。
 
英国政府停止了对AI研究的资助;NRC(National Research Council,美国国家科学委员会)在拨款二千万美元后停止资助;DARPA则对卡耐基梅隆大学的语音理解研究项目深感失望,从而取消了每年三百万美元的资助。
 
到1974年,已经很难再找到对AI项目的资助。
 
卡内基梅隆大学移动机器人实验室主任Hans Moravec则是将批评归咎于他的同行们不切实际的预言:“许多研究者落进了一张日益浮夸的网中”。
 
除了人们对AI研发变现遥遥无期的担忧,自从1969年Mansfield修正案通过后,DARPA被迫只资助“具有明确任务方向的研究,而不是无方向的基础研究”。60年代那种对自由探索的资助一去不复返,此后资金只提供给目标明确的特定项目,比如自动坦克,或者战役管理系统。
 
1976年,Douglas Lenat发表博士论文An Artificial Intelligence Approach to Discovery in Mathematics as Heuristic Search,该文章描述了一个名为“AM”的程序,它模拟了初等数学研究的一个内容:在大量启发式规则的指导下开发新概念数学。
 
一开始提供一百个非常不完整的模,每个模对应一个基本的集合概论(如并集),这就为AM探索提供了一个明确但巨大的“空间”。AM扩展了它的知识库,最终重新发现了数百个常见的概念和定理。
 
1976年,视觉计算理论(computational theory of vision)在1976年由David Marr明确提出,奠定了计算视觉领域的基础。它包含两个领域:一个是计算机视觉(Computer Vision),一个是计算神经学(Computational Neuro science)。他的工作对认知科学(Cognitive Science)也产生了很深远的影响。
 
1976年,Randall Davis在斯坦福大学获得人工智能博士学位,并发表文章《Applications of Meta Level Knowledge to the Construction,Maintenance and Use of Large Knowledge Bases》,此文提出:使用集成的面向对象模型是提高知识库(KB)开发、维护和使用的较为完整的解决方案。共享对象增加了模型之间的跟踪能力,增强了半自动开发和维护功能。而抽象模型是在知识库构造过程中创建的,推理则是在模型初始化过程中执行的。
 
虽然这一时期AI研究相对停滞,但机器学习、计算机视觉、自动驾驶等人工智能领域中最为重要的现实应用开始萌芽,人们更加关注人工智能的现实应用。
 
另一方面,这也给科研人员一个极好的警示,盲目乐观从来不是科学家对于科研对于社会应有的一个态度。
 
同时,一些“反逻辑”研究者认为要解决计算机视觉和自然语言处理的困难问题,需要专门的方案。随着1970年出现大容量内存计算机以及知识库的构建,人们意识到许多简单的人工智能软件可能需要大量的知识。
 
 
第一个人工智能寒冬大概持续了十年。在20世纪80年代,由于专家系统的发展和日本推出的“第五代计算机计划”(采用大规模并行编程),人工智能出现了又一次繁荣。
 
1981年,日本经济产业省拨款八亿五千万美元支持第五代计算机项目。其目标是造出能够与人对话、翻译语言、解释图像并且像人一样推理的机器。
 
其他国家纷纷作出响应。英国开始了耗资三亿五千万英镑的Alvey工程;美国一个企业协会组织了MCC(Micro electronics and Computer Technology Corporation,微电子与计算机技术集团),向AI和信息技术的大规模项目提供资助;DARPA也行动起来,组织了战略计算促进会(Strategic Computing Initiative),其1988年向AI的投资是1984年的三倍。
 
专家系统在这一时期开始获得赏识。1965年设计的专家系统Dendral能够根据分光计读数分辨混合物,1972年设计的专家系统MYCIN能够诊断血液传染病。
 
专家系统模拟人类专家的知识和经验解决特定领域的问题,实现了人工智能从理论研究走向实际应用、从一般推理策略探讨转向运用专门知识的重大突破。专家系统在医疗、化学、地质等领域取得成功,推动人工智能走入应用发展的新高潮。
 
1980年,卡耐基梅隆大学为DEC(Digital Equipment Corporation,数字设备公司)设计了一个名为XCON的商用专家系统,这是一个巨大的成功。从投入使用到1986年之前,它每年为公司省下四千万美元。
 
全世界的公司都开始研发和应用专家系统,到1985年它们已在AI上投入十亿美元以上,大部分用于公司内设的AI部门。同时,为之提供支持的产业应运而生,其中包括Symbolics,Lisp Machines等硬件公司和Intelli Corp,Aion等软件公司。
 
沉寂10年之后,神经网络又有了新的研究进展。1980年日本学者Fukushima在基于感受野的概念基础之上,提出了神经认知机(Neocognitron)。
 
神经认知机是一个自组织的多层神经网络模型,每一层的响应都由上一层的局部感受野(Local Receptive Fields)激发得到,对于模式的识别不受位置、较小形状变化以及尺度大小的影响。神经认知机可以理解为卷积神经网络的第一版,核心点在于将视觉系统模型化,并且不受视觉中的位置和大小等影响。
 
 
而后,关于自动驾驶进入了实验阶段。1986年,美国卡内基梅隆大学的研究人员Dean Pomerleau花费了8年的时间,研发出了一套名叫ALVINN(Autonomous Land VehicleIna Neural Network)的无人驾驶系统,并用在了NAVLAB货车上。
 
这辆货车从宾夕法尼亚州匹兹堡到加州圣地亚哥行驶了2797英里,成功实现了自动驾驶,成为自动驾驶的祖师爷。虽然它的技术在今天来看非常原始,但是它证明了自动驾驶是可以实现的。
 

  
同年7月,Geoffrey Hinton 和 David Rumelhart合作在《自然》发表论文,系统地提出了应用反向传播算法,把纠错的运算量下降到只和神经元数目成正比。同时,通过在神经网络里增加一个所谓隐层 (hidden layer),反向传播算法同时也解决了感知器无法解决的异或门难题。
 
反向传播算法的提出,解决了明斯基对感知器的尖锐批判问题,人们对于基于神经网络的人工智能质疑逐渐被消除。
 
这一时期,1980年卡耐基梅隆大学研发的XCON正式投入使用,这成为一个新时期的里程碑。专家系统开始在特定领域发挥威力,也带动整个人工智能技术进入了一个繁荣阶段。
 
神经网络有了新的研究进展,具有学习能力的神经网络算法的发现,这使得神经网络一路发展,在90年代开始商业化,被用于文字图像识别和语音识别。
 
 
1987年,随着人工智能硬件市场的崩溃,人工智能迎来了第二个冬天。苹果和IBM迭代升级的电脑以压倒性的优势掠夺了基于人工智能的Lisp机的市场,从而瓦解了人工智能硬件市场。
 
Apple和IBM生产的台式机性能不断提升,到1987年时其性能已经超过了Symbolics和其他厂家生产的昂贵的Lisp机。老产品失去了存在的理由,一夜之间这个价值五亿美元的产业土崩瓦解。
 
XCON等最初大获成功的专家系统维护费用居高不下。它们难以升级、难以使用且脆弱(当输入异常时会出现莫名其妙的错误)。由于专家系统的实用性仅仅局限于某些特定情景,随着在使用过程汇总各种各样的问题持续暴露,专家系统失去了其优势。
 
到了80年代晚期,DARPA的新任领导认为AI并非“下一个浪潮”,其倾向于拨款给那些看起来更容易出成果的项目,战略计算促进会大幅削减对AI的资助。
 
1991年,人们发现十年前日本人宏伟的“第五代工程”并没有实现。其中一些目标,比如“与人展开交谈”,直到2010年也没有实现。与其他AI项目一样,人们的期望比真正可能实现的要高得多。
 
事物的发展总是螺旋式上升的,也总是惊人的相似。这一时期,人们关于人工智能的热潮退去,留下了更明确更有方向的关于其未来发展的思考。
 
而在此期间,汽车巨头持续研究自动驾驶。1986年,梅赛德斯-奔驰在Ernst Dickmanns的指导下建造并发布了一辆配备摄像头和传感器的无人驾驶厢式货车。它能够在没有其他障碍物和人类驾驶员的道路上行驶高达55英里/小时。
 
机器人程序员开发了能够更自然地与人沟通的机器人。1988年,聊天机器人的程序员和发明者Rollo Carpenter开发了Jabberwacky,它能够以趣和幽默的方式模拟自然人类聊天。这是聊天机器人与人沟通的AI示例。
 
一种处理不确定性信息的主流技术诞生,分析海量数据的问题得以解决。1988年,计算机科学家和哲学家JudeaPearl发表了《智能系统中的概率推理》论文。Pearl非常重要的一个成果,则是发明了贝叶斯网络(Bayesian network),这是一种概率图形模型,通过有向无环图(DAG)表示变量及其依赖关系。
 
贝叶斯网络适用于表达和分析不确定性和概率性的事件,应用于有条件地依赖多种控制因素的决策,可以从不完全、不精确或不确定的知识或信息中做出推理。
 
20世纪80年代丹麦Aalborg大学的研究人员首先将BN运用于神经肌肉疾病的诊断,这项研究产生了第一个BN商业软件HUGIN。随后,BN被大量地运用于医学诊断和DNA生物鉴别,在金融风险预测、刑侦推理等领域BN也有许多运用,
 
1990年,Pearl Chesseman、Whittaker和Spiegelhalter借助贝叶斯网络将概率理论引入了人工智能。贝叶斯网络非常适合处理已发生的事件,并预测几种可能的已知原因中的任何一个是促成因素的可能性。
 
作为一种基于概率的不确定性推理方法,贝叶斯网络在处理不确定信息的智能化系统中已得到了重要的应用,已成功地用于医疗诊断、统计决策、专家系统、学习预测等领域。
 
 
经过一系列起伏,人工智能从1993年开始,到现在一直处于繁荣的状态。
 
1993年,麻省理工学院开始生产外观与人类相似的机器人。这一年,开发机器人踢足球自主机器人的全球RoboCup计划开始出现。
 
1995年,借助统计学习理论,Vapnik进一步开发了支持向量机(Support Vector Machine, SVM),这在当今非常重要。
 
Vapnik和Corinna Cortes提出了软边距的非线性SVM并将其应用于手写字符识别问题,这份研究在发表后得到了关注和引用,为SVM在各领域的应用提供了参考。
 
这一年,计算机科学家Richard Wallace在Weizenbaum的ELIZA的启发下开发了聊天机器人ALICE(人工语言互联网计算机实体)。ALICE与ELIZA的区别在于增加了自然语言样本数据收集。

 
1997年,IBM的超级计算机Deep Blue击败了世界著名的国际象棋手Garry Kasparov。Deep Blue是IBM开发的国际象棋计算机。
 
1998年,Furby,第一个基于人工智能的电子机器人玩具被推向市场。
 
2003年,Robocup中的机器人令人印象深刻地展示了AI和机器人技术能够实现的功能。
 
2006年,Geoffrey Hinton以及他的学生正式提出了深度学习的概念。他们在世界顶级学术期刊《科学》发表的一篇文章中详细的给出了“梯度消失”问题的解决方案——通过无监督的学习方法逐层训练算法,再使用有监督的反向传播算法进行调优。
 
该深度学习方法的提出,立即在学术圈引起了巨大的反响,以斯坦福大学、多伦多大学为代表的众多世界知名高校纷纷投入巨大的人力、财力进行深度学习领域的相关研究。而后又在迅速蔓延到工业界中。
 
2006年,计算机科学家Oren Etzioni、Michele Banko和Michael Cafarella创造了“机器阅读”一词,将其定义为对文本的无监督自主理解。
 
2007年,计算机科学教授Fei Fei Li和他的同事组建了ImageNet,这是一个带注释图像的数据库,其目的是帮助进行对象识别软件的研究。
 
2009年,首批Google自动驾驶汽车在加利福尼亚高速公路上行驶。同年,Waymo作为Google无人驾驶汽车项目开始。
 
2010年,ImageNet公司发起了ImageNet大规模视觉识别挑战赛(ILSVRC),这是他们的年度AI对象识别竞赛。
 
2011年, Apple发布了Apple iOS操作系统上的虚拟助手Siri。Siri使用自然语言的用户界面来推断、观察、回答并向人类用户推荐事物。它适应语音命令并为每个用户提供“个性化的体验”。
 

 
2011年,IBM的“Watson”在电视游戏节目“Jeopardy!”中击败了两个人类冠军。最重要的是,Watson懂自然语言,可以很快回答难题。
 
2012年,谷歌研究人员杰夫·迪恩(Jeff Dean)和吴恩达训练了一个由16,000个处理器组成的大型神经网络,通过向其展示YouTube视频中的1000万张未标记图像来识别猫的图像。
 
2013年,卡耐基梅隆大学的一个研究小组发布了永无止境的图像学习器(NEIL),这是一种语义机器学习系统,可以比较和分析图像关系。
 
2014年,微软发布了Cortana,其虚拟助手版本类似于iOS上的Siri。亚马逊创建了家庭助理亚马逊Alexa,后者已发展成为用作个人助理的智能扬声器。
 
2015年,戴姆勒进入高速公路上的第一辆自动驾驶卡车。Google无人驾驶汽车已经行驶了超过一百万英里,并在城市中运营。
 
这一年,深度学习可实现出色的图像分类,可以通过深度学习自动生成旧大师风格的绘画。人工智能变得更具创造力。
 
2016年,Google基于深度学习开发的AlphaGo在1月以5:0击败了欧洲冠军,而在3月则以4:1击败了世界最佳围棋选手之一的韩国选手LeeSedol。深度学习技术开始应用于模式识别以及强化学习。
 
2016年,Hanson Robotics创建了名为Sophia的类人机器人。她是历史上首个获得公民身份的机器人。Sophia与先前的类人动物的区别在于她与实际人类的相似之处,她具有观察(图像识别),面部表情和通过AI进行交流的能力。
 

  
2017年, Facebook人工智能研究实验室培训了两个“对话代理”(聊天机器人)进行相互交流,以学习如何进行谈判。但是,正如聊天机器人所交谈的那样,他们与人类语言(用英语编程)有所不同,并发明了自己的语言相互交流,从而在很大程度上展示了人工智能。
 
2018年,IBM Project Debater是第一个可以就复杂话题对人类进行辩论的AI系统。Project Debater可以处理大量文本,针对给定主题构建结构合理的语音。而且,它可以清晰,有目的地发表演讲。最终,ProjectDebater将通过提供有力的,基于证据的论据并限制情感,偏见或歧义的影响来帮助人们进行推理。
 
这一时期,人工智能主要解决了3个问题:
 
1. 进一步改进了算法
 
2006年,Geoffrey Hinton 和合作者发表论文《深信度网络的一种快速算法》。在这篇论文里, Hinton 在算法上的核心是借用了统计力学里的“玻尔兹曼分布”的概念,使用所谓的“限制玻尔兹曼机” (RBM)来学习。
 
RBM 相当于一个两层网络,可以对神经网络实现“没有监督的训练” (unsupervised training)。深信度网络就是几层 RBM 叠加在一起,RBM可以从输入数据中进行预先训练,自行发现重要特征,对神经网络连接的权重进行有效的初始化。经过RBM预先训练初始化后的神经网络,再用反向传播算法微调,效果得到大幅度提升。
 
由此掀起了机器学习的热潮。
 
2. 使用GPU提高计算能力
 
2009年6月,斯坦福大学的Rajat Raina和吴恩达(Andrew Ng)合作发表论文《用GPU大规 模无监督深度学习》,论文模型里的参数总数(就是各层不同神经元之间链接的总数)达到1 亿。与之相比,Hinton在2006年的论文里用到的参数数目只有170万。
 
论文结果显示,使用GPU 的运行速度和用传统双核CPU相比,最快时要快近70倍。在一个四层、1亿个参数的深信度网络 上,使用GPU把程序运行时间从几周降到一天。
 
3. 海量的训练数据
 
2012 年还在斯坦福大学做研究生的黎越国 (Quoc Viet Le) 领衔,和他的导师吴恩达,以及众多谷歌的科学家联合发表论文《用大规模无监督学习建造高层次特征》。在黎越国文章中,用于训练这个神经网络 的图像都是从谷歌的录像网站youtube上截屏获得。1000万个原始录像,每个录像只截取一张图片,每张图片有4万个像素。
 
与之相比,先前大部分论文使用的训练图像,原始图像的数目大多在10万以下,图片的像素大多不到1000。黎越国的计算模型分布式地在1000台机器 (每台机器有16个CPU内核)上运行,花了三天三夜才完成培训。
 
互联网的大规模普及,智能手机的广泛使用,使得规模庞大的图像数据集能够被采集,并在云端集中存储处理。大数据的积累为深度学习提供了数据保障。
 
人工智能发展至今,其市场发展以及技术应用已不言而喻。
 
根据普华永道数据预测,受到下游需求倒逼和上游技术成型推动的双重动因,预计未来几年全球人工智能市场将继续保持高速增长,到2030年全球市场规模将达到15.7万亿美元的规模,约合人民币104万亿元,2020-2030年年复合增长率为23%。
 
经过近70年的发展,人工智能正处于从“不能用”到“可以用”的技术拐点,但是距离“很好用”还有诸多瓶颈。
 
从专用智能向通用智能发展,如何实现从专用人工智能向通用人工智能的跨越式发展,这是下一代人工智能发展的必然趋势的重大挑战。
 
关于人工智能的未来,一直是备受关注的一个问题。从弱人工智能到强人工智能,再到超人工智能,人们一直期待着奇点的到来。
 
参考:
[1]https://omette.com/history-of-artificial-intelligence/
[2]https://learn.g2.com/history-of-artificial-intelligence
[3]https://www.forbes.com/sites/robtoews/2020/10/12/the-next-generation-of-artificial-intelligence/?sh=6bae980559eb
[4]AI:人工智能的本质与未来,中国人民大学出版社,玛格丽特·博登
[5]人工智能的历史、现状和未来,《智慧中国》,谭铁牛
[6]人工智能的历史回顾和发展现状,《自然杂志》,顾险峰
 
—End—

相关阅读:
人工智能发展史上的114个里程碑
2021人工智能最具影响力的100人
正面人工智能,反面量子计算
量子计算诞生40年后,回望那些历史上的重要时刻
量子计算史上的72个重大时刻
2020人工智能医疗投融资报告

#光子盒社群招募中#

进入光子盒社群,与我们近距离互动,了解量子领域更多产业、商业、科技动态,领取量子技术产业报告。
 
现添加社群助手微信Hordcore即可进群 ,与我们一起展望未来!

你可能会错过:
: . Video Mini Program Like ,轻点两下取消赞 Wow ,轻点两下取消在看

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存