光辉岁月:人工智能简史

从1950年至今,人工智能经历了起起伏伏。

横空出世

早在 上世纪四五十年代,数学家和计算机工程师已经开始探讨用机器模拟智能的可能。

1950 年,艾伦.图灵(Alan Turing)在他的论文《计算机器与智能》( Computing Machinery and Intelligence)中提出了著名的图灵测试(Turing test)。在图灵测试中,一位人类测试员会通过文字与密室里的一台机器和一个人自由对话。如果测试员无法分辨与之对话的两个实体谁是人谁是机器,则参与对话的机器就被认为通过测试。虽然图灵测试的科学性受到过质疑,但是它在过去数十年一直被广泛认为是测试机器智能的重要标准,对人工智能的发展产生了极为深远的影响。

1951年夏天,当时普林斯顿大学数学系的一位24岁的研究生马文.闵斯基(Marvin Minsky) 建立了世界上第一一个神经网络机器SNARC (Stochastic Neural Analog Reinforcement Calculator)。在这个只有40个神经元的小网络里,人们第一次模拟了神经信号的传递。这项开创性的工作为人工智能奠定了深远的基础。闵斯基由于他在人工智能领域的一系列莫基性的贡献,在1969年获得计算机科学领域的最高奖图灵奖(Turing Award)。

1955年,艾伦.纽厄尔(Allen Newell)、 赫伯特.西蒙( Herbert Simon)和克里夫.肖(Cliff Shaw)建立了一个名为“逻辑理论家”( Logic Theorist)的计算机程序来模拟人类解决问题的技能。这个程序成功证明了一部大学数学教科书里面52个定理中的38个,甚至还找到了比教科书中更优美的证明。这项工作开创了一种日后被广泛应用的方法:搜索推理( reasoning)。

1956年,闵斯基、约翰.麦卡锡(John McCarthy)、克劳德.香农(Claude Shannon)和纳撒尼尔.罗切斯特(Nathan Rochester)在美国的达特茅斯学院组织了一-次讨论会。这次会议提出:

“学 习和智能的每一个方面都能被精确地描述,使得人们可以制造一台机器来模拟它。”

这次会议为这个致力于通过机器来模拟人类智能的新领域定下了名字一“人工智能”(Artificial Intelligence, AI), 从而正式宣告了人工智能作为一门学科的诞生。

第一次浪潮(1956–1974):伟大的首航

人工智能的诞生震动了全世界,人们第一次看到了智慧通过机器产生的可能。当时有人乐观地预测,一台完全智能的机器将在20年内诞生。虽然到现在我们还没看到这样一台机器的身影, 但是它的诞生所点燃的热情确实为这个新生领域的发展注人了无穷的活力。

1963年,当时刚成立的美国高等研究计划局(ARPA) 投入了两百万美元给麻省理工学院,开启了新项目Project MAC ( The Project onMathematics and Computation)。 不久后,当时最著名的人工智能科学家闵斯基和麦卡锡加入了这个项目,并推动了在视觉和语言理解等领域的一系列研究。 Project MAC培养了一大批最早期的计算机科学和人工智能人才,对这些领域的发展产生了非常深远的影响。这个项目也是现在赫赫有名的麻省理工学院计算机科学与人工智能实验室(MIT CSAIL)的前身。

在巨大的热情和投资的驱动下,一系列新成果在这个时期应运而生。麻省理工学院的约瑟夫.维森鲍姆(Joseph Weizenbaum)教授在1964年到1966年间建立了世界上第一个自然语言对话程序ELIZA。ELIZA通过简单的模式匹配和对话规则与人聊天。虽然从今天的眼光来看这个对话程序显得有点简陋,但是当它第一次展露在世人面前的时候,确实令世人惊叹。日本早稻田大学也在1967年到1972年间发明了世界上第一个人形机器人,它不仅能对话,还能在视觉系统的引导F在室内走动和抓取物体。

期望越高,失望越大。虽然人工智能领域在诞生之初的成果层出不穷,但还是难以满足社会对这个领域不切实际的期待。由于先驱科学家们的乐观估计一直无法实现,从70年代开始,对人工智能的批评越来越多。在领域内,百花齐放的背后各种问题也逐步显露出来。一方面,有限的计算能力和快速增长的计算需求之间形成了尖锐的矛盾:另方面,视觉和自然语言理解中巨大的可变性与模糊性等问题在当时的条件下构成了难以逾越的障碍。随着公众热情的消退和投资的大幅度削减,人工智能在70年代中期进入了第一个冬天。

第二次浪潮(1980- -1987):专家系统的兴衰

进入80年代,由于专家系统(expert system) 和人工神经网络(artificial neuralnetwork)等技术的新进展,人工智能的浪潮再度兴起。

专家系统是一种基于一-组特定规则来回答特定领域问题的程序系统。早在20世纪60年代,爱德华.费根鲍姆( Edward Feigenbaum)已经开始了对专家系统的早期研究。他因此被称为“专家系统之父”。在70年代,斯坦福大学的科学家们开发了一-套名为MYCIN的系统,它可以基于600条人工编写的规则来诊断血液中的感染。

到了1980年,卡耐基梅隆大学为迪吉多公司(DEC)开发了一套名为XCON的专家系统,它可以帮助迪吉多公司根据客户需求自动选择计算机部件的组合。这套系统当时每年可以为迪吉多公司节省4000万美元。XCON的巨大商业价值服大激发了工业界对人工智能尤其是专家系统的热情。

值得-提的是,专家系统的成功也逐步改变了人工智能发展的方向。科学家们开始专注于通过智能系统来解决具体领域的实际问题,尽管这和他们建立通用智能的初衷并不完全致。

与此同时,人工神经网络的研究也取得了重要进展。1982 年,约翰.霍普菲尔德(John Hopfield)提出了一种新型的网络形式,即霍普菲尔德神经网络( Hopfieldnet),在其中引人了相联存储( associative memory)的机制。1986 年,大卫,鲁梅尔哈特( David Rumelhart)、 杰弗里.辛顿(Geoffrey Hinton)和罗纳德.威廉姆斯(Ronald Williams)联合发表了有里程碑意义的经典论文:《通过误差反向传播学习表示》(Learning representaions by back-propagating errors)。 在这篇论文中,他们通过实验展示,反向传播算法(backpropagation) 可以在神经网络的隐藏层中学习到对输人数据的有效表达。从此,反向传播算法被广泛用于人工神经网络的训练。

在新一次人工智能浪潮兴起的同时,8本通商产业省在1982年雄心勃勃地开始了旨在建造“第五代计算机”的大型研究计划。这个计划的目标是通过大规模的并行计算来达到类似超级计算机的性能并为未来的人工智能发展提供平台。遗憾的是,经过了10年研发,耗费了500亿日元,这个项目未能达成预期的目标。

到了80年代后期,产业界对专家系统的巨大投人和过高期望开始显现出负面的效果。人们发现这类系统开发与维护的成本高昂,而商业价值有限。在失望情绪的影响下,对人工智能的投入被大幅度削减,人工智能的发展再度步入冬天。

第三次浪潮(2011 年至今):厚积薄发,再造辉煌

时间到了90年代,历经潮起湖落的人工智能已经进入不感之年。虽然年轻时气群天下的雄心遭遇了挫折,但这个领域也变得愈发坚韧。科学家们放下了不切实际的目标,开始专注于发展能解决具体问题的智能技术。

在这段时期里, 研究人工智能的学者开始引入不同学科的数学工具,比如高等代数概率统计与优化理论,这为人工智能打造了更坚实的数学基础。数学语言的广泛运用,打开了人工智能和其他学科交流合作的渠道,也使得成果能得到更为严谨的检验。在数学的驱动下,-大批新的数学模型和算法被发展起来,比如,统计学习理论( statistical learning theory)、支持向量机(support vector machine)、概率图模型(probabilistic graphical model)等。新发展的智能算法被逐步应用于解决实际问题,比如安防监控、语音识别、网页搜索.购物推荐、与自动化算法交易等等。

新算法在具体场景的成功应用, 让科学家们看到了人工智能再度兴起的曙光。

进入了2I世纪,全球化的加速以及互联网的蓬勃发展带来全球范围电子数据的爆炸性增长。人类迈人了“大数据”时代。与此同时,电脑芯片的计算能力持续高速增长。当前一块NVIDIA Tesla V100图形处理器的计算能力已经突破了每秒10万亿次浮点运算,超过了2001年全球最快的超级计算机。

在数据和计算能力指数式增长的支持下,人工智能算法也取得了重大突破。在2012年-次全球范围的图像识别算法竞赛ILSVRC (也称为Image Net挑战赛)中,多伦多大学开发的一个多层神经网络Alex Net取得了冠军,并大幅度超越了使用传统机器学习算法的第二名。这次比赛的成果在人工智能学界引起了广泛的震动。从此,以多层神经网络为基础的深度学习被推广到多个应用领域,在语音识别、图像分析、视频理解等诸多领域取得成功。2016年,谷歌Google)通过深度学习训练的阿尔法狗(AphaGo) 程序在一-场举世瞩目的比赛中以4比I战胜了曾经的国棋世界冠军李世艺(shi)。它的改进版更在2017年战胜了当时世界排名第一的中国棋手柯洁。

这一系列让世人震惊的成就再-次点燃了全世界对人工智能的热情。世界各国的政府和商业机构都纷纷把人工智能列为未来发展战略的重要部分。由此,人工智能的发展迎来了第三次热潮。

发表评论

电子邮件地址不会被公开。 必填项已用*标注