AI 史话

发布时间 2023-04-09 21:10:11作者: 堆码志

达特茅斯会议

1956 年,美国新罕布什尔州达特茅斯学院开了个学术讨论会,与会者包括 John McCarthy、Marvin Minsky 等,来自计算机科学、数学、物理学等不同领域的科学家,目的是共同探索人为制造智慧能力的可能性。这可以认为是人工智能历史上的一个开创性事件。因为当前 AI 的很多概念,此次会议都讨论到了。例如自然语言处理、机器学习等等。并且提出了人工智能的愿景,其中包括创建可以像人类一样推理、学习和交流的智能机器。这一愿景引发了该领域的研究和创新浪潮。

会议前后,John McCarthy 和他的同事开发了第一种 AI 编程语言 LISP。这种语言成为人工智能研究的基础,并一直存在到今天。神之编辑器 Emacs 就是用它开发的。

这次会议还促成了几所大学和研究机构的人工智能研究实验室的建立,包括麻省理工学院、卡内基梅隆大学和斯坦福大学。

除此之外,达特茅斯会议还促进了图灵测试的发展。图灵测试是英国数学家艾伦·图灵提出来的,用以确定机器是否可以表现出与人类相同的智能行为。这个概念在会议上进行了深入讨论,并成为人工智能研究领域的中心思想。直到今天为止,图灵测试仍然是衡量人工智能研究进展的重要基准。

感知器

感知器是由心理学家弗兰克·罗森布拉特于 1958 年设计的人工神经网络架构,它极大的促进了对人工大脑、即用人工智能来模仿人类大脑的发展。

技术上讲,感知器是一个二元分类器,可以学习将输入模式分为两类。它的工作原理是依据一个阈值函数,获取一组输入值,然后计算这些值的加权和,用于确定输出是 1 还是 0。在训练过程中,可以调整权重以优化分类器的性能。

感知器被视为人工智能的一个重要里程碑,因为它展示了机器学习算法模仿人类智能的潜力。它表明,机器可以从经验中学习,并随着时间的推移提高它们的性能,就像人类一样。

达特茅斯会议从理论上引起了人们对人工智能潜力的极大兴奋,但是感知器是人工智能的实际实现,表明该概念可以变成一个工作系统。

感知器最初被吹捧为人工智能的突破,并受到媒体的广泛关注。然而,后来发现该算法有局限性,特别是在对复杂数据进行分类时。这导致在 1960 年代末和 1970 年代对感知器和人工智能研究的兴趣下降。

然而,感知器后来被复兴并整合到更复杂的神经网络中,促成了深度学习和其他形式的现代机器学习的发展。今天,感知器被视为人工智能历史上的一个重要里程碑,并继续被研究和用于开发新的人工智能技术。

六十年代人工智能热潮

上世纪 60 年代的 AI 热潮是人工智能发展取得重大进展和兴趣的时期。这是因为当时计算机科学家和研究人员正在探索创造智能机器的新方法,并对它们进行编程,以执行传统上认为需要人类智能的任务。在 20 世纪 60 年代,感知器的明显缺陷被发现,因此研究人员开始探索感知器以外的其他人工智能方法。他们专注于符号推理、自然语言处理和机器等领域。

这些研究引导了新的编程语言和工具的开发,如 LISP 和 Prolog,它们是专门为人工智能应用程序设计的。这些新工具使研究人员更容易试验新的人工智能技术并开发更复杂的人工智能系统,在此期间,美国政府也对人工智能产生了兴趣,并开始通过国防高级研究计划局(DARPA)等机构资助研究项目。这笔资金加速了人工智能的发展,并为研究人员提供了他们需要的资源,以解决越来越多的问题

六十年代的人工智能热潮最终产生了几个具有里程碑意义的人工智能系统的发展。一个例子是由 Herbert Simon,J.C. Shaw 和 Allen Newell 创建的通用问题解决器(GPS)。GPS 是一种早期的人工智能系统,可以通过搜索可能的解决方案来解决问题。另一个例子是由 Joseph Weizenbaum 创建的 ELIZA 程序,这是一个模拟心理治疗师的自然语言处理程序。

总的来说,上世纪六十年代的人工智能热潮是人工智能研发取得重大进展的时期。当时,研究人员探索了新的人工智能方法,并开发了专门为人工智能应用程序设计的新编程语言和工具,为未来的人工智能发展铺平了道路。

八十年代的 AI 寒冬

20 世纪 80 年代的 AI 寒冬是指人工智能(AI)领域的研究和开发经历了显著放缓的一段时间。这一停滞期大约从 1974 年开始,到 1993 年结束。

正如上一节所讨论的,20 世纪 60 年代的人工智能热潮的特点是人工智能研究和应用的爆炸式增长,但紧接着发生在 20 世纪 80 年代的人工智能寒冬,这是由于在人工智能热潮期间开发的许多人工智能项目未能兑现他们的承诺,人工智能研究社区对该领域缺乏进展越来越失望。这导致了资金削减,许多人工智能研究人员被迫放弃他们的项目,彻底离开这个领域。

上世纪 80 年代 AI 寒冬的特点是,用于 AI 研究的资金大幅下降,投资者和公众对该领域普遍缺乏兴趣。这导致正在开发的 AI 项目数量显著下降,许多仍然活跃的研究项目由于缺乏资源而无法取得重大进展。

尽管人工智能之冬充满挑战,但人工智能领域并没有完全消失。一些研究人员继续致力于人工智能项目,并在此期间取得了重要进展,包括神经网络的发展和机器学习的开始。然而,该领域的进展缓慢,直到 20 世纪 90 年代,人们对人工智能的兴趣才开始重新升温。

尽管如此,20 世纪 80 年代的 AI 寒冬是人工智能历史上的一个重要里程碑,因为它展示了人工智能研发的挑战和局限性。对于投资者和政策制定者来说,这也是一个警世故事,他们意识到围绕人工智能的炒作有时可能被夸大了,该领域的进步需要持续的投资和承诺。

专家系统

专家系统是 20 世纪 80 年代发展起来的一种人工智能(AI)技术。专家系统被设计用来模拟特定领域(如医学、金融或工程)的人类专家的决策能力。在 20 世纪 60 年代和 70 年代初,人们对人工智能及其改变各个行业的潜力充满了乐观和兴奋。然而,正如我们在上一节中所讨论的,这种热情受到了一段被称为 AI 冬天的时期的抑制,这段时期的特点是 AI 研究缺乏进展和资金。

专家系统的发展标志着人工智能历史上的一个转折点,因为人工智能社区面临着提供实用的、可扩展的、健壮的和可量化的人工智能应用程序的压力,专家系统证明了人工智能系统可以用于现实生活系统,并有潜力为企业和行业提供极大便利。专家系统被用于各个领域的自动化决策过程,从诊断医疗状况到预测股票价格等等。
技术上讲,专家系统通常由一个知识库和一个推理引擎组成,知识库包含关于特定领域的信息,推理引擎使用这些信息来推理新的输入并做出决策。专家系统还包含各种形式的推理,如演绎、归纳和推断,以模拟人类专家的决策过程。

专家系统是人工智能历史上的一个重要里程碑,它展示了人工智能技术在实际生活场景中的应用。今天,专家系统继续在各个行业中使用,它们的发展导致了其他人工智能技术的诞生,如机器学习和自然语言处理。

NLP 和计算机视觉

这一时期是人工智能研究和全球化开始提速的时期,也是人工智能进入现代化的时期。正如上一节所讨论的,专家系统大约在 20 世纪 80 年代末和 90 年代初开始发挥作用。然而,专家系统依赖于结构化数据和基于规则的逻辑,这一事实受到了限制。他们很难处理非结构化数据,例如自然语言文本或图像,这些数据本质上是模糊的,并且依赖于上下文。

为了解决这一限制,研究人员开始开发处理自然语言和视觉信息的技术。上世纪七八十年代,NLP 和计算机视觉在基于规则的系统方向上已经取得了一些进展。然而,受限于预定义的规则,它们有无法从数据中学习的缺陷。

到了九十年代,机器学习算法和计算能力的进步导致了更复杂的 NLP 和计算机视觉系统的发展。研究人员开始使用统计方法直接从数据中学习模式和特征,而不是依赖预定义的规则。这种方法被称为机器学习,允许使用更准确和灵活的模型来处理自然语言和视觉信息。

这一时期最重要的里程碑之一是隐马尔可夫模型(HMM)的发展,它允许对自然语言文本进行概率建模。这促成了语音识别、语言翻译和文本分类的重大进步,同样,在计算机视觉领域,卷积神经网络 (CNN) 的出现允许更准确的对象识别和图像分类。这些技术现在被广泛应用自动驾驶、医学成像等领域。

NLP 和计算机视觉的出现代表了人工智能历史上的另一个重要里程碑,因为它允许对非结构化数据进行更复杂和灵活的处理。这些技术仍然是当今人工智能研究和开发的重点,对各行各业的应用都具有重大意义。

大数据的兴起

大数据的概念已经存在了几十年,但它在人工智能(AI)背景下的崛起可以追溯到 21 世纪初。为了给人一种完整的感觉,让我们简单地讨论一下大数据这个术语。

所谓大数据,需要满足 3 个核心属性:体积、速度和多样性。体积指的是数据集的大小,从 tb 到 pb 甚至更大。速度是指数据生成和需要处理的速度。例如,来自社交媒体或物联网设备的数据可以实时生成,需要快速处理。多样性是指生成的数据类型的多样性,包括结构化、非结构化和半结构化数据。

在大数据出现之前,AI 受到用于训练和测试机器学习算法的数据数量和质量的限制。自然语言处理(NLP)和计算机视觉是人工智能的两个领域,在 20 世纪 90 年代取得了重大进展,但它们仍然受到可用数据量的限制。例如,早期的 NLP 系统是基于手工制作的规则,在处理自然语言的复杂性和可变性方面能力有限。大数据的兴起改变了这一点,它提供了从各种来源获取大量数据的途径,包括社交媒体、传感器和其他连接设备。这使得机器学习算法可以在更大的数据集上进行训练,从而使它们能够学习更复杂的模式,并做出更准确的预测。

与此同时,Hadoop 和 Spark 等数据存储和处理技术的进步使得快速有效地处理和分析这些大型数据集成为可能。这导致了新的机器学习算法的发展,例如深度学习,它能够从大量数据中学习并做出高度准确的预测。

现在,大数据仍然是人工智能许多最新进展背后的驱动力,从自动驾驶汽车和个性化医疗到自然语言理解和推荐系统。随着生成的数据量继续呈指数级增长,大数据在人工智能中的作用在未来几年只会变得更加重要。

深度学习

深度学习的出现是现代人工智能全球化的一个重要里程碑,自 20 世纪 50 年代达特茅斯会议以来,人工智能已经被认为是一个合法的研究领域,早期的人工智能研究专注于符号逻辑和基于规则的系统,其中涉及手动编程机器根据一套预定规则做出决策。虽然这些系统在某些应用中很有用,但它们学习和适应新数据的能力有限。

直到大数据兴起之后,深度学习才成为 AI 历史上的一个重要里程碑。随着数据的指数级增长,研究人员需要新的方法来处理并从大量信息中提取见解。深度学习算法为这个问题提供了一个解决方案,它使机器能够自动从大型数据集中学习,并根据这种学习做出预测或决策。

深度学习是一种使用人工神经网络的机器学习,人工神经网络模仿人脑的结构和功能,由相互连接的节点层组成,每个节点对输入数据执行特定的数学功能。一层的输出作为下一层的输入,允许网络从数据中提取越来越复杂的特征。

深度学习的主要优势之一是它能够学习数据的分层表示。这意味着网络可以自动学习识别不同抽象级别的模式和特征。例如,深度学习网络可能会学习识别单个字母的形状,然后是单词的结构,最后是句子的含义。

深度学习的发展在计算机视觉、语音识别和自然语言处理等领域取得了重大突破,如你所见,该算法现在能够准确地对图像进行分类,识别语音,甚至生成逼真的类人语言。

深度学习代表了人工智能历史上的一个重要里程碑,大数据的兴起使之成为可能。它从大量信息中自动学习的能力已经在广泛的应用中取得了重大进展,并且很可能在未来几年继续成为研发的关键领域。

生成式人工智能

我们目前正处于人工智能历史的这个阶段。生成式 AI 是人工智能的一个子领域,涉及创建能够生成与其训练数据相似的新数据或内容的 AI 系统。这可能包括生成图像、文本、音乐甚至视频。

在人工智能历史的背景下,生成式人工智能可以被视为深度学习兴起后的一个重要里程碑。深度学习是机器学习的一个子集,涉及使用具有多层的神经网络来分析和学习大量数据。它在图像和语音识别、自然语言处理甚至玩围棋等复杂游戏等任务中都取得了令人难以置信的成功。

Transformers 是一种神经网络架构,它彻底改变了生成式人工智能。Vaswani 等人在 2017 年的一篇论文中介绍了它们,并已用于各种任务,包括自然语言处理、图像识别和语音合成。Transformers 使用自我注意机制来分析序列中不同元素之间的关系,使它们产生更连贯和细致的输出。这导致了大型语言模型的发展,如 GPT-4,它可以在广泛的主题上生成类似人类的文本。

AI 艺术是生成式人工智能产生重大影响的另一个领域。通过在大型艺术品数据集上训练深度学习模型,生成式 AI 可以创建新的独特艺术品。生成式人工智能在艺术中的使用引发了关于创造力和作者身份的本质以及使用人工智能创作艺术的伦理的争论。一些人认为,人工智能生成的艺术并不是真正的创造性,因为它缺乏人造艺术的意向性和情感共鸣。其他人则认为,人工智能艺术有其自身的价值,可以用来探索新的创造力形式。

GPT-4 等大型语言模型也被用于创意写作领域,一些作者使用它们来生成新文本或作为灵感工具。这引发了关于写作的未来以及人工智能在创作过程中的作用的质疑。虽然有些人认为人工智能生成的文本缺乏人类写作的深度和细节,但其他人则认为它是一种工具,可以通过提供新的想法和观点来增强人类的创造力。

总之,生成式人工智能,特别是在 Transformers 和大型语言模型的帮助下,有可能彻底改变许多领域,从艺术到写作再到模拟。虽然关于创造力的本质和在这些领域使用人工智能的道德规范仍然存在争议,但很明显,生成人工智能是一个强大的工具,将继续塑造技术和艺术的未来。

尾声

正如我们所讨论的,人工智能的历史相当有趣,充满了潜在的、反高潮和惊人的突破。从某种意义上说,诸如 ChatGPT、Dalle.E 等应用程序,带给我们的挑战才刚刚开始,未来一定还有更多突破,挑战我们的神经以及工作和生活。我想我们所有人可以保持开放的心态,在无限悲观的同时,也可以保持相应的乐观,来迎接人工智能的未来时代。

作者:袁首京

原创文章,转载时请保留此声明,并给出原文连接。