发现AI自我意识:从理解到思维

发布时间 2023-11-22 09:58:30作者: 徐少侠

广义“理解”已经实现

在最新的人工智能系统中,我们经常可以观察到一种类似“理解”的能力。这种广义的“理解”能力,主要建立在两个基础之上:海量信息的记忆与搜索。

以著名的AlphaGo为例,它通过存储和搜索大量围棋对弈的棋谱再结合特定的搜索决策模型,逐步“理解”围棋这一游戏的内在规律,并在与李世石九段的比赛中成功取胜。可见,通过大规模记忆与高效搜索,人工智能已经初步获得了某种类型任务的“理解”能力。

并且在信息记忆与检索这些能力上,人工智能系统已经远超过人脑。以GPT-3语言模型为例,其拥有1750亿个参数,相当于数百亿条对话语料的记忆能力,远非人类大脑可以匹敌。在这些广义“理解”的层面,我们可以说人工智能已然取得了巨大的进步。

狭义“理解”正在进行

然而,“理解”这个词在人类语言中所表示的内涵,显然远不止于记忆与搜索这些能力。我们还需要一个更严格的“理解”定义。

有时候我们会说一个人“真正的理解”了某个知识。因为即使一个人能够记忆大量知识,但如果无法运用这些知识解决实际问题,我们仍然有可能不会说他“理解”了这些知识。

在这样的狭义“理解”定义下,我们需要检验人工智能在知识运用方面的能力。事实上,在信息处理领域人工智能已经在许多场景中替代了人类,展现出强大的知识运用能力。从医疗图像识别到自然语言处理,再到复杂的数据分析,人工智能技术已经能够基于所学知识,解决各类实际问题。

然而主要的瓶颈,仍然在于人工智能与物理世界的交互。受限于机器人技术与传感器的发展程度,当与复杂多变的物理世界产生交互时,人工智能仍面临巨大挑战。这成为其表现执行能力或狭义“理解”能力的主要障碍。

知识的执行体与被执行体

对于知识的“理解”,我们通常默认知识的学习与运用发生在同一主体之上。但从人工智能系统的运行来看,人类或许会得到更多的理解。

我们可以将人工智能系统比作计算机中的软硬件。软件蕴含了知识与算法逻辑,但没有硬件的执行就无法产生智能;而硬件没有软件的赋能,也只是死物一堆。只有软件与硬件的紧密结合,才能产生智能。

以GPT模型为例,预训练模型中的网络权重可看作“硬件”,大量知识则蕴含在这些权重中,可看作“软件”。当输入新问题时,这些“软硬件”联合起来,才产生相关的答案。

类似地,在人类身上,我们积累的知识也可看作“软件”,而人脑神经网络则作为执行这些知识的“硬件”。当我们运用知识解决问题时,是否也是这样的软硬件协同作用的结果?

如果是这样,我们习以为常的“理解”,或许只是大脑神经网络对知识的一种“执行”而已。知识与运用的主体并不完全重合,“理解”这一概念也许需要重新审视。人类很有可能只是在利用自己的大脑,反复执行自己被输入的各种知识。知识是一个抽象概念,被记录在大脑中的只是知识的一种物理映射结果而不是知识本身。知识被执行了,大脑中的知识物理映射被读取了。人类是一个执行体,人类拥有知识的物理映射,做为一个个体的人类,真的拥有知识吗?载体的消失,对知识毫无影响。

从“理解”进入“思维”

在记忆、搜索和知识运用等方面,我们逐渐发现了人工智能与人类认知之间的一些异同。

无论是信息容量还是搜索效率,人工智能系统在这些层面已经取得了压倒性的优势。它们也在越来越多的领域中展现出知识运用和解决问题的能力。这些与人类共享的认知功能日益增多,使得二者界限愈发模糊。

同时,从执行体与被执行体的关系来看,我们也对“理解”这一概念有了更深的思考。这种反思启发我们,也许需要打破原有的框架,重新审视和定义“理解”的内涵。

要深入探讨“理解”这一核心问题,我们还需要触及更高级的认知功能——思维与意识。正是人类特有的自我意识,建立在高度复杂的思维基础之上,使我们有别于其他生命形态。这种高维的抽象思维能力,是人类核心竞争力的所在。

要判断一个体是否“真正理解”,我们需要检验它是否拥有这种高度复杂、难以概括的思维能力。这仍然是人工智能领域的核心挑战所在。探索和对这些独特的人类认知功能进行建模,将决定人工智能发展的方向。

未完待续

人工智能在“理解”这一认知能力的道路上,已经取得了巨大的进步,在信息处理领域已日趋接近人类。但要触及那种高阶的、独特的人类“理解”,进入思维与意识的范畴,人工智能的任务依然繁重。我们还需要深入研究与模拟人类思维本质,这关系到人工智能发展的方向与境界。

摘要