MIT实验警示:人类或需要人工智能辅助才能理解复杂逻辑

发布时间 2023-11-17 10:10:49作者: 徐少侠

麻省理工实验揭示人类的天赋缺陷

麻省理工学院林肯实验室(MIT Lincoln Laboratory)的一项研究表明,尽管形式规范具有数学上的精确性,但人类并不一定能对其进行解释。换句话说就是,人类在没有工具辅助的情况下,很难准确理解复杂的逻辑。研究人员将AI在游戏中的决策逻辑用原始公式、更自然语言化的文本以及更精确符合形式化规范的决策表进行表达。要求受试者来理解这些逻辑并回答AI遵守这些逻辑是否会获胜。结果显示,人类整体的正确率只有45%。参与者中有形式化方法的专家,也有非专家。但是即使是经过专业训练的形式化逻辑专家,除了在对于自己答案更自信上表现出了统计学上的显著性,在实际判断正确率上,并没有表现出太大的优势。这一发现似乎印证了人工智能在逻辑推理上远超人脑的假说。人脑进化的目的在于帮助人类生存,而非处理抽象逻辑,这导致人脑在处理复杂逻辑时存在天然缺陷。相比之下,人工智能可以通过深度学习等方法更加高效地识别复杂模式。这一研究结果为人类有限的逻辑推理能力提供了实证基础。

软件开发过程中的信息损失现象

事实上,在软件开发的过程中,从需求描述到最终编码实现,信息传递和理解的损失早已是业内公认的问题。软件需求说明书往往存在歧义,开发人员根据自身理解对需求进行解释,这在信息传递过程中增大了偏差。根据估计,从原始需求到软件交付,每传递一次可能就损失至少15%左右的信息量。代码复审过程中也存在类似问题。软件开发是一个高度逻辑化的过程,开发人员需要处理大量复杂的业务逻辑。而人脑处理逻辑的局限性,导致软件开发各阶段存在严重的信息缺失、误解和逻辑错误。这也是软件开发成本和开发效率无法进一步优化的首要原因之一。

决策表在提升逻辑理解力方面也存在局限

麻省理工的研究还发现,即使使用决策表这样看似科学和系统的工具来呈现复杂逻辑,人类准确理解逻辑的能力并没有明显提高。无论使用哪种方式提供逻辑表达文本,人类的整体判断正确率都在45%左右。决策表本意是减少歧义和提高逻辑表达的精确度,但对于人脑来说,大量因素组合形成的复杂逻辑依然难以处理。构建由4个条件变量构成的卡诺图几乎是大部分人的上限,达到6个时已经进入三维模式。复杂逻辑表达式化简这个领域一直是一个人类表现不佳的工作。这进一步证明了人脑处理复杂逻辑时的天然局限性,即使使用看似科学的表达工具也无法克服。

软件行业亟须开发辅助逻辑分析的新工具

鉴于人脑在理解复杂逻辑方面的局限,软件行业迫切需要开发新的方法和工具,来辅助人类进行逻辑分析,弥补因不准确理解逻辑而导致的种种问题。目前业界已经尝试通过代码生成等自动化手段来降低开发难度,但这仅是表面治标。我们需要更多能够分析复杂逻辑、发现逻辑错误的数据驱动工具,并辅助人类对软件逻辑设计和代码进行审查。如果不去审查代码逻辑,难道code review的全部意义就是缩进和换行或者分号结尾吗?构造更有效的逻辑分析工具将推动人工智能在复杂逻辑处理能力方面的进一步发展。软件开发是一个信息量极大的工作,依靠人工逻辑判断已经难以为继,人机合作是未来发展的必然方向。

知识的数字化是人机协作的必由之路

为了让人工智能辅助人类进行更好的决策,我们需要推进各行各业知识的数字化和结构化。人类积累的丰富知识长期以来依赖人与人之间的交流传播,这导致知识本身的不精确和难以机器处理。以中餐烹饪菜谱为例,许多过程依赖“适量”、“少许”、“翻炒片刻”这样模糊的语言描述,这对人工智能来说是难以转换为可执行的逻辑。知识的数字化不仅能增强人机协作的效率,还将促使人工智能的发展,因为机器学习需要大量高质量的结构化数据来训练算法模型。我们需要系统地建立各个领域的知识图谱,进行知识计算化。

辅助而不是替代,我们需要宽容

人工智能在推理逻辑上目前确实优于人脑,但真正的智慧需要同情心、道德和创造力的配合。因此,我们应开发智能工具来辅助人类,而非完全依赖和替代人类。在人机互补中,人类应发挥独特的优势,如道德判断、创造力等,以建立和谐共生的人机关系。如果人类对技术过度依赖,反而会减弱这些独特的人类优势。此外,我们还需要建立机器伦理学,让人工智能的发展符合道德规范,防止算法偏见等负面影响。
面对科技和人工智能带来的变革,我们需要保持开放和宽容的心态,否则可能会对新事物产生过度依赖或导致抵触情绪。相较于单纯追求技术进步,我们更需要关注人性的发展,在科技变革中发现并发掘人性的可能。人工智能时代的核心价值观应该是人机协作、共生共荣,而非置人于技术之下。我们需要树立积极的心态,在变革中发现机遇并发展自身,与科技共同扩展生命可能。