人工智能是否很快就会有意识?专家认为语言模型与人脑差异极大
人工智能系统(如 ChatGPT)的先进功能引发了关于其潜在意识的讨论。然而,神经科学家贾安-阿鲁(Jaan Aru)、马修-拉卡姆(Matthew Larkum)和麦克-希恩(Mac Shine)认为,这些系统很可能是无意识的。他们的论点基于人工智能缺乏具身信息、缺乏与哺乳动物意识相关的某些神经系统,以及生物体和人工智能不同的进化路径。生物实体意识的复杂性远远超过了当前的人工智能模型。
人工智能(AI)系统的日益复杂让一些人猜测,这些系统可能很快就会拥有意识。然而,我们可能低估了人类意识背后的神经生物学机制。
现代人工智能系统能够做出许多惊人的行为。例如,当人们使用像 ChatGPT 这样的系统时,它们的反应(有时)非常像人类的智能反应。当我们人类与 ChatGPT 交互时,我们会有意识地感知语言模型生成的文本,例如,您目前正在这里有意识地感知这段文字!
问题是,当我们提示时,语言模型是否也能感知到我们的文本?抑或它只是一具僵尸,依靠巧妙的模式匹配算法工作?根据它生成的文本,很容易让人相信系统可能是有意识的。不过,在这项新研究中,贾安-阿鲁、马修-拉库姆和麦克-希恩从神经科学的角度回答了这个问题。
这三位作者都是神经科学家,他们认为,虽然 ChatGPT 等系统的反应看似有意识,但很可能并非如此。首先,语言模型的输入缺乏我们与周围世界的感官接触所特有的嵌入式信息内容。其次,当今人工智能算法的架构缺少丘脑皮层系统的关键特征,而这些特征与哺乳动物的有意识意识有关。
最后,导致有意识生物体出现的进化和发展轨迹,可以说与今天设想的人工智能系统并不相似。生物体的存在取决于它们的行动,而它们的生存则与多层次的细胞、细胞间和生物体过程错综复杂地联系在一起,最终形成代理和意识。
描述大型语言模型基本架构的示意图,哺乳动物大脑与大型语言模型之间的差异,左图为大型语言模型的基本结构示意图,它可以有几十个甚至一百多个以前馈方式排列的解码块。右图为丘脑皮层系统的启发式地图,该系统产生的复杂活动模式被认为是意识的基础。图片来源:Mac Shine、Jaan Aru
因此,尽管我们很想假设 ChatGPT 和类似系统可能有意识,但这将严重低估我们大脑中产生意识的神经机制的复杂性。对于意识如何在我们的大脑中产生,研究人员尚未达成共识。我们所知道的,以及这篇新论文所指出的,是这种机制很可能比当前语言模型的基础机制复杂得多。
例如,正如这篇论文所指出的,真实的神经元与人工神经网络中的神经元并不相同。生物神经元是真实的物理实体,可以生长并改变形状,而大型语言模型中的神经元只是毫无意义的代码片段。我们对意识的理解还有很长的路要走,因此,对有意识的机器的理解也还有很长的路要走。
- 免责声明
- 本文所包含的观点仅代表作者个人看法,不代表新火种的观点。在新火种上获取的所有信息均不应被视为投资建议。新火种对本文可能提及或链接的任何项目不表示认可。 交易和投资涉及高风险,读者在采取与本文内容相关的任何行动之前,请务必进行充分的尽职调查。最终的决策应该基于您自己的独立判断。新火种不对因依赖本文观点而产生的任何金钱损失负任何责任。