首页 > AI资讯 > 最新资讯 > AI十人谈①|张钹院士:对大模型本身的学术研究非常迫切、重要

AI十人谈①|张钹院士:对大模型本身的学术研究非常迫切、重要

新京报    2024-01-04

  2023年以来,大模型领域持续火爆,各方力量持续入局,在快速推进人工智能时代到来的同时,也显现出各种问题和挑战。

  中国科学院院士、清华大学人工智能研究院名誉院长张钹表示,对大模型本身的学术研究非常迫切、重要。到现在为止国内的大模型主要集中在垂直领域应用上。而全世界对大模型的理论工作原理、所产生的现象都是一头雾水,所有的结论都推导产生了“涌现现象”。“实际上这反映了我们对它一点不清楚。这个问题必须搞清楚,我们才有可能发展出有中国特色的大模型。”张钹表示,对此,有三个方面的问题研究比较重要。

  首先是“大模型为什么能够产生出来非常连贯的、多样化的人类语言?”在他看来,这主要靠三方面的措施,第一是文本的语义表达,也就是把文本里的词、句、段落全变成向量,这给构造一个连续的拓扑空间创造了条件。第二个是转换器,注意力机制可以保证上下文的一致性。最后是下一个词的预测。

  第二个问题是,大模型为什么会产生幻觉?他指出,这个问题涉及ChatGPT跟人类自然语言生成原理的不一样,最根本的区别在于,ChatGPT生成的语言是外部驱动的,而人类的语言是在自己意图的情况下驱动的,所以ChatGPT内容的正确性和合理性是不能保证的。

  “只有经过ALignment(对齐)才能解决这个问题。”张钹指出,之所以能从GPT3.5到GPT4,几个月时间有那么多变化,主要就是“对齐”的功劳。在“对齐”方面,国内做的工作太少。不过他同时也指出,做“对齐”是做治理,治理以后内容的多样性会下降,所以还需要平衡开放和治理的关系。

  张钹把ChatGPT生成的语言称作GPT语言。在他看来,第三个需要研究的问题是,将来努力的方向是什么,是不是把GPT语言完全对齐到人类的自然语言?他认为这个可能性不大。“因为想实现这个目标,你必须让GPT有自我意识。”

  这样(让GPT有自我意识)没有必要。他强调道,因为人工智能追求的是机器智能,希望这个智能和人类的智能不一样,它某些方面比人类有优势,某些方面比人类有缺点,只有这样人类才能和机器和平共处。“目前最重要的是,我们要研究、了解GPT语言,只有彻底了解了它,才能更好地发展它,使用它,或者说从产业角度来讲才可以发展出更健康的人工智能产业。”

  人工智能产业如何做大做强,是目前这一领域从业者遇到的最大问题。张钹分析称,和信息产业相比,人工智能产业的发展过程更曲折。这主要缘于两个原因。一是目前人工智能的软硬件与应用场景、应用领域密切相关。比如,人工智能的“智能芯片”与计算机的芯片完全不同,前者是为特定的算法、领域服务的,不具备计算机硬件的通用性,因此会遇到如何扩大市场的困扰。

  二是人工智能缺乏理论基础,算法和模型都具有很大的缺陷和局限,这也对它的应用领域产生了限制。由于它的方法本身的限制,比如安全性、隐私保护等,使得人工智能的应用领域也受到限制。

  对此,张钹提出了两点意见。首先,人工智能要往各种维度去发展。比如,语音信息处理就不仅是语音或说话人识别,可以扩展到其他应用领域,不仅能用来做身份鉴别,也可以用来诊断疾病,诊断机器的问题或者观察机器的运行等。

  其次,人工智能要有维度上的扩展,这是针对算法本身的局限性。机器学习的方法是运用大数据处理,而大数据的处理方法虽然有很多优点也很实用,但本身并不安全。“我们需要通过对算法缺陷的改进,也就是发展第三代人工智能的思路来扩展它的应用范围。”张钹介绍称,这包括数据与知识的结合、多特征的融合、多种模态的结合以及软硬件的结合等。

  “从传统人工智能到生成式人工智能的变化是剧烈的,这让我们有理由、有底气相信,它会改变这个世界。生成式人工智能一方面能够给企业家带来机会,企业家有使命去利用这个机会发展新产业;另一方面,也给企业家带来责任,企业家在开发、应用大模型时,一定要考虑可能产生的负面影响。”张钹说。


(文章来源:新京报)

相关推荐
免责声明
本文所包含的观点仅代表作者个人看法,不代表新火种的观点。在新火种上获取的所有信息均不应被视为投资建议。新火种对本文可能提及或链接的任何项目不表示认可。 交易和投资涉及高风险,读者在采取与本文内容相关的任何行动之前,请务必进行充分的尽职调查。最终的决策应该基于您自己的独立判断。新火种不对因依赖本文观点而产生的任何金钱损失负任何责任。