张钹院士:GPT不太可能具备意识,机器人不用和人类完全一样
出品 | 搜狐科技
作者 | 梁昌均
运营编辑 | 刘于嘉
“将来是不是把GPT语言完全对齐到人类的自然语言?我认为可能性不大。”中国科学院院士、清华大学人工智能研究院名誉院长张钹院士在9月6日百川智能的一场发布会上表示。
他对此解释称,要把GPT语言对齐到完全跟人类的自然语言一样,必须解决一个问题——让GPT有自我意识,让计算机具有意识。“一个硅基的机器有没有可能具有意识,目前来讲,科学上没有条件讨论这个问题,现在只存在哲学上的争论。”
他表示,从哲学争论来讲,现在有两条路。按照唯物主义学派或行为主义学派的观点来讲,只追求行为主义上的相似形,而不追求内在机制的一致性。现在人工智能绝大多数走的是这条道路,是人工智能的主流。
另一个少数派是唯心主义,认为唯有内在系统达到跟人类一样,才有可能达到真正的智能。“这个很难做到或者做不到,硅基的机器是不是会做成跟人类碳基的智能一样,这在哲学上说不通,在科学上更说不通。”张钹表示。
张钹认为,人工智能追求机器的智能,跟人类的智能不一样,它在某些方面比人类有优势,某些方面不如人类。“这是我们追求的目标,只有在这个目标情况下才能够得到人类和机器的和平共处。”
他认为,人工智能绝对不是去追求做一个机器跟人类一样,这个必要性绝对不需要,大家在这个方面的争论意义不大。“目前来讲最重要的是要研究、了解GPT语言,只有彻底了解,才能更好地发展它、使用它,或者说从产业的角度来讲,才能发展出更健康的人工智能产业。”
但目前国内外对大模型本身的研究还不够。张钹提到,国内已经推出很多从几十亿到几百亿不同规模的大模型,这些大模型主要集中在垂直领域的应用,但没看到定位在助力学术研究上的模型,而对大模型本身的学术研究非常重要。
“到现在为止,全世界对大模型的理论工作原理、所产生的现象都是一头雾水,所有的结论都推导产生了涌现现象。所谓涌现就是给自己一个退路,解释不清楚的情况下就说它是涌现。”张钹认为,这个问题必须要把它搞清楚,才有可能发展出来中国特色的大模型。
张钹表示,对大模型的研究必须要回答它为什么能够产生出来非常连贯的、多样化的人类语言。OpenAI当初冒着很大风险,它也不清楚,用这么大规模的文本去训练,究竟能不能收敛,收敛完以后效果怎么样,最后出现Humnan like tokens(类人语言),这是非常惊奇的事情。
他认为,这个问题的解决主要靠三个措施。一个是文本的语义表示,把文本里的词、句、段落全变成向量,给构造连续的拓扑空间创造了条件。二是转换器,注意机制可以保证上下文的一致性;最后是下一个词的预测。
“这三个条件训练出来的一定是human like tokens,不可能出来别的东西。这需要我们数据究竟达到多少能够形成,如果掌握了这个问题,我认为我们今后不需要这么多的数据。”张钹说。
第二个要解决的问题是,大模型为什么会产生幻觉?张钹认为,这涉及到ChatGPT跟人类自然语言不同的生成原理,最根本的是人类是意图控制、内部驱动,而ChatGPT生成的语言是外部驱动,内容的正确性和合理性不能保证。
“只有经过ALignment(对齐)才能解决这个问题,现在国内这块做的工作太少,不如国外,GPT-3.5到GPT-4,几个月的时间有那么多的变化,主要就是ALignment的功劳,他们是世界上最优秀的团队来做这个事情,我们不够重视。”张钹提到。
因此,这也涉及到治理和开放的问题。在张钹看来,做ALignment就是做治理,希望它不产生问题,但是治理以后,它的质量、多样性肯定下降,而追求多样化也必然会产生错误。“这是一个问题的两个方面,治理的时候必须要跟质量做平衡,这也需进一步研究。”
- 免责声明
- 本文所包含的观点仅代表作者个人看法,不代表新火种的观点。在新火种上获取的所有信息均不应被视为投资建议。新火种对本文可能提及或链接的任何项目不表示认可。 交易和投资涉及高风险,读者在采取与本文内容相关的任何行动之前,请务必进行充分的尽职调查。最终的决策应该基于您自己的独立判断。新火种不对因依赖本文观点而产生的任何金钱损失负任何责任。