首页 > AI资讯 > 最新资讯 > 斯坦福提出“统一归因”框架保证大模型输出的真实性和可靠性

斯坦福提出“统一归因”框架保证大模型输出的真实性和可靠性

新火种    2023-12-27

站长之家12月21日 消息:随着大型语言模型在实际业务中的广泛应用,确保其输出的真实性和可靠性成为亟待解决的问题。学术界采用“归因”方法来追踪和证实模型输出的内容。

当前研究领域主要分为两大派系,即协同归因和贡献归因。前者关注验证大模型输出的正确性,后者用于确定训练数据对模型输出的影响程度。在法律、医疗、金融等领域,对内容准确性有高要求的行业,这两种方法至关重要。

image.png

然而,现有的研究方法存在独立进行的问题,为此,斯坦福大学的研究人员提出了“统一归因”框架。这一框架整合了协同归因和贡献归因的主要功能,使开发者能够更方便地对大型语言模型进行安全性和内容验证。

image.png

协同归因通过引文生成验证、知识检索验证和事实验证等功能,验证大模型的输出是否正确,并与外部知识进行比较。贡献归因方法通过影响函数验证、数据模拟器验证和数据模型验证等功能,用于确定训练数据对大模型输出的影响程度。

这一“统一归因”框架为开发者提供了更全面、一体化的工具,以验证大模型的输出和训练来源。通过整合两种归因方法,开发者可以更全面地了解模型的行为,提高对模型输出的信任度。因此,这一框架对于保障大型语言模型在各行业应用中的安全性和可靠性具有积极的推动作用。

随着大模型在实际应用中的不断发展,保证其输出的真实性和可靠性是当前亟需解决的问题。斯坦福提出的“统一归因”框架为解决这一问题提供了新的思路和方法,有望推动大模型在各行业中的更广泛应用。

相关推荐
免责声明
本文所包含的观点仅代表作者个人看法,不代表新火种的观点。在新火种上获取的所有信息均不应被视为投资建议。新火种对本文可能提及或链接的任何项目不表示认可。 交易和投资涉及高风险,读者在采取与本文内容相关的任何行动之前,请务必进行充分的尽职调查。最终的决策应该基于您自己的独立判断。新火种不对因依赖本文观点而产生的任何金钱损失负任何责任。