微软、OpenAI等投入1000万美元,“前沿模型论坛”是什么?
原文来源:AIGC开放社区
图片来源:由无界AI生成
10月26日,微软、OpenAI、谷歌和 Anthropic在官网发布联合声明,任命Chris Meserole为“前沿模型论坛”的执行董事,同时投入1000万美元安全基金,用于增强ChatGPT、Bard等生成式AI产品安全。
该声明是四大科技公司对研发安全、可靠、稳定生成式AI的重要表现,同时也是与官方签订“AI安全承诺”的一部分,这对于全球生成式AI的健康发展至关重要。
“前沿模型论坛”简介
“前沿模型论坛”( Frontier Model Forum)由微软、OpenAI、谷歌和Anthropic在今年7月26日联合创立而成,主要职责是确保前沿AI模型的安全和负责任的开发。
该论坛的4大核心目标:
1)推进AI安全研究,促进前沿模型的负责任开发,最大限度地降低风险,并实现对AI能力和安全性的独立、标准化评估。
2)确定负责任地开发和部署前沿模型的最佳实践,帮助公众了解技术的性质、功能、局限性和影响。
3)与政策制定者、学者、民间社会和公司合作,分享有关信任和安全风险的知识。
4)大力支持开发有助于应对社会挑战的AI应用程序,例如,减缓和适应气候变化、早期癌症检测和预防以及应对网络威胁。
Chris Meserole职责
Chris在技术政策方面拥有深厚的专业知识,长期致力于新兴技术的治理和安全以及未来应用。最近Chris还担任了布鲁金斯学会AI和新兴技术倡议的主任。
在“前沿模型论坛”中,Chris将履行以下职责:
推进AI安全研究,促进对前沿模型的发展,尽量减少潜在风险。确定前沿模型的安全最佳实践。与政策制定者、学术界、社会及其他利益相关方分享知识,推动AI的负责任发展。支持利用AI解决社会最大挑战的努力。Chris表示,最强大的AI模型蕴含巨大的社会承诺,但为了发挥其潜力,我们需要更好地了解如何安全开发和评估它们。我很高兴与“前沿模型论坛”共同应对这一挑战。
AI安全基金
在过去一年的时间里,生成式AI获得了巨大进步,同时伴随着很多潜在安全风险。为了解决这一难题,微软、OpenAI、谷歌和Anthropic成立了一个AI安全基金,用于支持来自世界各地附属于学术机构、研究机构和初创公司的独立研究人员,共同努力构建健康、安全的AI安全生态。
今年早些时候,微软、OpenAI、谷歌、Anthropic与官方签订了“AI安全承诺”, 其中包括促进第三方发现和报告四大科技公司中的AI漏洞的承诺。
AI安全基金的主要重点是,支持开发新的模型评估技术,以帮助开发和测试前沿AI模型。
AI安全资金的增加,有助于提高安全和安保标准,并为行业、开发者等应对AI系统带来的挑战提供有效的控制措施。
- 免责声明
- 本文所包含的观点仅代表作者个人看法,不代表新火种的观点。在新火种上获取的所有信息均不应被视为投资建议。新火种对本文可能提及或链接的任何项目不表示认可。 交易和投资涉及高风险,读者在采取与本文内容相关的任何行动之前,请务必进行充分的尽职调查。最终的决策应该基于您自己的独立判断。新火种不对因依赖本文观点而产生的任何金钱损失负任何责任。