首页 > AI资讯 > 行业应用 > 微软谷歌联盟积极推进AI安全标准

微软谷歌联盟积极推进AI安全标准

新火种    2023-10-27

北京时间 10 月 25 日晚间消息,微软、谷歌、人工智能初创企业 OpenAI 和 Anthropic 正加紧推进人工智能(AI)安全标准的制定工作,并于今日任命了一名董事,以期填补全球监管方面的空白。

图源 Pexels

今年夏天,这四家科技巨头联合成立了新的产业组织“前沿模型论坛”(Frontier Model Forum),致力于安全和负责任地开发 AI 模型。今日,他们又任命美国智库布鲁金斯学会(Brookings Institution)的人工智能主管 Chris Meserole 担任该组织的执行董事。

此外,前沿模型论坛还表示,计划向一个人工智能安全基金投资 1000 万美元。

Meserole 对此表示:“我们距离真正的监管可能还有一段路要走。在此期间,我们希望确保这些系统(监管规则)尽可能安全。”

在过去的几个月里,人们越来越担心日益强大的人工智能有可能取代人类工作岗位,创造和传播错误信息,或者最终超过人类智能。

Meserole 表示,该论坛将寻求对任何官方法规进行“补充”。据预计,欧盟的人工智能法案将在明年初敲定。与此同时,英国将于下周主办首届全球人工智能安全峰会,各国领导人和主要科技高管将受邀讨论相关的合作。

Meserole 还称,论坛最初将重点关注风险,包括人工智能帮助设计生物武器的能力,以及生成可用于促进关键系统黑客攻击的计算机代码的能力。

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。

相关推荐
免责声明
本文所包含的观点仅代表作者个人看法,不代表新火种的观点。在新火种上获取的所有信息均不应被视为投资建议。新火种对本文可能提及或链接的任何项目不表示认可。 交易和投资涉及高风险,读者在采取与本文内容相关的任何行动之前,请务必进行充分的尽职调查。最终的决策应该基于您自己的独立判断。新火种不对因依赖本文观点而产生的任何金钱损失负任何责任。

热门文章