首页 > AI资讯 > 行业动态 > OpenAI组建团队对抗人工智能的“灾难性风险”

OpenAI组建团队对抗人工智能的“灾难性风险”

新火种    2023-11-06

参考消息网11月1日报道 据法国《回声报》网站10月27日报道,人工智能对地球构成的风险是否与战争或大流行病一样大?无论如何,这个行业的巨头们都非常重视这一威胁。创造聊天生成预训练转换器(ChatGPT)的开放人工智能研究中心(OpenAI)刚刚组建一支全新团队,旨在对抗“人工智能的灾难性风险”。

这个新团队将负责监控和评估当前和未来人工智能模型的稳固性,并保护它们免受一切恶意使用。在预期的风险中,OpenAI尤其指出了网络攻击(可以通过人工智能大规模自动进行)、化学威胁、生物威胁、放射性和核威胁等……

据领英网上官方页面显示,OpenAI公司员工不到500人。公司没有进一步说明新团队的规模。团队将由麻省理工学院教授、前谷歌顾问亚历山大·马德里领导。

与此同时,OpenAI启动了一项“挑战”:开发者受到邀请来想象攻击场景和限制其影响的响应。这家企业将为10个“最佳”项目提供2.5万美元资金。这场竞赛还可以让OpenAI发现能够加入这个新团队的人才。

这一举措出台之际,正值英国将主办首届人工智能安全峰会。包括OpenAI、谷歌以及政府领导人、科技界和学界人士在内的上百参会者将于11月1日齐聚布莱奇利。这次国际会议将会讨论人工智能对国家安全的威胁和可能的保障措施。

5月底,包括OpenAI首席执行官萨姆·阿尔特曼在内的350多名知名人士签署了一封公开信,引发了关于人类对人工智能失去控制的争论。公开信只有一段话:“降低人工智能带来的灭绝风险,应该与大流行病和核战争等其他大规模风险一起纳入全球优先事项。”

类似的这些呼吁主要被视为人工智能巨头自证清白的一种方式,因为世界各国政府都在寻找监管人工智能的正确方式。其他一些人则认为,这是该行业初创企业夸大这项技术的极端重要性以及它们在生态系统中的作用的一种方式。在媒体、广告或银行业,人工智能已经开始威胁就业,但其“灾难性风险”目前更加不确定。(编译/刘卓)

相关推荐
免责声明
本文所包含的观点仅代表作者个人看法,不代表新火种的观点。在新火种上获取的所有信息均不应被视为投资建议。新火种对本文可能提及或链接的任何项目不表示认可。 交易和投资涉及高风险,读者在采取与本文内容相关的任何行动之前,请务必进行充分的尽职调查。最终的决策应该基于您自己的独立判断。新火种不对因依赖本文观点而产生的任何金钱损失负任何责任。