AI安全性受冷待?Meta重组RAI团队全力押注生成式AI
财联社11月19日讯(编辑 周子意)Meta发言人最新透露,Meta已经解散了其Responsible AI(RAI)部门,该部门致力于在开发和部署人工智能项目时对其安全进行监管。
发言人表示,RAI团队的大多数成员已被重新分配到公司的生成人工智能(Generative AI)产品部门,而其他一些人现在将在人工智能基础设施团队工作。
Meta公司今年2月诞生的生成式人工智能团队专注于开发能够生成语言和图像的产品,以模仿类似人类的人工智能版本。
自人工智能热潮开始以来,不仅Meta公司,与此同时各大科技公司纷纷向机器学习开发和投入资金,以免在人工智能竞赛中落后。
此次RAI部门的重组证实了公司首席执行官马克·扎克伯格在2月份的财报电话会议上的话。他当时指出,RAI的重组将在Meta“效率年”接近尾声之际进行的。到目前为止,该公司已经出现了一连串的裁员、团队合并和重新分配。
安全监管还受重视吗?
不过,虽然RAI部门解散了,但是确保人工智能的安全仍是科技巨头们的首要任务,尤其是在监管机构和政府官员更加关注这项新兴技术的潜在危害之际。
今年7月,Anthropic、谷歌、微软和OpenAI成立了一个行业组织,专门致力于为人工智能的进步制定安全标准。
Meta发言人指出,RAI的员工现在已经分散在整个组织中,他们将继续支持“负责任的人工智能安全开发和使用”。
该发言人表示,“我们将继续优先考虑并投资于安全和负责任的人工智能开发。”
此外,值得一提的是,席卷本周末的OpenAI 的“政变”风波似乎透露出一个信息。
此次内斗的根源在于,AI监管与商业化之间的矛盾。OpenAI首席科学家Ilya Sutskever无法接受首席执行官Sam Altman激进的商业化战略,因此和其他董事联手,罢免了Altman和公司总裁Greg Brockman。
可见在AI商业化上不断提速,已经把AI安全放在次要位置了。
- 免责声明
- 本文所包含的观点仅代表作者个人看法,不代表新火种的观点。在新火种上获取的所有信息均不应被视为投资建议。新火种对本文可能提及或链接的任何项目不表示认可。 交易和投资涉及高风险,读者在采取与本文内容相关的任何行动之前,请务必进行充分的尽职调查。最终的决策应该基于您自己的独立判断。新火种不对因依赖本文观点而产生的任何金钱损失负任何责任。