首页 > AI资讯 > 最新资讯 > 又一巨头放任AI军事化!谷歌“撕毁”不将AI用于开发武器的承诺

又一巨头放任AI军事化!谷歌“撕毁”不将AI用于开发武器的承诺

财联社潇湘    2025-02-07

2月5日讯(编辑 潇湘)继OpenAI、Meta等美国人工智能领军企业放任自家模型用于军事目的后,谷歌近来也“偷偷摸摸”地加入了这一阵营。

据当地媒体周二发现,谷歌已从其人工智能原则中删除了一段承诺避免将AI技术用于武器等潜在有害应用的承诺。

该公司似乎更新了其公开的AI原则页面,删除了上周还存在的名为“我们不会追求的应用”的部分——例如“造成或可能造成整体伤害的技术”,包括武器。

谷歌高级副总裁James Manyika和人工智能实验室DeepMind负责人Demis Hassabis随后在一篇博客文章中,为这一举措进行了辩护。他们认为,企业和政府需要在“支持国家安全”的人工智能方面进行合作。

该博客文章表示,随着技术的发展,该公司于2018年发布的最初的人工智能原则,需要进行更新。

“数十亿人在日常生活中使用人工智能。人工智能已经成为一种通用技术,也是无数组织和个人用来构建应用程序的平台,”文章称,“AI已经从实验室的一个小众研究课题,转变为一种像手机和互联网一样普及的技术。”

值得一提的是,这篇博客文章是在Alphabet周二发布Q4报告之前不久发布的。最终财报显示,谷歌去年四季度的业绩弱于市场预期,并导致其股价在盘后下跌。

又一家“撕毁承诺”

毫无疑问,此番谷歌在人工智能原则上措辞变动,将令其成为最新一家放任向AI军事化靠拢的美国人工智能公司。

正如去年曾报道过的那样,硅谷在数年前还对五角大楼避之不及,但如今随着AI技术的发展,两者之间却似乎正在建立更为深层次的联系。

image

而此番谷歌的转变则更为令人们感到唏嘘。

事实上,早在人们对人工智能引发伦理问题的兴趣高涨之前,谷歌创始人谢尔盖·布林和拉里·佩奇就曾表示,他们的公司座右铭是“不作恶”。当该公司于2015年重组为Alphabet时,他们的口号也依然是“做正确的事”。

前谷歌道德人工智能团队的联合负责人、现任人工智能初创公司Hugging Face首席伦理科学家Margaret Mitchell表示,删除“伤害”条款可能会对谷歌开展的工作类型产生影响。

她说:“删除该条款将抹去谷歌许多人在人工智能道德领域所做的工作,更成问题的是,这意味着谷歌现在可能会致力于直接部署可以杀人的技术。”

长期以来,谷歌员工一直在争论如何平衡人工智能领域的道德问题和竞争态势,尤其是OpenAI的ChatGPT的推出让这家搜索巨头倍感压力之际。2023年,一些谷歌员工便曾对外表达了担忧,认为该公司在人工智能领域重振雄风的动力可能导致道德失范。

相关推荐
免责声明
本文所包含的观点仅代表作者个人看法,不代表新火种的观点。在新火种上获取的所有信息均不应被视为投资建议。新火种对本文可能提及或链接的任何项目不表示认可。 交易和投资涉及高风险,读者在采取与本文内容相关的任何行动之前,请务必进行充分的尽职调查。最终的决策应该基于您自己的独立判断。新火种不对因依赖本文观点而产生的任何金钱损失负任何责任。