首页 > AI资讯 > 行业动态 > 谷歌公布人工智能使用原则:不会开发武器,但真的能做到吗?

谷歌公布人工智能使用原则:不会开发武器,但真的能做到吗?

新火种    2023-11-01

当一家有全球影响力的公司,乐于讨论人工智能技术使用的道德问题时,我们应该庆幸,因为至少看起来,事情在朝对的方向发展。

当地时间6月7日,在千呼万唤中,谷歌终于通过官方博客发布了关于使用人工智能(AI)的七项指导原则。其中包括不会将AI技术应用于开发武器,不会违反人权准则将AI用于监视和收集信息,避免AI造成或加剧社会不公等。

之所以说千呼万唤,原因是谷歌发布这套指导原则的过程一波三折。事件的起因是谷歌与美国军方合作的Maven项目。谷歌在该项目中向美国国防部提供用于机器学习应用的TensorFlow API接口,以帮助军事分析人员检测图像中的物体。

但双方的合作立刻引起了谷歌内部员工、媒体、学术界,甚至部分工业界的指责。他们认为谷歌与美国军方的合作,有可能让AI技术成为军方的帮凶,这与谷歌一直倡导的“不作恶”公司文化相悖。

谷歌公司内部也因此掀起了离职潮,并约有4000名员工写了请愿信,要求谷歌公司高层停止与美国军方的合作。同时,外部的舆论也让谷歌倍感压力。

在这种情况下,谷歌做出了一系列缓解内外部压力的举措。首先,谷歌召开了员工大会,谷歌云CEO黛安·格林向员工解释了这份与美国军方的合同仅价值900万美元,且这项目不是为了攻击目的。其次,谷歌宣布将在2019年,Maven项目合同到期后,停止与美国军方合作,不再寻求新合同。第三,谷歌终于在拖了近一年的时间后,推出了AI的指导原则,兑现了项目签订时的承诺。

不可触碰的“香饽饽”:AI武器化

与美国军方合作AI项目,导致谷歌面对的内部和外部压力,其实是近年来各界对于AI武器化讨论的缩影。

谷歌内部曾有邮件显示,谷歌云首席科学家、副总裁李飞飞在讨论这一项目是曾强烈建议双方在合同中回避“AI”(人工智能)这个字眼。

“无论付出什么代价,都必须要避免提及或者使用到AI这两个字。武器化人工智能可能是AI领域里最敏感的话题,没有之一。对于媒体而言这简直就是红肉(red meat),他们会找到一切方式毁掉谷歌。”这位来自斯坦福大学人工智能实验室的学者在邮件中说。

“我不知道如果媒体开始讨论谷歌正在秘密建造AI武器或AI技术,并为国防工业服务会发生什么。”李飞飞说。

作为斯坦福大学人工智能实验室的一名教授,又在谷歌公司中担任要职,李飞飞一直坚持相信的是以人为中心的人工智能,可以用积极和慈善的方式让人类受益。她还表示,任何将人工智能武器化的项目研究,都将违背她的原则。

在工业界,与军方的合作一直是各家科技企业想要争夺的“香饽饽”:通常来说与军方合作意味着能获得的长期且价值高昂的合同。《The Verge》曾指出,虽然谷歌这次与美国军方的合同仅值900万美元,但这对谷歌未来获得合同开了好头。李飞飞也曾建议谷歌内部将这次的合作描绘成是谷歌云平台的重大胜利。

实际上,除了谷歌外,IBM、微软、亚马逊等公司都盯着美国军方的合作。在美国军方合作的项目中,这些公司都曾是相互竞标的对手。

但在AI学术界,对于这样的合同有不同的声音和担忧。今年5月份,一个人权和技术团体联盟齐聚一堂,发布了一份名为“多伦多宣言”的文件,要求各国政府和科技公司确保AI尊重平等和非歧视的基本原则。

在份文件的重点是各国政府和科技公司有义务防止机器学习系统歧视,以及能确保在某些情况下不会出现违反现有人权法的事情发生。

“我们必须把注意力集中在这些技术将如何影响个人和人权。在机器学习系统的世界里,谁来承担损害人权的责任?”这份宣言的序言部分写道。

一直以来这两个问题也是学术界讨论的重点。在谷歌与军方合作的项目公布后,今年5月15日,国际机器人武器控制委员会(ICRAC)向谷歌母公司Alphabet发出了一封公开信,再次要求谷歌停止其与国防部在Maven项目上的合作协议,承诺不去开发军事科技,并保证不将其搜集的个人数据用于军事行动。

信中写到:和许多其他数字技术公司一样,谷歌收集了大量关于用户行为、活动和兴趣的数据。谷歌不能仅利用这些数据改进自己的技术和扩大业务,还应该造福社会。公司的座右铭是“不作恶”,这是众所周知的责任。

“像谷歌这样跨国公司的责任必须与他们的用户国际化相匹配。根据谷歌所考虑的国防部合同,以及微软和亚马逊已经实施的类似合同,这样的做法标志着拥有大量全球敏感私人数据的科技公司与一个国家军队的危险联盟。它们还表明,谷歌未能与全球公民社会和外交机构进行接触,这些机构已经强调这些技术的道德风险。”信中称。

今年4月份,还曾有逾50名顶尖的人工智能研究员宣布,向韩国科学技术院发起抵制。此前,这家韩国一流大学和一家军工企业合作开设了人工智能实验室。发起抵制的研究员称,这是一所“AI武器实验室”。

如何确保AI技术不会用来作恶

在内部员工给予辞职压力,以及外部媒体、学术界的监督下,谷歌最终做出了妥协。公布AI使用指导原则后,谷歌员工表示了欢迎。

Google大脑研究员Dumitru Erhan就在自己的推特上表示:“看见这个出来了好开心”。

谷歌现任AI负责人杰夫·迪恩在自己的推特账号上,除了分享了谷歌发表的这份原则之外,还提到为了真正践行这些原则,他们还提出了一套技术实践指南,指导科学家和工程师们在构建AI产品的时候应该注意什么。

DeepMind联合创始人穆斯塔法(Mustafa Suleyman)尽管自己没有发表观点,但在推特上转发了人权观察组织(Human Rights Watch)的话:各国政府应该关注到科技行业的最新动态,开始就禁止全自动武器展开协商,制定新的国际法规。

员工的欢迎是一方面,但在实际中谷歌率先做出的这套原则是否真的使用,又是另一个问题了。《纽约时报》的文章称,由于谷歌此前一再强调自己为国防部所做的工作并非出于“进攻目的”,这些指导原则能否将该公司排除在类似Maven的合同之外,尚不清楚。

值得一提的是,在谷歌提出的AI原则中,谷歌也表示将会继续与政府和军方展开AI合作,例如网络安全、培训以及征兵等领域。

对于崇尚开源和开放的硅谷文化来说,谷歌的这套原则还可能面临另一个问题:即便谷歌说不让自己的技术用于武器开发,但一旦变成开源项目,这些技术和代码就有可能用于作恶,就像其他的工具与技术一样。

最后,正如谷歌在最新指导原则中表明的那样,制定足够广泛的规则,以涵盖各种各样的场景,又能足够灵活以至于不排除有益的工作,其实是很困难的。

这时候,与以往一样,公共监督和不停的辩论,或许是确保人工智能公平部署,并产生对社会有益的方式之一。正如谷歌这次面对的情况一样,对于那些手握数据和技术的科技公司而言,它们必须要习惯于公众开始讨论技术使用的道德问题。

附谷歌公布的AI指导原则:

AI应用目标:

我们相信AI应当

1.对社会有益。

2.避免制造或加剧偏见。

3.提前测试以保证安全。

4.由人类担责。

5.保证隐私。

6.坚持科学高标准。

7.从主要用途、技术独特性、规模等方面来权衡。

我们不会将AI应用于:

1.制造整体伤害之处。如一项技术可能造成伤害,我们只会在其好处大大超过伤害的情况下进行,并提供安全措施;

2.武器或其他用于直接伤害人类的产品;

3.收集使用信息,以实现违反国际规范的监控的技术;

4.目标违反被广泛接受的国际法与人权原则的技术。

相关推荐
免责声明
本文所包含的观点仅代表作者个人看法,不代表新火种的观点。在新火种上获取的所有信息均不应被视为投资建议。新火种对本文可能提及或链接的任何项目不表示认可。 交易和投资涉及高风险,读者在采取与本文内容相关的任何行动之前,请务必进行充分的尽职调查。最终的决策应该基于您自己的独立判断。新火种不对因依赖本文观点而产生的任何金钱损失负任何责任。