首页 > AI资讯 > 最新资讯 > 斯坦福报告:AI图像生成工具使用大量儿童性虐待图片进行训练

斯坦福报告:AI图像生成工具使用大量儿童性虐待图片进行训练

财富中文网    2024-01-14

图片来源:GETTY IMAGES

一项最新报告披露,热门AI图片生成工具使用了数千张儿童性虐待图片进行训练,该报告呼吁相关公司采取措施,解决它们开发的技术存在的有害缺陷。

这些图片使AI系统更容易生成逼真露骨的虚假儿童图像,并且可以将青少年在社交媒体上穿着衣服的照片变成裸体照片,这引起了世界各地学校和执法部门的警惕。

直到最近,反虐待研究人员还认为,一些不受控制的AI工具生成非法儿童图像的唯一方法,就是把它们从成人色情内容和良性的儿童照片这两组在线图像中提取的信息组合在一起。

但斯坦福互联网观察站(Stanford Internet Observatory)在庞大的AI数据库LAION中发现了3,200多张疑似儿童性虐待图片。LAION是一个在线图片与标题索引,被用于训练Stable Diffusion等当前领先的图像生成工具。该观察组织来自斯坦福大学(Stanford University)。它与加拿大儿童保护中心(Canadian Centre for Child Protection)和其他反虐待慈善机构合作,发现非法材料,并将原始照片链接举报给执法机关。

它们的行动很快得到响应。在2023年12月20日斯坦福互联网观察站报告发布前夜,LAION对美联社(The Associated Press)表示,它已经临时移除了其数据集。

LAION是非营利组织大规模AI开放网络(Large-scale Artificial Intelligence Open Network)的缩写。该组织在一份声明中称,其“对于非法内容坚持零容忍的政策,我们采取了高度谨慎的做法,把LAION数据集下线,会在保证安全之后再重新发布。”

虽然这些图片在LAION约58亿张图片索引里只是九牛一毛,但斯坦福互联网观察站指出,它可能会影响AI工具生成有害结果的能力,并让多次出现的真实受害者再次回想起先前遭到的虐待。

报告的作者、斯坦福互联网观察站的首席技术专家大卫·泰尔表示,这个问题并不容易解决,原因能够追溯到许多生成式AI项目因为竞争激烈而“急于上市”,并大范围推广。

泰尔在接受采访时说:“汇总整个互联网上的数据,并将数据集用于训练模型,这本应该仅限于研究目的,不应该是开源的,而且必须接受更严格的监管。”

LAION的一个主要用户是位于英国伦敦的初创公司Stability AI,它为LAION数据集的开发提供了帮助。Stability AI开发了文本生成图片的模型Stable Diffusion。斯坦福的报告称,虽然新版Stable Diffusion使用户更难生成有害内容,但2022年发布的一个旧版本(Stability AI称其并未发布该版本)依然被整合到其他应用和工具当中,而且仍然是“最受欢迎的生成露骨图片的模型”。

加拿大儿童保护中心的信息技术总监劳埃德·理查森表示:“我们无法回收这款模型。它被许多人安装在本地的机器上。”加拿大儿童保护中心负责运营加拿大的在线性剥削举报热线。

Stability AI在12月20日表示,其仅提供经过筛查的Stable Diffusion版本,并且“自从接管了对Stable Diffusion的独家开发任务之后,公司便积极采取了预防措施,以减少其被滥用的风险。”

该公司在一份事先准备的声明里称:“这些过滤工具会阻止不安全的内容进入模型。这样做又可以反过来帮助阻止模型生成不安全的内容。”

LAION源自德国研究人员和教师克里斯托弗·舒曼提出的一种理念。他在2023年早些时候告诉美联社,他之所以希望把一个如此庞大的可视化数据库对外公开,部分原因是为了确保未来AI的发展不会被几家强大的公司所控制。

他说:“如果我们能够将AI发展民主化,使整个研究界和全人类都可以从中受益,这将是更安全、更公平的做法。”

LAION的大部分数据来自另外一个数据库Common Crawl。Common Crawl不断从开放互联网中抓取数据,但其执行董事里奇·斯克伦塔指出,LAION“有义务”在使用数据之前进行扫描和过滤。

LAION在2023年年底表示,其开发了“严格的过滤工具”,能够在发布数据集之前监测和移除非法内容,并且依旧在努力完善这些工具。斯坦福的报告承认,LAION的开发者曾经试图过滤掉“未成年”露骨内容,但如果他们事先征求儿童安全专家的意见,本可以做得更好。

许多文本生成图片的工具都使用了LAION数据库进行训练,但尚不确定具体的名单。DALL-E和ChatGPT的开发者OpenAI表示,其并未使用LAION,并且改进了其模型,能够拒绝涉及未成年人的性内容请求。

谷歌(Google)的文本生成图像工具Imagen模型基于LAION的数据集,但2022年,由于谷歌对数据库审查后“发现了大量不良内容,包括色情图像、种族歧视性语言和有害的社会刻板印象”,因此公司决定放弃公开发布该模型。

追溯性清除相关数据困难重重,因此斯坦福互联网观察站呼吁采取更激进的措施。其中一项措施是,任何人如果基于LAION-5B(该模型中包含超过50亿个图片-文本数据对,因此而得名)开发了训练数据集,就应该“删除数据集,或者与中间方合作清理相关材料”。另外一项措施是让旧版Stable Diffusion从互联网最阴暗的角落消失。

泰尔表示,“合法平台可以停止提供相关版本下载”,尤其是在工具被频繁用于生成不良图像且没有阻止此类行为的安全防护措施的情况下。

例如,泰尔点名了CivitAI平台。该平台被人们用于制作AI生成的色情内容而受到欢迎,但该平台缺乏杜绝生成儿童图片的安全措施。报告中还呼吁AI公司Hugging Face采取更有效的方法,举报和删除虐待材料的链接。Hugging Face为模型提供训练数据。

该公司称,它长期与监管部门和儿童安全团体合作,识别和删除儿童虐待材料。CivitAI并未回复在其网页提交的置评请求。

斯坦福的报告还质疑,根据联邦《儿童在线隐私保护法案》(Children’s Online Privacy Protection Act)规定的保护措施,未经家人同意,是否应该把任何儿童的照片,即便是最良性的照片,输入AI系统。

反儿童性虐待组织Thorn的数据科学总监瑞贝卡·波特诺夫表示,她所在机构的研究发现,虽然AI生成的儿童性虐待图像在虐待者中并不流行,但这类图像的流传范围正在持续扩大。

开发者能够保证开发AI模型所使用的数据集中不含儿童虐待材料,从而减少这些伤害。波特诺夫称,即使在模型发布之后,仍旧有机会彻底减少这类有害的使用。

科技公司和儿童安全团体目前正在为视频和图像添加“标签”,通过这种独特的数字标志跟踪和移除儿童虐待内容。波特诺夫指出,这种理念也适用于被滥用的AI模型。

她说:“AI行业目前还没有这样做。但我认为,他们可以而且应该采取这种措施。”(财富中文网)

译者:刘进龙

审校:汪皓

Tags:
相关推荐
免责声明
本文所包含的观点仅代表作者个人看法,不代表新火种的观点。在新火种上获取的所有信息均不应被视为投资建议。新火种对本文可能提及或链接的任何项目不表示认可。 交易和投资涉及高风险,读者在采取与本文内容相关的任何行动之前,请务必进行充分的尽职调查。最终的决策应该基于您自己的独立判断。新火种不对因依赖本文观点而产生的任何金钱损失负任何责任。