首页 > AI资讯 > 最新资讯 > AI专家呼吁全球政府采取“三分之一投资规则”

AI专家呼吁全球政府采取“三分之一投资规则”

新火种    2023-11-03

站长之家10月27日 消息:一篇由杰弗里·辛顿、尤瓦尔·赫拉利等联合撰写的论文呼吁全球政府采取具体监管措施,以规范AI的发展和应用。

这些专家包括三位图灵奖得主、一位诺贝尔奖得主以及众多AI学者,他们敦促各国政府采取紧急行动,提出了“三分之一投资规则”,要求主要从事AI系统开发的组织至少投入三分之一的资源来确保AI的安全和伦理使用,这一承诺与他们在能力开发上的投资水平相当。

1_1693449769614_ai2023_Facial_AI_robots_a_lot_of_cash_on_the_conference_table_i_d531bb02-0ec5-4e0a-9f1c-a65fa11a4c51

图源备注:图片由AI生成,图片授权服务商Midjourney

杰弗里·辛顿,被广泛认为是最有影响力的AI科学家之一,表示:“有些公司计划在18个月内用比今天最先进技术多100倍的计算来训练模型。没有人知道它们将有多强大。而且对于它们将能够做什么基本上没有监管。”

在伦敦举行首届国际AI安全峰会之前,这些专家发布了一份简明的文件,概述了政府应如何应对与AI相关的风险。这份文件代表了迄今为止来自顶尖AI学者的最具切实性和全面性的一揽子要求。

这份文件强调了当前的AI模型具有巨大的影响力,需要民主监管以防范潜在风险,包括AI生成的虚假信息、社会不公、权力集中、网络战争和失控等问题。

文件的一位作者、计算机科学家尤瓦尔·赫拉利强调了这些措施的紧迫性,鉴于AI技术的快速发展。他表示:“是时候认真对待高级AI系统了。这些不是玩具。在了解如何使它们安全之前增强它们的能力是极其鲁莽的。公司会抱怨难以满足监管,声称‘监管扼杀创新’,这是荒谬的。对于AI公司来说,比三明治店更多的监管是必要的。”

Tags:
相关推荐
免责声明
本文所包含的观点仅代表作者个人看法,不代表新火种的观点。在新火种上获取的所有信息均不应被视为投资建议。新火种对本文可能提及或链接的任何项目不表示认可。 交易和投资涉及高风险,读者在采取与本文内容相关的任何行动之前,请务必进行充分的尽职调查。最终的决策应该基于您自己的独立判断。新火种不对因依赖本文观点而产生的任何金钱损失负任何责任。