首页 > AI资讯 > 行业应用 > 我们应该如何报道人工智能?这位专业AI研究者给出了10条建议

我们应该如何报道人工智能?这位专业AI研究者给出了10条建议

新火种    2023-10-22

编译:木槿、王转转、马莉

近几年,媒体和普通百姓对人工智能(AI)的兴趣激增,与此同时,媒体对AI的报道良莠不齐,一部分小杂志社和标题党对AI的报道更像是在描述科幻小说,而不是现实。

不过还好,《纽约时报》和《连线》等新闻媒体有凯德·梅斯(Cade Metz)和汤姆·西蒙尼特(Tom Simonite)这样的记者,他们会客观报道一些AI领域的研究和相关进展。

但是即使是《纽约时报》,在对新闻进行报道的时候也会在无意间通过选择措辞、图像或者类比,传播一些对AI的错误认识。

skynettoday的一位AI研究员为了扭转这个局势,提出一系列可供媒体选择报道的主题,其中一些对于没有了解过AI的人来所可能并不是那么明显。

以下是全文:

作为一组最佳实践主题,它虽然不能代表我们做的所有事情,但是这应该是要牢记并且坚持的原则。

该列表的灵感来源于我们自己的观察以及在网上和对斯坦福大学AI实验室研究人员的观察,我们希望它对记者、研究人员以及任何阅读或者撰写和AI相关的大众有用。

谨慎对待AI

首先我们需要强调AI到底意味着什么。我们需要明白一点:今天的人工智能系统和终结者或者类似的科幻小说概念毫无关联,类似终结者的夸张的故事加上误导性的图片让AI研究人员感到非常恼火。

那么AI到底是什么呢?AI研究人员朱利安·托吉留斯(Julian Togelius)在他的博客文章《为记者撰写有关人工智能的一些建议》中恰到好处地回答了这个问题:

谨记:没有人工智能之类的东西,所有这些都只是构建软件的方法和思想的集合,这些软件和思想是我们人类的大脑思考的产物。研究开发人员开发新的AI方法(并使用原有的AI方法)来构建软件(有时候还包括硬件),这些软件可以做一些令人惊讶的事情,比如说玩游戏和画一只猫。

尽管这不是一个值得讨论的问题,但是关于AI的报道在很多方面都犯了错误,因此我们接下来的建议中分别介绍每个方面。

禁止在无主权的地方暗示有主权

上述定义的一个含义是有误导性的,例如“人工智能发展了非人类语言”,因为人工智能不是一个单一的实体,而是一套技术和思想。正确的说法应该是“科学家基于人工智能开发了一个交通监控系统”。正如资深机器人学家和人工智能研究人员Rodney Brooks在他的“预测人工智能未来的七宗罪”中所说:

有人认为AI之所以是AI,在于他们认为AI就是一个自治系统。我认为这个想法是不对的,就像旧金山的本地人没有称他们的城市为“弗里斯科”一样,AI研究人员肯定不会把AI说成一个AI。

看起来在玩文字游戏,但这是事实的一部分。当下的AI系统在执行操作时几乎没有自治权,理解这一点很重要。“人工智能”有“智能”的含义并且它是一个自主主体,但这和我们现有的基于AI的应用程序不一样。它仅仅是在AI算法帮助下开发的一些软件应用程序,和我们用来浏览本文的浏览器没有什么不同,这些软件接受人工输入并产生由程序员指定的输出。正如我们调查对象指出的那样:

系统很复杂并且行为难以解释。我在该领域已经进行了很多研究,但是还有很长的路要走。与其他任何技术一样,即使存在众所周知的风险(如核电)和不确定性,我们仍然会使用它。 AI一词将意外的系统行为(即特斯拉汽车突然无故停止)归因于“ AI”的“有意识的决定”,而不是尚未理解复杂技术系统的行为。

底线:“AI”一词表明“ AI”系统的不当行为是“ AI”的“有意识的决定”,而问题是人类使用了他们制造的但尚未完全理解和控制的技术工具就像任何其他技术一样。

另一支持者还指出:最后一点确实是问题的根源。

拟人化的使用,例如“IBM教其AI诊断疾病”而不是“IBM编写了一个可以诊断疾病的计算机程序”。并没有会玩危险游戏和诊断疾病的所谓的“IBM 人工智能”,它们仅仅是不同的程序而已。此外,尽管机器学习技术包括“学习”一词,但使用“训练”一词来描述计算机学习人类的学习方式似乎更合适。机器学习与人类学习有很大的不同,更好的表述方式应该是“IBM在一个大型病例数据库基础上运行机器学习算法,用来创建一个可以诊断疾病的系统”。

认识到人类发挥的作用

关于没有真正自主权的AI驱动系统的上述观点有一个主要且通常被忽略的含义:人类在它们学会工作方面发挥着巨大作用。头条新闻经常说诸如“ X的AI教自己如何Y”之类的话,这意味着我们“仅仅”把AI算法放在一起就可以运行。 实际上,在新的具有挑战性的智能应用程序上,人们总是需要花费大量的思维和精力来取得进步。例如,最近有关OpenAI让机器人手解决魔方的新闻(当给出了使魔方达到已解决状态的步骤时)被贴上“机器人会自己玩魔方”的标题,尽管该项目涉及大量的人类工作,正如我们在研究范围中明确指出的那样。

朱利安·托吉留斯(Julian Togelius)在他的博客文章中再次提出了类似的观点:

谨记:“人工智能”实际上是人类的创造力。研究人员和开发人员专门研究AI在特定领域(例如机器人技术,游戏或翻译)的应用是有原因的。在构建解决问题的系统时,许多有关实际问题的知识(领域相关知识)包含在其中。这可能起到向系统提供特殊输入的作用,使用专门准备的训练数据,对整个系统各部分进行手动编码,甚至重新拟定问题,以便使问题更容易解决。

建议:了解“人工智能解决方案”的哪些部分是自动的,哪些是由于巧妙地编码了人类的领域知识的方法是观察这个系统将如何处理稍微不同的问题。

AI项目都要有适当的注意事项

对上述观点的一种回应可能是说,当今许多最杰出和强大的AI技术都源于“机器学习”(整个AI的一个子领域,“深度学习”是机器学习的子集),因此如果涉及“学习”是否暗示某种程度的自治或代理是不公平的? 简而言之,我们不这么认为。相反,弄清正在使用的特定AI算法与类人学习之间的区别甚至更为重要。

使用“学习”一词可能会让人有智能自主代理的想法,而事实是当今应用机器学习算法主要涉及整理输入和输出数据集,并优化程序以将输入映射到其合适的输出时。程序无法选择数据集、自身的结构以及什么时候以什么方式运行。因此,说一个程序“学习”了一些东西却没有强调这一点几乎与人类的学习方式无关可能会严重误导读者,并且程序本身没有任何自主权。 总体而言,正如对我们调查的一位受访者所说:

小心使用直观的词汇,因为我们对人类学习和行为的直觉并不适合人工智能系统(这个问题并没有从人工智能文献中的一些术语的使用手册中得到帮助)。

的确,AI研究人员通常是选择那些直观但有误导性的单词的人。但是,至少人工智能研究人员非常愤世嫉俗,以至于不能按照我们自己的理解看待这些话。那些不了解现代AI内部工作原理的人可能会想象这些词比它们实际意味更深远的意义。因此,应该避免将机器学习与人类的学习或发展进行比较。 Rodney Brooks同样在他的博客文章中强调了这一点:

言语固然重要,但是每当我们用一个词来形容关于AI系统的某些东西时(也可以应用于人类),我们就会发现人们高估了它的含义。 迄今为止,大多数用在机器上的词,对用在人类身上的词的含义仅仅是一种微观上狭隘的自负。

以下是一些已应用于机器的动词,对于这些机器,它们的能力与人类完全不同:

预测,拍打,分类,描述,估计,解释,幻觉,听,想象,打算,学习,模型,计划,玩耍,识别,阅读,推理,思考,看,理解,行走,写作。

对于所有这些单词,已有研究论文使用这些单词在应用于人类时所蕴含的丰富含义的一小部分。不幸的是,这些词的使用表明AI领域比人类领域有更多的含义。

这导致人们误解然后夸大当下人工智能的能力。

需要做的事:强调当今人工智能驱动程序的局限性

上述结论的推论是,当今大多数基于机器学习的程序都可以被描述为仅完成一项任务:将一种类型的输入映射到另一种类型的输出。这是狭义人工智能的一个示例,这意味着人工智能驱动的系统只能执行一项任务,而不能执行多种任务。将人工智能驱动的程序称为“智能”的另一个问题是,作为人类,说到“智能”时,我们指的往往是“广义智能”,因此可能会假定该程序也具备广义智能。避免这种误解是至关重要的,这也是为什么在面对没有人工智能专业知识的读者石,我们需要使用诸如“基于人工智能的程序”或“人工智能驱动的的软件”之类的术语的另一个原因。

朱利安·托吉利乌斯(Julian Togelius)在他的博客文章中也指出了这一点:

…您可以放心地假定同一系统不能既玩游戏,也画猫。实际上,我听说过的基于人工智能的系统全都无法完成多项任务。即使同一位研究人员基于同一思想为不同任务开发系统,他们也会构建不同的软件系统。当记者们写道“X公司的AI已经可以驾驶汽车,但现在也可以写诗”时,他们掩盖了事实,即这些分别是不同的系统是,并不存在具有广义智能的机器,不存在的。

而罗德尼·布鲁克斯(Rodney Brooks)则说:

问题其实出在这里。人们听说某些机器人或某些人工智能系统执行了某项任务。然后,他们将这种能力泛化并概括为执行相同任务的人类应具有的能力。他们将这种概括应用于机器人或人工智能系统。

当今的机器人和人工智能系统的功能极为局限。人类的泛化概括并不适用于此。

需要做的事:避免与流行文化中对人工智能的描述进行类比

尽管当今人们对人工智能的使用都属于“狭义人工智能”范畴,但到目前为止,大多数流行文化对人工智能的描述都集中在更像人类的广义人工智能上。毕竟,专注于执行人工指令的计算机程序听上去很无聊,而思考具有人类智能水平或更高智能水平的计算机程序的可能影响却很有趣。对于艺术家来说,思考广义人工智能的意义当然是可以的,但是由于流行文化中的人工智能与现实世界中的人工智能之间存在差异,我们建议避免与流行文化中对人工智能的描述进行类比,除非进行比较以指出广义智能与侠义智能之间的区别。

不要做的事:引用著名人士对人工智能的意见

与其他技术主题相比,人工智能的一个特别复杂的方面是,人们长久以来就在在科幻小说中对其进行思考和想象。尽管这些思考和想象十分有趣,但它们与当今现实中的人工智能完全脱节,对此就不多说了。许多著名人士(史蒂文·霍金,比尔·盖茨,埃隆·马斯克等)都对超人类的人工智能对人类的威胁表示担忧,这些观点是与当今现实中的人工智能完全脱节的推测。正如罗德尼·布鲁克斯(Rodney Brooks)所说:

“ TC:您正在写一本关于AI的书,所以我要问您:埃隆·马斯克在上周末再次表达了人工智能是对人类的威胁。您同意不同意?”

“ RB:外面有很多人说人工智能是对人类的威胁:天文学家皇家马丁里斯(Stephen Hawking),斯蒂芬·霍金(Stephen Hawking)写了一本关于它的书,他们有一个共同点,那就是:他们不从事人工智能的相关研究工作。对于那些从事人工智能的相关研究工作的人来说,我们知道将人工智能的相关项目推动到产品级别是多么困难。”

然而,这些报导诸如霍金担心人工智能可能将取代人类比比皆是。尽管这种报导似乎没有什么坏处,但它可能会误导人们以为这样的人工智能灾难是存在成为现实的可能性,并导致他们误解或忽略了对当今现实中的人工智能的真正担忧。神经科学家Anthony Zador和AI专家Yann LeCun最近表达了这一想法:

“他们[有关恶意的超级智能的猜测]分散了人们对该技术在不久的将来可能带来的其他风险和收益的关注。”

需要做的事:准确弄清任务是什么

以上建议与人们对人工智能粗浅的了解有关,我们的下一组建议将讨论更具体的细节,人们在谈论人工智能时需要特别注意这些细节,并且最好让读者有所了解。

机器学习的许多子领域(当今大多数媒体报道的人工智能子领域),例如计算机视觉或自然语言处理,都涉及尝试复制人类智能的某些方面。由于事实证明,复制人类水平的智能非常困难,因此数十年来,人工智能研究人员一直在通过定义与人类智能相关的更雄心勃勃的任务来逐步解决这些任务。例如,在计算机视觉的早期,一项任务是将3D形状的2D图像转换为这些3D形状的程序表示形式,可以通过计算机对其进行旋转操作:

摘自劳伦斯·吉尔曼·罗伯特(Lawrence Gilman Robert)的奠基性论文“三维立体的机器感知”。

这是一项很有用的任务,但将解决方案描述为能够例如从2D图像中创建任何对象的程序表示形式,而不仅仅是简单的3D形状,这显然是不正确的。同样的观点也适用于当今的人工智能发展。例如,需要解决的问题可能与“文本概括”类似,但解决方案的细节很重要–可以将文本概括为多少字?解决方案仅对一种文本有效吗?它是否保持了概括内容的真实内容?依此类推-细节确实很重要。正如我们调查的回应者所说:

需要对要解决的问题进行非常具体描述。究竟是“可以写小说”还是“可以连续写两个连贯的句子”还是“可以写真实的新闻报道”?

应该仔细解释究竟什么是“超人的表现”,以什么标准来衡量?进行比较的究竟是什么人?任务的局限性有多少?该模型使用了多少数据进行计算?”

关于机器学习算法的演示,除了正确地描述任务的精确细节之外,还需要采取的一项具体措施是,从训练算法的数据集中提供示例,并为各种输入提供输出。这通常在机器学习主题的论文中加以描述,为了让人们对被训练的程序可以接受的输入类型及其定性性能有一个大致的了解。

定性演示性能的一个示例,该人工智能算法经过训练可以输出RGB图像中各种对象周围的轮廓。来自论文“学习分割候选对象“。

要界定边界

明确了“任务是什么”的必然结论,就是知道了“任务不是什么”。在计算机科学中,解决关联任务的难度对毫无经验的人来说并非显而易见。就像XKCD漫画中所表达的那样:

因此,读者可能不清楚能玩Go(例如AlphaGo)的程序不能玩Chess或做其他事情。所以,要清楚地说明问题是什么和问题不是什么。再次引用Julian Togelius博客发帖:

建议:不要使用术语“an AI”或“an artificial intelligence”。常问问一个系统的局限是什么。问问它是否真的是与玩“太空入侵者”和“Montezuma的复仇”游戏一样的神经网络。(提示:它不是)

不要忽视失败

即使是狭义任务,AI系统也总是无法提供完美结果。指出这点很重要,而且也要谨慎说明这些错误如何发生,把这些失败描述为意料之外的或神秘的,可能会进一步加深系统中介机构的印象,从而传递给读者错误的概念。还不如说,失败是由于复杂系统尚不能理解的行为,是由于人类没能设计出足够强健的系统,人类使用了有缺陷的数据,或其他原因导致了系统失败。承认人类决策(AI工程师)及其如何深深地影响系统(系统不仅仅是“the AI”做出的决策)对于清晰地刻画我们今天所使用的AI非常重要。就像我们调查问卷反馈中所表述的:

“理解数据的问题/模式能如何影响系统;数据集通常太小/不完整/不是执行该任务所需的;这是导致许多缺点的原因”

要在上下文背景中展示进步

我们看到,有关AI新成果报道出现了一种令人担忧的现象,即报道这些成果及其意义时就像他们是该领域首次发现。例如,当google发布嘈杂空间讲话者识别的最新成果时,许多文章指出这是“不可思议的”,但却没提及该成果只是这个课题几十年研究更进一步的进展。尽管报道新想法及其意义非常有用,但如此报道可能导致更多不必要的关注。再次援引Togelius的博客:

记住:AI不是一个新领域,很少有想法是全新的。深度学习领域那令人敬畏但稍显过分宣传的当前进展,植根于上世纪80-90年代神经网络研究。相应地,这些研究则是基于上世纪40年代以来的想法和实验。大多数情况下,前沿研究是由一些方法的细微变化和改进构成;而早在获得这些进展的研究人员出生之前,这些方法就已经设计出来了。反向传播——赋能今天很多深度学习的算法,已经有几十年的历史了,而且是很多个人独立发明的。

建议:在报道那些令人兴奋的新进展时,也咨询一下年长的或至少中年的AI研究人员。有些人在AI变得很酷或它还不那么酷之前就一直在研究AI,因此他们已见证过AI热潮的全周期。这些人有可能告诉你这项新进展是对哪个旧想法的改进。

与此相关的另一个建议就是,避免模糊表述,诸如“此类技术使家庭机器人很快成为可能”,这种表述掩盖而非清晰说明了新研究的意义。这个建议也适用于对研究的关注。报道目前可能的误用,好于警示不明确的未来后果。通常,任何新文章都代表了迈向AI巨大挑战的微小进步,这些文章应该被清楚地表达出来。

结论

我们希望这一系列推荐的最佳实践说明了AI媒体报道中一些非显而易见的陷阱。当然,适用于任何媒体报道的建议(多渠道访谈,对在某领域有经济利益的访谈者的观点持怀疑态度,避免钩饵,等)也适用于AI,但AI研究者经常恼怒地发现这些建议并未被遵守:

作为AI研究人员,可以理解,我们在这个领域投入了大量精力,我们希望尽可能准确地与公众交流这个话题。我们期望这篇文章略有裨益,也鼓励媒体记者联系我们,与我们探讨如何就AI媒体报道提供进一步帮助。

本文首发于微信公众号:大数据文摘。文章内容属作者个人观点,不代表和讯网立场。投资者据此操作,风险请自担。

相关推荐
免责声明
本文所包含的观点仅代表作者个人看法,不代表新火种的观点。在新火种上获取的所有信息均不应被视为投资建议。新火种对本文可能提及或链接的任何项目不表示认可。 交易和投资涉及高风险,读者在采取与本文内容相关的任何行动之前,请务必进行充分的尽职调查。最终的决策应该基于您自己的独立判断。新火种不对因依赖本文观点而产生的任何金钱损失负任何责任。