首页 > AI资讯 > 行业应用 > 回应来了!OpenAI公布保障AI安全的六大方法

回应来了!OpenAI公布保障AI安全的六大方法

新火种    2023-10-22

  OpenAI表示,将继续促进利益相关者之间的合作和开放对话,以创建一个安全的AI生态系统。

  在迎来诸多质疑以及指责后,美国当地时间4月5日,ChatGPT研发者OpenAI在其官网中发布了题为《Our approach to AI safety》(《我们保障AI安全的方法》)的文章,介绍了该公司确保AI模型安全性的部署,以下为GPT-4翻译的全文内容。

  OpenAI致力于确保强大的AI安全且具有广泛的益处。我们知道,我们的AI工具为当今的人们提供了许多好处。全球各地的用户告诉我们,ChatGPT有助于提高他们的生产力、增强创造力并提供定制的学习体验。我们也意识到,与任何技术一样,这些工具带来了实际风险,因此我们努力确保在系统的各个层面都建立安全保障。

  构建越来越安全的AI系统

  在发布任何新系统之前,我们进行严格的测试,征求外部专家的反馈,使用诸如基于人类反馈的强化学习等技术改进模型行为,并构建广泛的安全监控系统。

  例如,在我们最新的GPT-4模型完成训练后,我们花了6个多月的时间在整个组织内部努力工作,以使其在公开发布之前更加安全和更具一致性。

  我们认为,强大的AI系统应该接受严格的安全评估。我们需要监管以确保采用此类做法,并积极与政府合作,制定最佳监管形式。

  从现实世界中学习以改善保障措施

  在部署之前,我们努力预防可预见的风险,但实验室中我们能学到的东西是有限的。尽管进行了广泛的研究和测试,我们无法预测人们将以何种有益的方式使用我们的技术,也无法预测人们会如何滥用它。这就是为什么我们认为从现实世界中学习是随着时间推移创建和发布越来越安全的AI系统的关键组成部分。

  我们谨慎而逐步地发布新的AI系统——设有严格的保障措施——逐渐扩大的用户群,同时根据我们学到的经验不断改进。

  我们通过自己的服务以及API,使开发人员能够将此技术直接嵌入到他们的应用程序中,从而提供我们最有能力的模型。这使我们能够监控和采取行动制止滥用,不断建立应对实际滥用方式的缓解措施,而不仅仅是关于可能出现的滥用情况的理论。

  现实世界的应用还使我们能够针对对人们构成真正风险的行为制定越来越细致的政策,同时仍然允许我们技术的诸多有益用途。

  至关重要的是,我们认为社会必须有时间来适应并调整以适应越来越强大的AI,而且受这项技术影响的每个人都应该对AI的进一步发展有重要的发言权。迭代式部署帮助我们更有效地将各方利益相关者纳入AI技术采用的讨论中,而如果他们没有亲身体验这些工具,这将无法实现。

  保护儿童

  我们安全工作的一个关键重点是保护儿童。我们要求使用我们的AI工具的人必须年满18岁,或者在父母同意的情况下年满13岁,并正在研究验证选项。

  我们不允许我们的技术用于生成仇恨、骚扰、暴力或成人内容等类别。与GPT-3.5相比,我们的最新模型GPT-4在响应不允许内容的请求方面减少了82%的可能性,我们建立了一个强大的系统来监控滥用行为。GPT-4现已向ChatGPT Plus订阅者提供,我们希望随着时间推移,让更多人使用它。

  我们已经付出了巨大的努力,以尽量减少我们的模型产生损害儿童的内容的可能性。

  除了我们默认的安全护栏外,我们还与像非营利性的可汗学院这样的开发者合作,可汗学院已经构建了一个AI驱动的助手,既可以作为学生的虚拟导师,也可以作为教师的课堂助手,为他们的使用案例提供定制的安全缓解措施。我们还在开发允许开发者为模型输出设置更严格标准的功能,以更好地支持希望获得此类功能的开发者和用户。

  尊重隐私

  我们的大型语言模型是在包括公开可用内容、许可内容和人类审查员生成的内容等广泛文本语料库上进行训练的。我们不使用数据来销售我们的服务、做广告或建立人物档案,而是使用数据让我们的模型对人们更有帮助。例如,ChatGPT通过对人们与其进行的对话进行进一步训练而得到改进。

  尽管我们的部分训练数据包括在公共互联网上可获取的个人信息,但我们希望我们的模型了解世界,而不是私人个体。因此,我们努力在可行的情况下从训练数据集中删除个人信息,对模型进行微调以拒绝请求私人个体的个人信息,并回应个人要求从我们的系统中删除他们的个人信息的请求。这些步骤将使我们的模型生成包含私人个体个人信息的回应的可能性降到最低。

  提高事实准确性

  如今的大型语言模型根据之前看到的模式预测下一系列单词,包括用户提供的文本输入。在某些情况下,接下来最有可能的单词可能并不是事实上准确的。

  提高事实准确性是OpenAI和许多其他AI开发者的重要关注点,我们正在取得进展。通过利用用户对被标记为错误的ChatGPT输出的反馈作为主要数据来源,我们已经提高了GPT-4的事实准确性。与GPT-3.5相比,GPT-4生成事实内容的可能性提高了40%。

  当用户注册使用该工具时,我们努力尽可能透明地告知ChatGPT可能并不总是准确的。然而,我们认识到,还有很多工作要做,以进一步减少幻觉的可能性,并教育公众了解这些AI工具的当前局限性。

  持续的研究与参与

  我们认为,解决AI安全问题的实际方法是,花费更多的时间和资源研究有效的缓解措施和对齐技术,并针对现实世界的滥用进行测试。

  同样重要的是,我们还认为,提高AI的安全性和能力应该并行进行。我们迄今为止最好的安全工作来自与我们最有能力的模型合作,因为它们更擅长遵循用户的指示,更容易引导或“指导”。

  我们在创建和部署更有能力的模型时会越来越谨慎,并将随着我们的AI系统的发展不断加强安全预防措施。

  尽管我们等待了超过6个月才部署GPT-4,以便更好地了解其能力、优势和风险,但有时可能需要比这更长的时间来提高AI系统的安全性。因此,政策制定者和AI提供商需要确保AI的开发和部署在全球范围内得到有效治理,这样就不会有人为了领先而抄近路。这是一个需要技术和制度创新的艰巨挑战,但我们非常愿意为此作出贡献。

  解决安全问题还需要广泛的辩论、实验和参与,包括关于AI系统行为的界限。我们已经并将继续促进利益相关者之间的合作和开放对话,以创建一个安全的AI生态系统。

本文源自:智通财经

相关推荐
免责声明
本文所包含的观点仅代表作者个人看法,不代表新火种的观点。在新火种上获取的所有信息均不应被视为投资建议。新火种对本文可能提及或链接的任何项目不表示认可。 交易和投资涉及高风险,读者在采取与本文内容相关的任何行动之前,请务必进行充分的尽职调查。最终的决策应该基于您自己的独立判断。新火种不对因依赖本文观点而产生的任何金钱损失负任何责任。