首页 > AI资讯 > 最新资讯 > 人工智能入门:足够好的提示

人工智能入门:足够好的提示

新火种    2025-01-20

神译局是36氪旗下编译团队,关注科技、商业、职场、生活等领域,重点介绍国外的新技术、新观点、新风向。

编者按:本文主要讨论了如何通过 “足够好的提示” 来有效地使用 AI,并强调了在实际工作中与 AI 合作的重要性。文章来自编译。

在看过一篇关于医生用GPT-4诊断疾病的新论文时,我发现了AI的一个常见问题。这篇论文证实了许多类似研究的发现:先进大语言模型在诊断方面表现出惊人的能力,即便模型并非专为医学设计。大家可能会认为这种AI能力能够帮助医生提高诊断的准确性。可是,事实是,使用AI的医生表现并不比不使用AI的医生更好——而且两组医生的表现都比不上只用ChatGPT。为什么医生不能从AI的帮助中获益?

其中一个原因是算法排斥效应。我们往往不喜欢接受与自身判断相矛盾的机器建议,这导致医生即便在AI判断准确时也倾向于否决其结论。另一个原因则与使用大语言模型密切相关。对于那些不熟悉使用这些工具的人来说,AI系统会显得难以掌控,从而导致他们无法充分利用AI的建议。

正如《纽约时报》一篇关于该论文的报道所言:“他们把[AI]当成了一个用于直接提问的搜索引擎:‘肝硬化是否是癌症的危险因素?眼痛有哪些可能的诊断?’ 只有少数医生意识到,他们可以将整个病史直接复制粘贴给聊天机器人,并要求它对问题给出全面的回答。” 这种问题不是只有医生才有。在我教授的每个课堂或演讲的每个组织里,大多数人都试过用AI,但经常不知道该怎么用。由于这种困境,他们并没有投入足够的时间(10个小时)来真正理解AI的作用。

阻碍的因素有很多:人们将AI看作是Google,向它询问事实性问题。可AI并不是Google,没法提供一致甚至可靠的答案。有些人则要求AI替他们写东西,但又抱怨生成的内容过于平庸。还有一些人根本不知道该如何开始,面对闪烁的光标感到束手无策。归根结底,他们无法有效地向AI发出提示。

对于这些问题,一个常见的答案是,人人都应该学习一下“提示工程”——一种让AI按预期工作的复杂科学(或更像是一门艺术)。不过,对于大多数人来说,用这种方式开始并不理想。首先,复杂的提示结构可能令人感到畏惧和束缚。尤其是因为你不需要成为AI专家,甚至不需要了解编程或计算机,就可以成为一名AI使用专家。如果建议从复杂技能入手,可能会让人望而却步。其次,“提示工程”这个概念暗示存在一种明确的科学方法,能让AI按你的预期运转。可实际上,研究人员对什么是好的提示的最基本原则仍在争论。这是因为AI存在不一致性和奇特性,在不同模型之间常常会产生不同结果。比方说,它们对间距或格式的细微变化非常敏感;当你让它“重新审视问题”时,它们会表现得更准确;它们似乎对礼貌语气反应更好(但不要过于礼貌);甚至到了12月,它们可能还会表现得比较懒散,也许是因为它们“学会了”寒假的概念。此外,由于更大的模型对提示技术的变化不再像早期AI那样敏感,再加上新技术可以优化提示,对AI的正规培训需求可能会越来越少。

因此,虽然你可以学习提示工程的细节,了解大语言模型的基础工作原理,但对于大多数人来说,这并非必要起点。你只需花时间使用AI,了解它在你专业领域的实际用途。最重要的是,要花上10小时左右与高级AI系统互动。而做到这一点的关键是成为一个“足够好的提示者”,去克服阻碍许多AI用户的那些障碍。起步方式主要有两种:“足够好的任务提示”以及“足够好的思考提示”。

足够好的任务提示

使用AI来完成任务是最实用的方式之一。在我的书中,我提到要让AI参与到工作当中,尝试用它处理所有工作任务,去看看它的表现如何。我仍然认为这是一开始的正确做法。通常的建议是将AI当作实习生使用。可是,现在回想起来,我认为这种比喻往往会导致大家用非常有限的方式去使用AI。说实话,任何最近的前沿模型(如Claude 3.5、ChatGPT-4o、Grok 2、Llama 3.1或Gemini Pro 1.5)可能比你能雇到的任何实习生都要出色,但同时也会更怪异。

别这样,我建议换个新的比方:把AI看作一位耐心无限的新同事,只不过这位新同事记性不咋地,每次开启新的对话都会忘记你之前告诉它的所有事情,一位别人极力推荐但实际能力尚不清楚的同事。我的意思是,要真的像对待这样一位同事那样与AI互动。这个比方当中有两点跟与人类合作(新手和同事)类似,而另两点则非常异类(忘记一切以及无限耐心)。我们应该从AI最接近人类的地方开始,因为这是“足够好的提示”的关键。

鉴于AI是你的同事,你需要跟它合作,而不是光顾着给它下命令;同时,你也需要了解它的长处和短处。首先,从你熟悉的领域开始,这样你可以快速摸索出它的能力边界。由于你对该领域非常熟悉,可以快速判断AI的回答是对还是错。你需要做好心理准备,因为AI可能会提供一些看似合理但实际上却是错误的答案。但不要因为这些“幻觉”而害怕尝试。尽管“幻觉”可能不可避免,但随着时间的推移,你会了解它们在哪些情况下作用巨大,哪些情况下无关紧要。通过允许AI“犯错”可以有效降低幻觉的发生率。比方说,可以告诉AI:“如果你不确定或者缺少必要信息,请回答‘我没有足够的信息来回答这个问题’”,这种方式效果明显。

鉴于AI是新手,你需要非常明确地说明你的需求。比方说,不要只要求它写一份关于远程学习利弊的报告,而是具体到:“写一份针对美国中西部某地方大学开展远程学习的利弊报告,目标是说服商学院院长资助一个新的远程学习项目。” 其他帮助AI明确任务的方法包括:提供好坏回答的示例(所谓的少样本提示),以及逐步说明你希望完成的目标。你也可以像对待其他人一样,给AI提供反馈,要求它进行改进,或者干脆让它向你提问,了解不清楚的地方。与AI的合作是一场对话,而不是单向指令。

接下来我们来谈谈AI不太像人的地方,比方说它的健忘——每次新对话都会抹掉AI对你具体情况的理解。因此,你需要提供背景信息。背景信息可以是一种角色或身份(比方说扮演一名市场营销人员),但需要谨慎使用这些角色。因为虽然角色能帮助AI理解你的背景,但这并不是万能的(并不会真的将AI变成一名市场营销人员),有时候赋予AI角色甚至会降低准确性。可以尝试运用角色,但如果角色没用,也可以不用。你还可以直接提供所有相关信息,比如整篇文档、操作手册,甚至是之前的对话内容,这些通常都很有帮助。但请注意AI的记忆能力,就是上下文窗口有限。

最后,我们来谈谈AI的耐心无限,这是它最不像人的特性之一。实际上,关于AI最难理解的一点是,它永远不会对你发火。你可以不断提出要求,不断进行修改,它都会继续回应你。这种特性为知识生活带来了一种新的可能性——富足。你不必害怕提过分要求,比如可以让它同时提供三封不同语气的邮件来激发灵感。你不需要只要求一句话的写法,可以要它写出15种不同的表达方式来打破你的写作瓶颈。不必只提出5个想法,而是让它给30个点子。事实上,我们的研究发现,GPT-4可以生成成千上万个想法,而且不会在短时间内重复。你的任务是推动多样化(“给我提出比原先怪80%的想法”)、重组(“结合第12个和第16个想法”)、扩展(“提供更多类似第12个的想法”),然后选择一个你喜欢的。

足够好的思考提示

除了可以从AI那里获取工作成果之外,你还可能希望获得建议、找到一位思考伙伴或者就是找个人聊聊天。人们之所以这样做的原因各不相同。即便AI的建议未必总会有所帮助,你也可以把它当作一个“橡皮鸭”——这是一种在计算机编程中常见的想法,也就是当你对着桌上的一只橡皮鸭解释一个问题时,通过自言自语,你就会理清问题所在。举个例子,我曾跟一位量子物理学家交流过,他说AI对他的物理研究颇有帮助。当我问他AI是不是一位好的物理学家时,他回答说不是,但AI的好奇心旺盛,会促使他更深入地思考自己的想法。这就是“橡皮鸭”作用的体现。不过,AI也确实可以提供一些有用的指导。比方说,如果你有执行能力,AI可以提供不错的战略或创业建议。除此之外,根据控制实验,与AI的对话似乎可以减轻孤独感,但我们尚不清楚将AI用于治疗或陪伴的各种影响和风险,因此建议谨慎使用。

如果希望把AI看作思考伙伴,关键是对话要自然。只需跟它交谈即可。大多数人发现,通过手机进行语音对话是最轻松的方式。目前最好的语音模型是GPT-4o,可通过ChatGPT或Copilotapp访问。Google Gemini的语音模型稍显逊色,但也可以用。其他模型的语音模式也即将推出。

不要复杂化

理解AI最有效的方法就是去用。人们可能因为早期的幻觉(认为AI不够好)或存在主义的不适感(认为AI太好)而过快放弃使用AI,但随着时间的推移,很多最初的反应会变得缓和。你的目标很简单:花10小时用AI干真正相关的任务。之后,你自然就会明白AI是如何融入你的工作和生活的。你会逐渐培养出对有效提示的直觉,并能更好地理解AI的潜力。不要追求完美——从某个地方开始,边用边学即可。

译者:boxi。

相关推荐
免责声明
本文所包含的观点仅代表作者个人看法,不代表新火种的观点。在新火种上获取的所有信息均不应被视为投资建议。新火种对本文可能提及或链接的任何项目不表示认可。 交易和投资涉及高风险,读者在采取与本文内容相关的任何行动之前,请务必进行充分的尽职调查。最终的决策应该基于您自己的独立判断。新火种不对因依赖本文观点而产生的任何金钱损失负任何责任。