如何通过10个简单步骤,让AI创作效率翻倍,性能提升90%

大象眸眸看科技 2024-09-26 21:28:56
本文背景

随着不断深入地使用 AI 以及体验更多产品

最近对于大模型的使用感悟又有了一些新收获。

今天,特意来和大家分享10 个大模型的使用妙招 。

这既是分享,也是我自己的学习梳理。

下面介绍的这些技巧,适用于所有大模型应用(比如 ChatGPT、Claude、Gemini、Kimi、腾讯元宝、智谱、豆包、文心、通义、讯飞星火、海螺 AI、百小应、跃问、万知等等),尤其是文本生成类的 AI。

1、让模型扮演一个角色

这个技巧可能很多人都用过,但很少有人知道其中的原因以及如何更好地运用。

“大模型”里有个“大”字,是因为它预训练的参数规模很大(最新的模型参数常常高达万亿级别)。 在大量参数预训练的过程中,出现了基于“规模效应”的智能显现 ,你也可以理解为“大力出奇迹”。

随着参数量的增加,大模型变得更加智能,拥有丰富的“能力包”。 让大模型扮演一个角色,就像是在提醒它“回忆”起自己的能力,调用这个领域的模型能力 ,避免跑偏或者迷失方向。

通过“角色扮演”的提示,我们不再需要对每一项能力进行详细描述,也不用对任务进行细致分解,只需要 简单地设定好角色,就能调用出大模型对应的能力。

那么,我们该如何设定角色,才能正确打开“能力包”呢?

清晰准确地描述这个角色就行。

通用模板:

现在你是一位出色的(你想要的身份),拥有(你想要的教育程度),并且有(你想要的工作年限和工作经验),你的工作内容是(与问题相关的工作内容),同时你具备以下能力(你需要的能力):

1、

2、

3、

……

通常来说,角色的定义与任务的关联度很大,我们对角色了解得越深入(熟悉行业、懂业务),就越能设定出符合预期的角色。

2、拆分

工作流,也就是我们在和大模型交流时很重要的一种输入方式。任务越复杂,就越得进行拆分,这也更考验我们的本事。

工作流其实就是把任务给分解开。要是让大模型做的任务比较复杂,那我们就得先自己动手把任务拆分成各个部分,还得尽量详细地把每个部分都描述清楚。

这里面可能会有一些任务是 AI 干不了的,得我们自己来完成,然后再提供给 AI(这就叫人机协同)。在实际操作中,这种情况经常出现。毕竟现在的模型还没那么聪明呢,真正的通用人工智能还没到来。

比如说,有个用户来找我,想让我帮她写个能自动抓取、总结并且排版文章的提示词。按照她对这个工作任务的说法,我先给她做了个工作流程图。

接着给她介绍了使用流程,最后才是把提示词交给她,还展示了实际的操作情况。

对工作流进行拆分,我们可以把它看成是一次在任务维度上的调整对齐。当我们用文字来描述这些任务的时候,里面其实隐含了很多背景知识和我们的期望。

比如说,我们想让大模型整理一份《黑神话:悟空》的游戏攻略,这就需要它去思考游戏了解、信息收集、攻略制作、玩家常见问题整理等步骤,这些都在游戏攻略的范围之内。

示例: 做一份《荒野大镖客2》的游戏攻略

提示词:

请帮我做一份《荒野大镖客2》的游戏攻略,下面是一些基本的步骤和思考方法:1.搜集信息:去找关于《荒野大镖客2》的游戏信息,像游戏机制(战斗系统、角色成长、探索要素这些核心玩法)、整个剧情流程(主线任务和支线任务)、物品、隐藏的线索和彩蛋等等。2.整理攻略。根据你收集到的信息,整理出一份游戏攻略。这份攻略得充分考虑玩家是新手,保证你的攻略是实用且可行的。3.整理玩家常见问题:收集并整理玩家在玩游戏的时候可能会遇到的常见问题,比如操作上的疑惑、游戏 bug、配置要求等等。要是你对任务的背景知识不太了解,不会拆分任务,也不知道怎么描述任务拆分。这个问题完全可以交给大模型,让它来帮你。

任务拆分提示词模板 :

(你要做的任务),都有哪些步骤呢?该怎么去思考呢?

与 Kimi 沟通示例

3、人人都能搞 RAG

大模型进行推理,实际上是依据用户输入的信息来展开。咱们提供的信息越丰富,大模型推理起来就越顺手。

所以呢,要想让大模型效果更棒,就得尽可能多提供输入信息,也就是当下超火的“RAG”技术(检索增强生成)。

这跟人类大脑有点像,我们不会把所有知识都存进大脑里,而是通过检索的方式动态获取知识,接着再凭借自身的智能去推理、做决策和行动。因此,人类可以在后天学习,能够针对不同场景去学不同知识,具备动态获取知识的本事。

这种后天学习的能力,其实就相当于 RAG。

对于目前的大模型,我们可以用下面这些方法来做 RAG,以此提升知识的拓展性和时效性,还有在专业领域的应用。

1)给模型提供知识库

例如通过 AI bot 平台(扣子/腾讯元器),创建属于自己的 Agent 知识库,让模型基于这个知识库进行生成。

2)指定网页检索生成

让模型访问特定网站(site:域名),检索信息后进行生成。

3)给模型提供上下文

主流大模型应用都支持大量上下文,有十万甚至百万、千万那么多,还支持各种格式。给模型提供一定的上下文,能有效提高生成质量。

提供的上下文资料要注意,文件名、文件内容里的文件名以及跟模型对话中的文件名,最好保持一致,别冲突。

4)使用插件

大模型擅长回答通用领域的问题,但在专业领域就没那么在行了。对于专业领域的知识调用,我们可以通过使用插件来实现,调用专业领域的知识。

4、让模型进行链式思考(

前面提到过,我们要把工作流拆分开,一步一步地分解任务。

对于模型从输入到输出的过程来说,也是这样。我们可以在中间加入一个思维链(Chain of Thought)的推理过程(reasoning chain)。

也就是:input-->Cot-->output

关于 Cot,常见的提示词是“让我们一步一步地思考”,就是让模型逐步进行思考,从而提升模型的生成质量。

比如,如果我想让大模型帮我写一篇文章,那就有两种办法:

1)输入信息后直接输出文章

2)输入信息后先输出大纲,接着完善大纲,再输出标题和正文,然后调整内容,最后输出文章

在《Prompt Engineering Guide》这篇文章里,做了一个简单的 Cot 测试,效果那是相当好。

5、示例要少而精

相信不少人都看过各种提示词模板或者攻略,里面很多都建议添加示例。出发点虽好,但却没提及示例的质量问题。

用户给出示例后,尤其是更多示例时,大模型主要会参照这些示例来回答问题,这在一定程度上会削弱模型自身的思考能力。

现实中,大多数人很难在短时间内把一个意思完整又准确地表达出来。所以你临时想出来的示例,常常存在语言不通顺或者没逻辑等问题,实在没必要放上去。

**要是非得放示例,那就尽量做到“少而精”。

**通过提供更有参考价值的示例,来减少示例带来的不良影响。

有参考示例:

无示例:

6、把要求放在最后

通常情况下,我们会对大模型提出一些要求,比如:

限定字数。

规定文风。

强调用途。

提出去 AI 味的要求(不能用长句子、连词、概括总结)。

要求结构化输出(用 MD 排版或者 Json 格式输出)。

让输出排除某些内容。

让输出只包含特定内容。

提出自检要求(在正式输出前,通读整个回答,检查有没有错别字、标点错误或者语病等)。

进行其他重要性强调(比如“重要”“注意”)。

通过加上这些限制性要求,可以提高 AI 生成结果的准确性。

建议大家在写提示词的时候,把所有限制性要求都放在 Prompt 的最后面,这样能让大模型更“听话”。

背后的原理是:大模型本质上是在做文本补全,生成的内容会更倾向于距离更近的语境。

如果用像 LIME(一种解释机器学习模型预测的算法)这样的模型解释算法来分析,距离更近的文本之间的权重往往更大,这在 Transformer 中的 Attention 权重上能清楚地看到。

你好,我是一名对AI科技充满热情的数字媒体工作者,虽然我缺乏技术背景。我希望你能帮我深入剖析一篇最新发布的大型AI模型研究报告,让我能更准确地把握该领域的技术进步。请从以下7个维度对文章进行详尽的阐释:1、该研究的核心目标是什么?它旨在解决哪些实际问题?这些问题对AI行业的前进有何深远影响?2、该研究提出了哪些创新的理念、策略或模型?与现有模型相比,它们有何独特之处和优势?请尽可能根据论文的具体内容进行分析。3、该研究通过哪些实验来证实所提出模型的可靠性?实验是如何设计的?实验数据和结果如何?请引用关键数据来阐释。4、该研究的成果将如何影响AI行业?有哪些潜在的应用场景和商机?作为媒体人士,我应该关注哪些点?5、在未来,该研究方向还有哪些问题和挑战值得深入探讨?这可能会催生哪些新技术和商业机遇?6、从批判性思维的角度来看,这篇论文还有哪些不足之处和遗漏?还有哪些内容需要进一步验证和质疑?7、对于非技术背景的读者来说,我应该从这篇论文中学习到什么,有哪些启示?你认为我还需要补充哪些背景知识?请用1000-1500字的篇幅,对论文进行深入分析。在阐述过程中,请多引用论文中的具体内容、关键数据和实验结果,帮助我清晰地理解论文的创新之处。同时,请从技术和商业的角度,探讨其对AI领域和产业界的影响。如果论文中有一些技术术语我可能不太熟悉,也请提供通俗易懂的解释。在回答格式上,请注意以下几点:1、使用三级标题来对应上述7个问题,明确区分不同部分。2、采用Markdown格式,适当使用列表、加粗等排版元素。3、引用原文时请采用blockquote的引用格式。4、关键术语首次出现时请加粗。5、使用中文撰写,学术术语可以用英文补充。6、适当插入图表,图文结合,帮助我理解论文内容。谢谢!

7、与模型反馈和确认

要是你不太确定大模型是不是真的明白了你的问题,那可以通过提问来确认一下。比如说:“我讲得够明白不?”或者“你能懂我的意思不?”

反馈和确认能够帮我们检查大模型是不是真的领会了自己的意图,这样就能减少误会,让沟通更高效。

示例:

无效沟通:“你懂了没?”

有效沟通:“我这么描述清楚不?要是有不明白的地方,跟我说一声,我可以再补充点细节。”

8、让模型反思

让大模型评估一下自己输出的质量,想想哪些地方还能再优化优化,然后重新输出,这样就能得到更好的回答。

示例:

**用户:**我公司打算推出一款人形机器人产品,想结合《黑神话:悟空》游戏来做宣传,帮我想一句广告词。

**初版:**掌控神话,引领未来——[公司名称]人形机器人,与悟空共攀科技高峰。

**优化版:**悟空之勇,触手可及——[公司名称]人形机器人,以情感智能开启科技新纪元。勇敢探索,即刻出发!

9、让大模型自检、自评

当我们和大模型交互的步骤比较多、提示词比较长的时候,大模型的回答有可能是错的。

这时候,一个不错的办法是在工作流程里加上让大模型自我检查的环节,让大模型自己确认一下回答对不对,是不是满足了我们的要求。

类似的方法还有让大模型给自己的回答打分,一直到回答让大模型自己满意为止。

10、指定输出的字数、格式和内容

根据个人需求,可以规定模型输出的字数、风格、格式、场景和用途等,还能提取特定的细节,把输出格式化成 HTML/MD/代码等。

另外,也可以让模型按照指定的格式输出内容。

比如,解释技术性名词,提示词参考:

它通过【啥方法】,解决了【具体啥问题】,类似【通俗易懂的比喻】。

我是大象,目前在做AI写作,副业从事新媒体运营,并拥有自己的工作室。借助AI技术趋势,我们可以做自媒体任何行业的赋能

我通过发布多篇实用干货视频教学,我每天深入研究AI的应用,大部分文案和视频都由AI协助完成,使我的工作效率大幅提升,节省了近一半的人力成本。AI的趋势远不止于此,其潜力巨大。

0 阅读:6

大象眸眸看科技

简介:感谢大家的关注