今天大全给大家带来一篇万字长文,详细的讲解提示词是什么,已经和 AI 对话的过程中,哪些是提示词无能为力的,哪些是 AI 工具特有的局限呢?
因为文章比较长,先给大家一个文章大纲:
一、基本概念|Prompt 是什么?
二、局限与困境|时效性问题
三、局限与困境|幻觉问题
四、局限与困境|记忆问题
五、局限与困境|韵脚问题
六、局限与困境|精确字数问题
七、局限与困境|修辞机械问题
八、局限与困境|约束失效问题
废话不多说,我们直接上干货。
一、基本概念| Prompt 是什么?
在我们与 GPT 的互动中,"Prompt"是一个非常重要的概念。无论是在使用聊天机器人、进行创意写作,还是在其他 AI 应用中,了解什么是 Prompt 以及它如何工作,对于有效地使用 AI 技术至关重要。
1、Prompt 的定义
Prompt 是一种指令或信息,它引导或触发 AI 系统做出回应。在与 AI 如 ChatGPT 的交互中,每当我们输入一段文字,无论是问题、命令还是陈述,这段文字就是一个 Prompt。
想象 AI 是一位知识渊博的朋友,拥有广泛的信息和技能。当你与她对话时,你提出的每个问题或评论(即“Prompt”)都是对话的一部分。
比如,你可能会问她:“你对最近的科技发展有什么看法?”或者说:“请帮我概括一下太阳能的工作原理。”在这个情境中,每个问题或请求都是一个“Prompt”,引导你的朋友(AI)提供相关的信息、观点或执行特定的任务。
就像在与人的交谈中一样,你的“Prompt”的质量和清晰度将直接影响到对方的回应。清晰具体的问题会得到更精确和有用的答复。
如果你的问题模糊不清,你的朋友可能会需要更多的信息来提供有用的答案。同样,当你给 AI 一个清晰、明确的“Prompt”时,它可以更有效地理解你的请求并给出更准确的回应。
2、Prompt 的作用
- 触发回应:Prompt 是与 AI 进行交流的起点,它告诉 AI 我们需要什么样的信息或反应。
- 引导对话:通过使用特定的 Prompt,我们可以引导 AI 沿着特定的思路或话题进行回答。
- 影响输出:AI 的回应会根据 Prompt 的内容而变化。一个明确、具体的 Prompt 通常会得到更精确和相关的回答。
3、Prompt 常用类型的使用示例
- 描述性 Prompt:
- 用途:用于描述或询问具体信息。
- 示例:“描述埃菲尔铁塔的历史。”
- 创造性 Prompt:
- 用途:激发创新思维或产生新的想法。
- 示例:“创造一个关于未来城市的故事。”
- 指令性 Prompt:
- 用途:指导 AI 执行特定的任务或操作。
- 示例:“将这段文本翻译成法语。”
- 探索性 Prompt:
- 用途:用于探索或研究一个主题或问题。
- 示例:“探索全球变暖对极地生物的影响。”
- 情感性 Prompt:
- 用途:探讨或表达情感、感受或心态。
- 示例:“写一首表达失落情感的诗。”
- 问题解答 Prompt:
- 用途:用来回答具体的问题或解决问题。
- 示例:“如果一个圆的半径是 5 米,那么它的面积是多少?”
新版本点击最右边,有执行分析步骤,很人性化:
- 编程或代码 Prompt:
- 用途:用于编程任务或解决技术问题。
- 示例:“写一个 Python 脚本来排序一个数字列表。”
- 咨询性 Prompt:
- 用途:在于提供分析、见解或建议。
- 示例:“给一位希望提高时间管理技能的专业人士提供建议。”
- 图像生成 Prompt:
- 用途:用于创建或修改图像。
- 示例:“生成一幅描述太阳系的图像。”
- 音频或视频 Prompt:
- 用途:用于生成或编辑音频和视频内容。
- 示例:“创建一个关于太阳系的短视频。”
这类的目前 ChatGPT 还无法实现此功能。但是已经有可以实现的了比如:Pika,Pixverse,以及现在特别火的 Sora 也是。
二、局限与困境| 时效性问题
1、什么是 ChatGPT 的时效性问题?
ChatGPT 是一个基于大量数据训练的 AI 模型。它通过分析过去的数据来生成回答,但是,这个模型不能实时更新,这意味着它的知识是停留在某个特定时间点的。
通过询问 ChatGPT 可以得知具体时间,那么 ChatGPT 就不会 2023 年 4 月之后发生的事件。
所以当你问 ChatGPT 一些关于最新新闻、流行文化或最近的科技发展的问题时,它无法提供最新的信息。它的回答可能基于过时的数据,这有时会导致误解或不准确的信息。
那我们怎么做呢?
- 使用可以联网功能的 AI 工具:比如 GPT4 ,默认的对话框已经集成了最新上网功能,可以获取最新信息。
但是需要注意一点,就是这些信息,其实是通过内置的上网功能实时的获取数据,展示出来的而已。
这意味着什么呢?也就是说,GPT 训练库里面没有使用最新的数据进行训练。
我们来看看,GPT 是如何回答这个问题的:
那么我们最后再来看看,两种回复内容的本质区别:
所以,大家应该清楚了,时效性问题,到底会导致 GPT 回复的内容对我们的影响了吧。
三、局限与困境| 幻觉问题
1、什么是幻觉问题?
幻觉问题是指 ChatGPT 在处理信息时可能产生的误解或错误。这种情况通常发生在 ChatGPT 尝试理解复杂的概念、模棱两可的问题或非常新颖的话题时。
由于 ChatGPT 是通过分析大量的文本数据训练出来的,它有时会“误解”这些数据或“过度推断”,从而产生不准确或虚构的回答。
定义:当模型生成的文本不遵循原文(Faithfulness)或者不符合事实(Factualness),我们就可以认为模型出现了幻觉的问题。
我们看下这个幻觉问题:
- 输入冲突幻觉,ChatGPT 生成的内容与事实不符。
- 语境冲突幻觉,ChatGPT 生成的内容与之前生成的互相冲突:
- 与事实相冲突的幻觉,ChatGPT 成的信息或文本与已有的世界知识相矛盾:
2、幻觉的来源
1)ChatGPT 缺乏相关知识或内化错误知识
ChatGPT 有时会将虚假的相关性(如位置接近或高度共现的关联)误解为事实知识,即 ChatGPT 的幻觉与训练数据的分布之间存在很强的相关性。
2)ChatGPT 有时会高估自己的能力
一些研究旨在了解语言模型是否能够评估其回答的准确性并识别其知识边界。然而,对于非常大的 ChatGPT 来说,正确答案和错误答案的分布熵可能是相似的,这表明 ChatGPT 在生成错误答案时与生成正确答案时同样自信。
3)有问题的对齐过程可能会产生幻觉
如果 ChatGPT 在预训练阶段没有获得相关的先决知识,那么在训练指令时,这实际上是一个错误的对齐过程,会促使 ChatGPT 产生幻觉。
另一个潜在问题是"谄媚"(sycophancy),即 ChatGPT 可能会生成偏向用户观点的回答,而不是提供正确或真实的答案,这可能会导致幻觉
4)ChatGPT 采用的生成策略存在潜在风险
但是,即使 ChatGPT 意识到自己的早期错误是正确的,它们有时也会过度承诺。换句话说,ChatGPT 可能更喜欢用“滚雪球”来实现自我一致性,而不是从错误中恢复。
3、减少模型幻觉的实用技巧
所以当我们向 ChatGPT 询问某些问题时,它可能给出错误或虚构的答案。这些答案可能看起来合理,但实际上并不基于真实的事实或逻辑。这个问题尤其在处理非常专业或最新的话题时更加明显。
- 提供清晰的上下文和约束条件
2) 操作方法:在提示中提供足够的背景信息,并明确说明期望的范围或约束条件。让模型在特定范围内生成内容,有助于避免生成不符合逻辑或脱离主题的回答。
- 示例:在问医疗问题时,明确指出“仅基于最新的 2023 年医疗指南回答”或“不要进行未经证实的猜测”。
2) 使用“逐步推理”的方法
- 操作方法:提示模型逐步推理出答案,而不是直接生成最终回答。这可以使模型更关注逻辑和细节,降低产生幻觉的概率。
4) 示例:当讨论复杂问题时,可以引导模型先列出每个关键步骤或推理环节,以确保回答的严谨性。
- 引导模型“大声思考”
2) 操作方法:让模型将其思考过程详细地表达出来,以便用户可以观察其推理路径。这样可以帮助识别任何不合理的假设,并纠正偏离的逻辑。
- 示例:问模型“在做出结论之前,请逐步列出你的推理过程,以便我确认你的逻辑路径。”
4) 生成多个版本并挑选最佳答案
- 操作方法:提示模型生成多个不同的回答版本,然后综合这些答案或挑选最一致的那个。这种多角度分析可以减少模型对特定观点的偏倚,并提高准确性。
4) 示例:询问“请提供三个不同角度的回答,然后我会根据这些回答综合出一个更准确的结论。”
- 指定信息来源或数据验证
2) 操作方法:在提示中明确要求模型基于特定信息来源或数据集回答问题,或在回答中注明引用的来源。这样可以引导模型基于事实而非推测提供内容。
- 示例:在提出关于某个科学发现的问题时,要求“仅基于最近的科学文献进行回答”。
6) 使用结构化 Prompt 和模板化格式
- 操作方法:采用结构化 Prompt(例如 CO-STAR 框架)来组织内容,明确回答的各个部分,让模型理解回答的结构并保持在任务的轨道上。
4) 示例:在生成科技文章时,结构化提示可以包含“背景”、“关键要点”、“支持证据”等部分,确保回答保持清晰、逻辑性强。
- 设定回答长度限制
2) 操作方法:限制回答的长度,避免模型提供过多的推测性内容。短而精确的回答通常更可靠,减少了模型生成无关或虚构信息的机会。
- 示例:在问一个简单的问题时,可以说明“请在 50 字以内回答,尽量简洁明了”。
8) 指定模型使用可信的外部资源
- 操作方法:在涉及复杂或实时性强的问题时,要求模型引用权威资料或可信资源,如著名数据库或科学期刊。这有助于减少幻觉现象。
4) 示例:在金融或健康类问题上,指明“请参考 X 机构的数据或指南”。
- 在复杂问题上重复询问并比较回答
2) 操作方法:针对复杂问题,可以从不同的角度重新询问同一个问题,生成多个回答并进行比较,以识别并消除虚假或不一致的信息。
- 示例:对于历史事件的分析,重复提问并检查不同版本的回答是否一致,从而确保内容的准确性。
10) 设定回答中的不准则或排除项
- 操作方法:在提示中列出特定的不准则或排除项,如“不允许基于未经证实的信息”“避免使用预测性语言”等。这可以有效减少模型的自由发挥空间,减少不准确内容的生成。
- 示例:在问财务建议时,可以说明“不使用未经证实的经济预测或市场猜测作为依据”。
所以幻觉问题提醒我们,AI 并不完美,它的答案有时候需要进一步的核实和验证。使用 AI 时,保持警惕和批判性思维是非常重要的。
四、 局限与困境|记忆问题
1、什么是记忆问题?
ChatGPT 虽然能处理和生成复杂的文本,但它并不具备持久记忆的能力。这意味着它不能记住之前的对话内容或在不同会话之间保持信息的连贯性。这个问题其实我们在 tokens 章节就讲过的。
当对话的长度超过模型的最大 token 限制时,模型会开始"忘记"之前的对话内容。这是因为模型无法同时保留超过其最大 token 数量的信息。
在实践中,这意味着模型会丢弃较早的部分对话内容,以便为新的输入腾出空间。
这里给大家估算一下大致的长度:
GPT-3.5 :当你发送的文字和 GPT 回复的文字大概 4000 个汉字或者 3000 个单词的时候,GPT 就可能忘记了你最开始的对话内容,按照一轮对话 500 - 1000 字的假设,也就是 4 - 8 个提问之后就可以再次发送 GPT 最开始设定的偏好或者个人信息了。
GPT-4:这个模型 大概是 8000 个汉字或者 6000 个单词,也就是 8 - 16 次对话之后就会失意了。
2、这对我们意味着什么?
这意味着在多轮对话后,它也不能记住你之前提供的个人信息或偏好设置。
3、如何应对这个问题?
1)有效记忆长度的把握:了解模型的 token 限制有助于预测和控制对话的有效记忆长度。这意味着在长对话中,你会意识到模型可能会忘记早期的交流内容。因此,避免在超过 token 限制时继续提问与最初的问题相关的内容,因为模型可能已经"忘记"了这些信息。
2)简洁明了的表达:基于奥卡姆剃刀原理(即在解释事物时不应不必要地增加更多假设),建议在对话中使用简洁、直接的表达方式。这意味着避免冗长或不必要的话语,以减少 token 的消耗,并保持对话的清晰和焦点。
3)重要信息的重复:在连续多轮对话中,如果某些信息非常重要,可以在不同时间点简要重复这些信息,以帮助模型保持对重要细节的记忆,特别是在长对话中。
4)合理分段:在长文本或复杂问题的情况下,合理分段信息可以帮助模型更有效地处理和回应。这可以通过分解长问题或在长对话中定期总结已讨论的要点来实现。
不过还有一个方法可以避免 GPT 的失忆问题,那就是自制 GPTs 把自己对 GPT 设置的个人信息和以及个人偏好封装起来,这样 GPT 就会一直记住你对她设定的数据。
接下来我们详细看下如何设置?
4、ChatGPT 4.0 自定义说明
1)点击进入自定义选项:
2)填写自定义内容
1、第一个窗口中填写个人角色定位
思维启发
你在哪个区域?
你的工作是什么?
你的爱好和兴趣是什么?
你可以聊什么话题聊上几个小时(兴趣)?
你有什么目标?
2、在第二个窗口中填写 GPT 输出标准
思维启发
ChatGPT 的语气应该正式还是轻松一些?
回复通常应该有多长或多短?
您希望我如何称呼您?
ChatGPT 应该对某些话题有自己的观点还是保持中立?
5、ChatGPT 的记忆功能
当然最新的 GPT 还有一个记住你的功能,就是记忆功能,那如何使用 Memory 功能呢?在设置中点击“个性化(Personalization)”,然后进入“记忆(Memory)”设置。
最初,Memory 是空的,不包含任何信息。更新记忆时,可以使用触发词如“请记住 XXX”或“我希望 XXX”。
更新后,如果看到“Memory updated”,则信息已被记下。回到“记忆(Memory)”设置,点击 Manage 查看所有记忆信息。如果信息有误,可以选择删除。
我们来看看测试结果:
那如何使用之前记忆的内容呢?
我们看到这个其实是可以起别名的呢,还是非常方便的。
那我们换一个新对话,看看能否记住呢?
这里需要注意,在 GPTs 中无法调用这些记忆的内容。
我测试了这一功能,发现 ChatGPT 现在可以根据记忆提供更个性化的回答。
我还测试了基于记忆的复杂推理,比如将优化文字的 Prompt 直接保存,以后就可以直接调用,避免重复输入。
这对于一些简单的提示词,非常好用,不需要每次去搜索或者复制提示词,而搞一个 GPTs 反而会更加的笨重。
所以大家在使用 ChatGPT 的时候,需要注意这个长度问题,就不会困惑为什么对话一段时间后,GPT 似乎忘记了什么?
五、局限与困境|韵脚问题
1、问题的定义
韵脚问题是指 AI 在尝试创作押韵文本时所面临的困难,包括在保持意义、节奏和押韵的同时生成流畅和吸引人的内容。
尽管现代的 AI 模型如 ChatGPT 在文本生成方面取得了显著进步,但在处理复杂的韵律结构时仍然存在挑战。
2、问题的影响
- 押韵不自然:AI 生成的诗歌可能会在某些情况下使用不太自然的押韵。这是因为 AI 在尽量匹配给定的韵律结构时,可能会选择不完全合适的词语。人类诗人在创作时会考虑词语的意境和情感,而 AI 可能主要关注形式上的匹配,导致押韵显得生硬或牵强。
- 节奏不一致:古诗的节奏和韵律非常重要,但 AI 在创作时可能难以完全模拟出人类诗人的节奏感。古诗往往有严格的平仄规则和节奏要求,AI 可能会在保持这些规则的同时失去一些自然流畅的节奏。
- 内容牺牲:为了押韵或符合特定的韵律结构,AI 可能会牺牲内容的深度或丰富性。有时候,为了使句子押韵,AI 可能选择意义不够深刻或与上下文不完全吻合的词语,从而降低整体诗歌的艺术价值和表达深度。
3、如何解决?
- 具体指定韵律结构:如指定“ABAB”韵律模式或特定的诗歌形式。
- 提供样本或范例:给 AI 提供押韵文本的样本,以便模仿其风格和结构。
- 平衡内容与形式:在 prompt 中强调内容和韵律的平衡,以避免过分牺牲任一方面。
来看下例子:
通过具体的指导、结合人工编辑以及不断的尝试和调整,我们可以利用 AI 来创作富有韵律和节奏的文学作品。
虽然 AI 可能无法完全替代人类在诗歌创作中的创造力和直觉,但它仍然是一个有价值的辅助工具。
六、局限与困境|精确字数问题
1、问题的定义
精确字数问题指的是在使用文本生成 AI 时,难以精确控制生成文本的字数。这是因为 AI 模型如 ChatGPT 在生成回复时,其主要目标是内容的相关性和准确性,而不是字数的精确控制。
2、问题的影响
- 输出长度不可预测:AI 生成的文本长度可能不符合用户的具体需求,如过长或过短。
- 编辑和调整的需要:用户可能需要额外编辑 AI 的输出,以满足特定的字数要求。
- 困难在于满足格式要求:在有严格字数限制的格式中(如摘要、推文等),控制输出字数尤为重要。
3、怎么解决?
- 直接指定字数要求:例如,“写一个大约 100 字的简介”。
可以看到上面说了大约 100 字,但是还是给了快 200 字了 😂。
来看下改进的方法的效果:
- 使用结构化的请求:提供明确的结构要求,如“请提供三点建议,每点不超过 20 字”。
- 使用结构化的请求 2:请用简要描述环保的重要性,大概三句话,每句话 35 个字以内
可以看到通过这个方法可以更好的控制文本字数。
- 灵活调整期望:了解 AI 在字数控制上的局限,准备好进行必要的后期调整。
所以大家理解这一局限性并学会相应地调整我们的使用方式,是提高 AI 工具使用效率的关键。
七、局限与困境|修辞机械问题
1、问题的定义
修辞机械问题指的是 AI 生成的文本在修辞和表达上缺乏人类作家的那种流畅性、自然性和创造力。
虽然 AI,如 ChatGPT,能够生成语法正确且逻辑连贯的文本,但这些文本有时可能显得过于刻板、缺乏情感色彩,或者在创意表达上不够丰富。
2、问题的影响
- 文本缺乏吸引力:AI 生成的文本可能在某些情况下缺乏那种能够吸引和保持读者兴趣的修辞灵活性。这可能是因为 AI 在生成文本时,可能过于依赖常见的表达和句式,而缺乏那种能够引发读者情感共鸣或思考的独特视角或表达方式。
2) 表达不够人性化:AI 生成的文本可能缺少人类作家那样的情感深度和个性化表达。人类作家能够在作品中融入自己的情感、经验和独特的世界观,这些是 AI 目前还难以完全复制的。因此,AI 生成的文本可能会给人一种表面上光鲜、但缺乏情感深度和个性化的感觉。
- 创意受限:虽然 AI 可以在特定框架内生成创造性的内容,但其在进行高度创造性工作,如诗歌、小说或特定风格的写作时,可能不如人类表现出色。AI 可能难以跳出其训练数据的范围,进行真正的创新或提出完全独特的观点。在需要个性化风格和新颖想法的写作任务中,AI 的表现可能不如预期。
3、怎么解决?
- 明确风格要求:在 prompt 中明确指出期望的写作风格,如“幽默”、“正式”或“抒情”。
- 提供示例或参考:给 AI 提供样本文本或风格参考,以便它能模仿特定的修辞风格。
- 分步骤请求:将写作任务分成多个步骤进行,逐步引导 AI 达到期望的修辞效果。
我们来看下示例:
通过明智地使用 AI,结合人类的创造力和编辑技巧,我们可以克服这一局限性,创造更丰富、更吸引人的内容。
八、局限与困境|约束失效问题
1、问题的定义
约束失效问题发生在 AI 未能遵循或正确理解用户通过 prompts 设定的约束和限制。这可能包括忽视特定的指令、超出设定的话题范围,或在回应中包含不恰当的内容。
2、问题的影响
- 输出超出预期范围:如果 AI 未能正确理解或遵循用户的指示,它可能生成与用户指定的范围或主题不符的内容。这不仅会导致用户得不到他们想要的结果,还可能产生不相关或不适当的内容。
- 违反指导原则:AI 系统通常需要遵循一定的道德和社会准则。如果 AI 在生成内容时无视了 prompt 中设定的道德或指导原则,可能会产生不道德、有偏见或不尊重人权的内容。
- 安全和合规性风险:约束失效在某些情况下可能会导致安全问题或违反特定的规范和法规。例如,如果 AI 生成的内容包含敏感信息、误导性信息或侵犯版权的材料,这可能会引起法律问题或信誉损失。
3、如何解决?
- 使用简洁的指令:避免过于复杂或模糊的指令,以减少解释上的歧义。
原始 Prompt:“写一个故事,但是不要写得太长,也不要包含任何关于政治的内容,避免使用太专业的术语。”
优化后的 Prompt:“请写一个 200 字的非政治日常生活故事,避免使用专业术语。”
- 设定明确的界限:在 prompt 中明确指出界限,或者不希望 AI 触及的话题或风格。
原始 Prompt:“给我一些建议,但是不要让它们太复杂。”
优化后的 Prompt:“请给出三条简单的生活建议,每条不超过 15 字。”
- 反复测试和调整:通过不断的实践和调整,找出最有效的方式来设定和传达约束。
原始 Prompt(第一次尝试):“描述一种未来的技术,但是不要太科幻。”
优化后的 Prompt(经过测试和调整后):“请简述一种基于当前科技趋势的未来技术,200 字以内。”
其实主要看来例子,大家就会发现,最主要的能力还是你的文字表达能力,不要有歧义,还有就是需要较强的逻辑性。当你提高了这方面的能力,那么也就解决了 AI 的 约束失效的问题了。
今天的分享就到这里了,希望大家可以手动实操今天分享的内容,文中也有一些解决方法可以尝试一下,有任何问题欢迎交流。
本文由mdnice多平台发布
**粗体** _斜体_ [链接](http://example.com) `代码` - 列表 > 引用
。你还可以使用@
来通知其他用户。