-
Notifications
You must be signed in to change notification settings - Fork 23
Commit
This commit does not belong to any branch on this repository, and may belong to a fork outside of the repository.
- Loading branch information
Showing
498 changed files
with
11,210 additions
and
41 deletions.
There are no files selected for viewing
Large diffs are not rendered by default.
Oops, something went wrong.
Large diffs are not rendered by default.
Oops, something went wrong.
This file contains bidirectional Unicode text that may be interpreted or compiled differently than what appears below. To review, open the file in an editor that reveals hidden Unicode characters.
Learn more about bidirectional Unicode characters
Original file line number | Diff line number | Diff line change |
---|---|---|
@@ -0,0 +1,7 @@ | ||
提示工程(Prompt Engineering)是一门较新的学科,关注提示词开发和优化,帮助用户将大语言模型(Large Language Model, LLM)用于各场景和研究领域。 掌握了提示工程相关技能将有助于用户更好地了解大型语言模型的能力和局限性。 | ||
|
||
研究人员可利用提示工程来提升大语言模型处理复杂任务场景的能力,如问答和算术推理能力。开发人员可通过提示工程设计、研发强大的工程技术,实现和大语言模型或其他生态工具的高效接轨。 | ||
|
||
提示工程不仅仅是关于设计和研发提示词。它包含了与大语言模型交互和研发的各种技能和技术。提示工程在实现和大语言模型交互、对接,以及理解大语言模型能力方面都起着重要作用。用户可以通过提示工程来提高大语言模型的安全性,也可以赋能大语言模型,比如借助专业领域知识和外部工具来增强大语言模型能力。 | ||
|
||
基于对大语言模型的浓厚兴趣,我们编写了这份全新的提示工程指南,介绍了大语言模型相关的论文研究、学习指南、模型、讲座、参考资料、大语言模型能力以及与其他与提示工程相关的工具。 |
This file contains bidirectional Unicode text that may be interpreted or compiled differently than what appears below. To review, open the file in an editor that reveals hidden Unicode characters.
Learn more about bidirectional Unicode characters
Original file line number | Diff line number | Diff line change |
---|---|---|
@@ -0,0 +1,232 @@ | ||
### 提示工程简介 | ||
|
||
提示工程是一个较新的学科,应用于开发和优化提示词(Prompt),帮助用户有效地将语言模型用于各种应用场景和研究领域。掌握了提示工程相关技能将有助于用户更好地了解大型语言模型的能力和局限性。研究人员可利用提示工程来提高大语言模型处理复杂任务场景的能力,如问答和算术推理能力。开发人员可通过提示工程设计和研发出强大的技术,实现和大语言模型或其他生态工具的高效接轨。 | ||
|
||
本指南介绍了提示词相关的基础知识,帮助用户了解如何通过提示词和大语言模型进行交互并提供指导建议。 | ||
|
||
除非特别说明,本指南默认所有示例都是基于 OpenAI 的大语言模型 `text-davinci-003` 进行测试,并且使用该模型的默认配置,如 `temperature=0.7` 和 `top-p=1` 等。 | ||
|
||
### 大语言模型设置 | ||
|
||
使用提示词时,您会通过 API 或直接与大语言模型进行交互。你可以通过配置一些参数以获得不同的提示结果。 | ||
|
||
**Temperature**:简单来说,`temperature` 的参数值越小,模型就会返回越确定的一个结果。如果调高该参数值,大语言模型可能会返回更随机的结果,也就是说这可能会带来更多样化或更具创造性的产出。我们目前也在增加其他可能 token 的权重。在实际应用方面,对于质量保障(QA)等任务,我们可以设置更低的 `temperature` 值,以促使模型基于事实返回更真实和简洁的结果。 对于诗歌生成或其他创造性任务,你可以适当调高 `temperature` 参数值。 | ||
|
||
**Top_p**:同样,使用 `top_p`(与 `temperature` 一起称为核采样的技术),可以用来控制模型返回结果的真实性。如果你需要准确和事实的答案,就把参数值调低。如果你想要更多样化的答案,就把参数值调高一些。 | ||
|
||
一般建议是改变其中一个参数就行,不用两个都调整。 | ||
|
||
在我们开始一些基础示例之前,请记住最终生成的结果可能会和使用的大语言模型的版本而异。 | ||
|
||
### 基本概念 | ||
|
||
#### 基础提示词 | ||
|
||
您可以通过简单的提示词(Prompts)获得大量结果,但结果的质量与您提供的信息数量和完善度有关。一个提示词可以包含您传递到模型的_指令_或_问题_等信息,也可以包含其他详细信息,如_上下文_、_输入_或_示例_等。您可以通过这些元素来更好地指导模型,并因此获得更好的结果。 | ||
|
||
看下面一个简单的示例: | ||
|
||
*提示词* | ||
|
||
```Plaintext | ||
The sky is | ||
``` | ||
|
||
*输出结果* | ||
|
||
```Plaintext | ||
blueThe sky is blue on a clear day. On a cloudy day, the sky may be gray or white. | ||
``` | ||
|
||
如以上示例,语言模型能够基于我们给出的上下文内容 `"The sky is" 完成续写。 而输出的结果可能是出人意料的,或远高于我们的任务要求。 | ||
|
||
基于以上示例,如果想要实现更具体的目标,我们还必须提供更多的背景信息或说明信息。 | ||
|
||
可以按如下示例试着完善一下: | ||
|
||
*提示词* | ||
|
||
```Plaintext | ||
完善以下句子:The sky is | ||
``` | ||
|
||
*输出结果* | ||
|
||
```Plaintext | ||
so beautiful today. | ||
``` | ||
|
||
结果是不是要好一些了?本例中,我们告知模型去完善句子,因此输出的结果和我们最初的输入是完全符合的。**提示工程**(Prompt Engineering)就是探讨如何设计出最佳提示词,用于指导语言模型帮助我们高效完成某项任务。 | ||
|
||
以上示例基本说明了现阶段的大语言模型能够发挥的功能作用。它们可以用于执行各种高级任务,如文本概括、数学推理、代码生成等。 | ||
|
||
#### 提示词格式 | ||
|
||
前文中我们还是采取的比较简单的提示词。 标准提示词应该遵循以下格式: | ||
|
||
```Plaintext | ||
<问题>? | ||
``` | ||
|
||
或 | ||
|
||
```Plaintext | ||
<指令> | ||
``` | ||
|
||
这种可以被格式化为标准的问答格式,如: | ||
|
||
```Plaintext | ||
Q: <问题>?A: | ||
``` | ||
|
||
以上的提示方式,也被称为_零样本提示(zero-shot prompting)_,即用户不提供任务结果相关的示范,直接提示语言模型给出任务相关的回答。某些大型语言模式有能力实现零样本提示,但这也取决于任务的复杂度和已有的知识范围。 | ||
|
||
基于以上标准范式,目前业界普遍使用的还是更高效的_小样本提示(Few-shot Prompting)_范式,即用户提供少量的提示范例,如任务说明等。小样本提示一般遵循以下格式: | ||
|
||
```Plaintext | ||
<问题>?<答案><问题>?<答案><问题>?<答案><问题>? | ||
``` | ||
|
||
而问答模式即如下: | ||
|
||
```Plaintext | ||
Q: <问题>?A: <答案>Q: <问题>?A: <答案>Q: <问题>?A: <答案>Q: <问题>?A: | ||
``` | ||
|
||
注意,使用问答模式并不是必须的。你可以根据任务需求调整提示范式。比如,您可以按以下示例执行一个简单的分类任务,并对任务做简单说明: | ||
|
||
*提示词* | ||
|
||
```Plaintext | ||
This is awesome! // PositiveThis is bad! // NegativeWow that movie was rad! // PositiveWhat a horrible show! // | ||
``` | ||
|
||
*输出结果* | ||
|
||
```Plaintext | ||
Negative | ||
``` | ||
|
||
语言模型可以基于一些说明了解和学习某些任务,而小样本提示正好可以赋能上下文学习能力。 | ||
|
||
### 提示词要素 | ||
|
||
如果您接触过大量提示工程相关的示例和应用,您会注意到提示词是由一些要素组成的。 | ||
|
||
提示词可以包含以下任意要素: | ||
|
||
**指令**:想要模型执行的特定任务或指令。 | ||
|
||
**上下文**:包含外部信息或额外的上下文信息,引导语言模型更好地响应。 | ||
|
||
**输入数据**:用户输入的内容或问题。 | ||
|
||
**输出指示**:指定输出的类型或格式。 | ||
|
||
注意,提示词所需的格式取决于您想要语言模型完成的任务类型,并非所有以上要素都是必须的。我们会在后续的指南中提供更多更具体的示例。 | ||
|
||
### 设计提示的通用技巧 | ||
|
||
以下是设计提示时需要记住的一些技巧: | ||
|
||
#### 从简单开始 | ||
|
||
在设计提示时,需要记住这是一个迭代的过程,需要大量的实验来获得最佳结果。使用像OpenAI或Cohere这样的简单平台是一个很好的起点。 | ||
|
||
您可以从简单的提示开始,随着您的目标是获得更好的结果,不断添加更多的元素和上下文。在此过程中对您的提示进行版本控制是至关重要的。当您阅读本指南时,您会看到许多例子,其中具体性、简洁性和简明性通常会给您带来更好的结果。 | ||
|
||
当您有一个涉及许多不同子任务的大任务时,您可以尝试将任务分解为更简单的子任务,并随着获得更好的结果而不断构建。这避免了在提示设计过程中一开始就添加过多的复杂性。 | ||
|
||
#### 指令 | ||
|
||
您可以使用命令来指示模型执行各种简单任务,例如“写入”、“分类”、“总结”、“翻译”、“排序”等,从而为各种简单任务设计有效的提示。 | ||
|
||
请记住,您还需要进行大量的实验,以查看哪种方法最有效。尝试使用不同的关键字、上下文和数据尝试不同的指令,看看哪种方法最适合您的特定用例和任务。通常情况下,上下文与您要执行的任务越具体和相关,效果越好。我们将在即将推出的指南中介绍采样和添加更多上下文的重要性。 | ||
|
||
其他人建议将指令放在提示的开头。建议使用一些清晰的分隔符,如“###”,来分隔指令和上下文。 | ||
|
||
例如: | ||
|
||
*提示:* | ||
|
||
指令 将以下文本翻译成西班牙语:文本:“hello!” | ||
|
||
*输出:* | ||
|
||
```Plaintext | ||
¡Hola! | ||
``` | ||
|
||
#### 具体性 | ||
|
||
对您希望模型执行的指令和任务非常具体。提示越具体和详细,结果就越好。当您有所期望的结果或生成样式时,这一点尤为重要。没有特定的令牌或关键字会导致更好的结果。更重要的是具有良好的格式和描述性提示。实际上,在提示中提供示例非常有效,可以以特定格式获得所需的输出。 | ||
|
||
在设计提示时,您还应考虑提示的长度,因为提示的长度有限制。考虑到您应该具体和详细的程度是需要考虑的。包含太多不必要的细节并不一定是一个好方法。这些细节应该是相关的,并有助于完成手头的任务。这是您需要进行大量实验的事情。我们鼓励大量实验和迭代,以优化您的应用程序的提示。 | ||
|
||
例如,让我们尝试从一段文本中提取特定信息的简单提示。 | ||
|
||
*提示:* | ||
|
||
```Plaintext | ||
提取以下文本中的地名。所需格式:地点:<逗号分隔的公司名称列表>输入:“虽然这些发展对研究人员来说是令人鼓舞的,但仍有许多谜团。里斯本未知的香帕利莫德中心的神经免疫学家Henrique Veiga-Fernandes说:“我们经常在大脑和我们在周围看到的效果之间有一个黑匣子。”“如果我们想在治疗背景下使用它,我们实际上需要了解机制。”” | ||
``` | ||
|
||
*输出:* | ||
|
||
```Plaintext | ||
地点:里斯本,香帕利莫德中心 | ||
``` | ||
|
||
输入文本来自[这篇Nature文章(opens in a new tab)](https://www.nature.com/articles/d41586-023-00509-z)。 | ||
|
||
#### 避免不精确 | ||
|
||
在上面关于详细和格式改进的提示中,很容易陷入想要过于聪明的提示陷阱,从而可能创建不精确的描述。通常最好是具体和直接。这里的类比非常类似于有效的沟通——越直接,信息传递就越有效。 | ||
|
||
例如,您可能有兴趣了解提示工程的概念。您可以尝试这样做: | ||
|
||
```Plaintext | ||
解释提示工程的概念。保持解释简短,只有几句话,不要过于描述。 | ||
``` | ||
|
||
从上面的提示中不清楚要使用多少句话和什么样的风格。您可能仍然可以通过上面的提示获得良好的响应,但更好的提示是非常具体、简洁和直接的。例如: | ||
|
||
```Plaintext | ||
使用2-3句话向高中学生解释提示工程的概念。 | ||
``` | ||
|
||
#### 做还是不做? | ||
|
||
设计提示时的另一个常见技巧是避免说不要做什么,而是说要做什么。这鼓励更具体化,并关注导致模型产生良好响应的细节。 | ||
|
||
以下是一个电影推荐聊天机器人的示例,因为我写的指令——关注于不要做什么,而失败了。 | ||
|
||
*提示:* | ||
|
||
```Plaintext | ||
以下是向客户推荐电影的代理程序。不要询问兴趣。不要询问个人信息。客户:请根据我的兴趣推荐电影。代理: | ||
``` | ||
|
||
*输出:* | ||
|
||
```Plaintext | ||
当然,我可以根据您的兴趣推荐电影。您想看什么类型的电影?您喜欢动作片、喜剧片、爱情片还是其他类型的电影? | ||
``` | ||
|
||
以下是更好的提示: | ||
|
||
*提示:* | ||
|
||
```Plaintext | ||
以下是向客户推荐电影的代理程序。代理负责从全球热门电影中推荐电影。它应该避免询问用户的偏好并避免询问个人信息。如果代理没有电影推荐,它应该回答“抱歉,今天找不到电影推荐。”。```顾客:请根据我的兴趣推荐一部电影。客服: | ||
``` | ||
|
||
*输出:* | ||
|
||
```Plaintext | ||
抱歉,我没有关于您兴趣的任何信息。不过,这是目前全球热门的电影列表:[电影列表]。希望您能找到喜欢的电影! | ||
``` | ||
|
||
上述示例中的一些内容摘自["Best practices for prompt engineering with OpenAI API" article.](https://help.openai.com/en/articles/6654000-best-practices-for-prompt-engineering-with-openai-api) | ||
|
Oops, something went wrong.