基于大模型的优质Prompt开发课--学习笔记ing

发布时间 2023-05-16 22:37:33作者: Cong0ks

大规模与训练语言模型(LLMs) Large-scale and trained language model

 

近十年深度学习模型主要更迭

 当模型能够习得的知识量级越来越大,其生成的内容亦呈现出无线可能

 

为什么大模型能够如此强大的表现力

大模型(LLMs)涌现出的三大能力:

上下文学习(In-cotnext learning)

上下文学习是一种机器学习技术,用于从给定的上下文中预测目标变量的值。在自然语言处理(NLP)领域,上下文学习已经被广泛应用于命名实体识别、关系提取、问答系统等任务。

上下文学习的基本思想是,通过分析大量的文本数据,学习如何将上下文中的信息与目标变量相关联。具体来说,上下文学习器会维护一个词典,其中包含特定上下文中出现的特定词汇及其含义。在此基础上,学习器还会通过监督学习来更新词典,以增加新的关联规则。预测时,上下文学习器会通过分析当前上下文中的词汇和语法结构,并将其与词典中的规则进行比较,以确定目标变量的预测值。

上下文学习已经被应用于各种自然语言处理任务,包括实体识别、情感分析、问答系统等。在命名实体识别方面,上下文学习已被证明是一种有效的技术,可以准确地识别同时出现在一个上下文中的实体。在问答系统中,上下文学习可以帮助生成更准确、更自然的问答句子。此外,在自然语言生成和对话生成方面,上下文学习也有着广泛的应用前景。

总之,上下文学习是一种强大的技术,已经在NLP领域得到了广泛的应用和研究。它可以帮助我们更好地理解和处理自然语言数据,并在各种自然语言处理任务中获得更好的性能。
详解介绍-由文心一言生成

指令遵循(Instruction-following)

指令遵循是指聊天机器人根据用户的指令来执行相应的操作。指令遵循是聊天机器人的一个重要特征,因为它可以帮助聊天机器人更好地理解用户的意图,并根据这些意图执行相应的操作。
详解介绍-由文心一言生成

思维链模推理(COT,Chain-of-toughts)

思维链是指思考时依照逐级分析、循序推断、左顾右盼等模式深入解决问题。当存在新观点,相对比之前旧有观点正确,无法通过直接的逻辑推理得到,需要在原有观点的基础上,进行合理的推断,从而得到新的观点。

思维链模推理是一种高效的解决问题的方法,通过以上几个环节能够最大限度地挖掘出所有观点中隐藏的信息,并从中得到新的见解。这种方法可以帮助人们更好地理解问题,并找到最优的解决方案。
详解介绍-由文心一言生成

 

Prompt基本定义:驱动大模型进行表达的文本描述

For example:

 

 为什么优质Prompt才能生成优质内容

一般描述×

 更好的描述√(一般需要多生成几次)

 

AIGC:新一代内容生产方式

从业者 - 高效工具

  • 更精细化的内容打磨
  • 更有深度的创意创作

企业 - 降本增效

  • 更高效的资源分配
  • 更稳定的业务发展

产业 - 代际革新

  •  生产方式优化
  • 促进整体效率提升
  • 优化资源配置

如何定义优质Prompt

 开始构建优质Prompt

 第一步:简单了解大模型生成原理

 第二步:写出一个基础的Prompt