prompt-tuning

LoRA(Low-Rank Adaptation of Large Language Models)-- 一种大模型prompt-tuning调优方法

一、Pre-train + Fine-tuning范式 0x1:为什么要微调 对于数据集本身很小(几千张图片/几千段文本)的情况,从头开始训练具有几千万参数的大型神经网络是不现实的,因为越大的模型对数据量的要求越大,过拟合无法避免。这时候如果还想用上大型神经网络的超强特征提取能力,只能靠微调已经训练 ......

解密Prompt系列3. 冻结LM微调Prompt: Prefix-Tuning & Prompt-Tuning & P-Tuning

这一章我们介绍在下游任务微调中固定LM参数,只微调Prompt的相关模型。这类模型的优势很直观就是微调的参数量小,能大幅降低LLM的微调参数量,是轻量级的微调替代品 ......
共2篇  :1/1页 首页上一页1下一页尾页