什么情况需要微调定制属于自己的大模型

背景

我们日常所认识的「大模型」都是经过微调之后得到的。大模型只是一个「文本续写的模型」。在未经过任何微调或者基于人类反馈的强化学习(RLHF)之前,模型只能实现基本的文本接龙,并没有直接理解用户任何指令或意图的能力。

下面是开源大模型零一万物 Yi-34b 未经过微调之前,模型的输出:


上面的输出其实从语法结构什么来说都是对的,但是它的输出并不是「对话」,而是像继续编写某个文本里的片段。

经过 Chat 数据微调训练之后,模型才学会如何和人类进行正常交流:


用来微调的 Chat 对话模型使用的训练数据为下图所示,由符合预期的「一问一答」数据组成:

社区上的大模型,无论是 GPT 还是开源大模型,基本都遵循先进行预训练然后微调,得到一个对话或者其他用途的模型。

什么是预训练?

在预训练阶段,模型通过学习大量的数据来提取特征、理解语义和推理能力,从而对通识知识,代码知识获得一般性认识。质量较高的预训练数据可以增强模型的泛化能力,减少在后续特定任务上的训练调优时间和资源消耗。

  • 预训练是一种无监督学习方式,是指使用随机文本片段在大规模数据集上对神经网络模型进行初始训练,以便模型能够学习广泛的特征和知识。

  • 预训练使用的训练数据格式,「只有输出」,没有输入的标签。大模型使用这种大量没有标记的数据来自己学习训练数据中数据的规律(中英文语法,代码语法,通识知识等)

预训练适合什么场景?

  • 从 0 开始训练一个新的通用大模型。

  • 基座大模型 LLaMA2 中文数据非常少,只占 0.13%,有必要使用更多比例中文数据继续预训练使大模型学会中文表达。

  • 基座大模型 LLaMA2 模型代码内容的占比同样也不高(4%),使用预训练添加更多比例的代码数据,强化大模型代码能力(Code LLaMA代码模型)

  • 出了一门新的编程语言,为了让模型能够学到最新的编程语言结构,可以考虑预训练。

什么是微调?

  • 微调使用 「一问一答」的格式,即有标注的训练数据在基于原有模型参数上,来让模型更清楚地知道什么样的输入下他应该给予什么样的输出,按照训练数据里的模式进行学习。

大模型先通过预训练学习基础知识,再通过微调让模型学会基于它通过预训练已经学会的知识,学习如何去根据用户指令输出正确适当的内容。

我能用微调定制什么?

  • 设置风格、语气、格式等定性方面:

    • 场景举例:创建一个语音对话机器人,不通过提示词的方式,每次让模型输出的内容尽可能精简如50字以内。

    • 大模型智能Code Review,通过打标过的优质数据使得大模型 Review 的结果输出更加有效和高质量。

  • 提高生成预期输出的可靠性:

    • 将天气查询的需求转换为 JSON 请求参数,通过大量示例作为微调训练数据提升输出 JSON 的信息抽取的效果,并降低输出非法 JSON 内容的概率。

    • 要求大模型只输出代码块,即使通过提示词告诉模型只能一次性输出代码块且不添加任何解释,但大模型偶尔也会输出解释和多个代码块。此时用一些少量微调数据可以改善这些问题。

  • 提升效果

    • 使用大模型生成 Pandas 数据分析和可视化代码。大模型本身理解 Pandas 代码的编写,但是编写准确率在一些场景下可能不是特别高,通过一系列经过打标正确的训练数据提升大模型理解用户需求编写 Pandas 代码的效果和正确率。
  • 比较复杂的,有大量任务说明的提示词。

    • 比如将用户的一段描述转换为一个甚至多个接口请求参数,需要在提示词里添加大量说明文档和样例。
  • 减少 Token 占用

    • 就像上面的例子,在提示词里添加大量文档说明,使用按 Token 计费的模型如 GPT4 会显得很贵。同时较少的 Token 能获得更快的推理速度。

可以使用微调来让大模型新增知识吗?

不推荐,在需要有可信依据的场景上,比如构建智能客服机器人,通常会使用 RAG 的方式配合向量搜索等方式从文档库搜寻与用户询问问题最为相关的内容,并将匹配到的文档段落作为知识内容添加到提示词中,大模型使用提示词中的知识来回答用户的问题。

微调改善的是大模型在某种模式下的表现(如风格,准确度,幻觉问题等)。虽然微调也能一定程度上记忆新增的知识,但由于微调是改变模型的参数结构,使得模型在生成新 token 时输出与训练数据模式更相似的内容。从输出准确度上来说是不如在提示词中添加的知识内容。

微调方式

在大模型预训练参数上进行参数微调训练,有三种方式:

  • 全参数微调,即完全监督微调,在所有参数层上根据标注数据去调整原始预训练模型中的 QKV 参数层。

  • LoRA,即 LLM 的低秩适配(Low-Rank Adaptation),通过两个较小的矩阵来拟合调整后的参数层,这个过程可以理解为 X + Z = Y ,其中 X 为原始参数,Y 为训练之后的参数,训练过程中就是寻找可以将 X 拟合为 Y 的 Z 矩阵。Z 矩阵由 两个较小的 Wa 矩阵 和 Wb 矩阵组成。


  • QLoRA, 与 LoRA 方式类似,也是训练两个拟合参数层来达到对原始模型的调整。区别在于为了节省训练硬件资源, QLoRA 会先将原始模型参数量化至 4-bit 并冻结,然后添加一小组可学习的低秩适配器权重( Low-rank Adapter weights),这些权重通过量化权重的反向传播梯度进行调优,在量化之后的参数上进行 LoRA 训练,这将大幅下降显存的占用(33b 的模型 以 FP16 全量加载需消耗 80GB 显存,量化至 4 bit之后模型加载仅需要 20 GB 左右显存的占用)

  • 除了量化并冻结原始参数,QLoRA 还支持分页优化器:使用NVIDIA统一内存特性,将部分显存溢出的部分 offload 到内存中实现分页,来进一步避免 OOM 的问题。(即下图紫色箭头部分)


关于全量参数微调 和 LoRA 方式效果的对比,以下以 SQL 生成场景举例,柱状图从深到浅依次是未经过微调训练、LoRA 方式训练和全参数训练后模型生成的准确度:



在 SQL 数据集上,根据模型大小和微调方法预测准确率,LoRA微调模型的表现几乎可与全参数微调模型相当。需要注意的是,LoRA 微调的 13B 模型的表现略优于全参数微调的 7B 模型。

关于 QLoRA 训练的效果:


从上图中可以看到,在5-shot MMLU 场景下,QLoRA 效果与常规 LoRA 效果接近,甚至能反超常规 LoRA 微调效果。

关于资源消耗:


在上表中:

  • LLaMA-13B+LoRA(2M)表示使用 LLaMA-13B作为基本模型和 LoRA 训练方法在 200 万指令数据上训练的模型。

  • 可以看到全量参数的训练时间约为 LoRA 方式的 2~3 倍。

  • 从效果上来看,LoRA 与全参数微调效果差距在1 ~ 9%左右。但是在特定场景上(math 数据集)仅相差 1% 左右,因此在垂直领域训练上 LoRA 能保持较好的效果,同时显著降低训练时长。

以 6b 参数量的模型分别以不同方式启动训练,显存占用情况:


从上表中可以看到:

  • 全参数训练显存占用约为 LoRA 的 4.5倍

  • 使用 QLoRA 方式显存占用相对于 LoRA 又可以省一倍。

  • 6B 参数的微调,一张 24G 显存的显卡运行LoRA微调绰绰有余。

因此,结合训练效果看,LoRA 或者 QLoRA 的高效微调的方式成本较低效果相对也较好,因此以LoRA 的方式来对基座模型进行预训练是最为合适的。

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 203,098评论 5 476
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,213评论 2 380
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 149,960评论 0 336
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,519评论 1 273
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,512评论 5 364
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,533评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,914评论 3 395
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,574评论 0 256
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,804评论 1 296
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,563评论 2 319
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,644评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,350评论 4 318
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,933评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,908评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,146评论 1 259
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 42,847评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,361评论 2 342

推荐阅读更多精彩内容