• 基于微调技术打造自己的私有LLM大模型


    ▼最近直播超级多,预约保你有收获

    近期直播:基于开源 LLM 大模型的微调(Fine tuning)实战

    ChatGPT 是“大力出奇迹”的典型代表,通过千亿级训练参数带来惊人的智能,但大模型并不完美,甚至一些在我们看来很简单的任务都完成不了,比如我们构建一个简单计算任务(如下):

    35b2d6c700002b85340bbfb393174ea5.png

    ChatGPT-4.0 错误回答如下:

    5c8a21a842b5b18c8444cacbfb6dbd3b.png

    我们必须明白,尽管 AI 在一定程度上模仿了人脑的工作方式,但实际上,机器人和人脑在处理信息时采用的策略有很大的不同。因此,即使在未来,我们也需要继续改进 AI 框架,以解决这种差距。比如一个百万位数的加法任务,ChatGPT-4 囿于 token 数的限制是不可能完成这个任务的,但人类却可以,这恰是人类和 AI 需要弥补的 GAP。

    这就是为什么 LLM 大模型已经很强大了,我们还需要继续微调它的其中一个原因,除了这个原因外,还有4点需要微调的原因。

    第二、缺乏专有数据,比如:企业内部的私有数据。

    第三、缺乏最新数据,比如:GPT-4 的训练数据截止到2021年9月。

    第四、预训练成本高,比如:GPT-3 预训练成本为140万美金。

    第五、提升数据安全性,比如:企业私有数据是不能传递给第三方大模型的,基于开源大模型的微调才能满足业务的需求。

     1 

    LLM 大模型微调(Fine tuning)技术

    Fine tuning 是指在预训练模型的基础上,使用特定的任务数据对模型进行重新训练,以适应具体的应用场景或任务。通常,预训练模型通过大规模数据集进行事先训练,获得广泛的语言理解和生成能力。而 Fine tuning 则是在此基础上,针对特定任务的数据集进行进一步训练,以使模型更好地适应该任务,并提高其性能。通过 Fine tuning,可以使模型更加专业化,提高在具体任务上的准确性和效果。

     2 

    微调(Fine tuning)实现原理

    Fine tuning 是一种迁移学习的方法,它基于预先训练好的模型,提供特定语料进行微调,让机器人学习指定的数据格式进行模仿创新,使之适应特定的任务。

    比如:让 ChatGPT 学习不同类型的古诗是怎么写的,他将拆解学习案例的语言结构、用词特点和格式等,以此作为依据进行创作。

    这种方法能够节省大量的计算资源和时间,因为我们不需要从头开始训练一个全新的模型。

    在 OpenAI 的情境下,我们通常会使用一个大型的预训练模型(比如:ChatGPT-3.5),然后通过 Fine tuning 的方式,让它适应我们特定的任务,例如文本分类、命名实体识别等。

    OpenAI 的 Fine tuning 技术基于预训练模型,通过在小规模任务上对该模型进行微调来快速适应具体的任务。

    其核心原理是将预训练模型的权重进行微调,以适应新任务的输入和输出。

    Fine tuning 特点是模仿再创新。

     3 

    微调(Fine tuning)适用场景

    Fine tuning(微调),更适合于教授模型新的任务或模式,而不是新的信息。微调就是在大模型的数据基础上做二次训练,事先准备好一批 Prompt-Complition(类似于问答Q&A)的数据,生成新的模型,这个模型将会包含微调后的数据。比如,你可以使用 Fine tuning 来训练模型生成特定风格的文本,或者执行特定的 NLP 任务。Fine tuning 并不适合于作为知识存储,也不适合于问答任务。

    ChatGPT 就像一个已经训练好的家政阿姨,她懂中文,会做家务,但是对你家里的情况不了解。微调就相当于阿姨第一次到你家干活的时候,你要花一小时时间告诉她家里的情况,比如物件的摆放、哪些地方不能动,哪些地方要重点照顾。

     4 

    微调(Fine tuning)训练步骤

    Fine tuning 一般包括以下步骤:

    第一、加载预训练模型:选择一个与所需任务相关的预训练模型,并加载其权重。

    第二、选择任务数据集:选定特定任务所需的数据集。

    第三、对模型进行微调:将任务数据集作为输入,以最小化模型在此数据集上的损失函数。在这个过程中,通常需要在训练集和验证集上进行多次迭代,以避免过拟合问题。

    基于以上步骤,详细总结如下:

    a41a3b9f12794e2150d14bad67470806.png

     5

    免费超干货 LLM 大模型直播

    为了帮助同学们掌握好大模型的微调技术,本周日晚8点,我会开一场直播和同学们深度聊聊大模型的技术、分布式训练和参数高效微调请同学点击下方按钮预约直播,咱们本周日晚8点不见不散哦~~

    近期直播:基于开源 LLM 大模型的微调(Fine tuning)实战

    END

  • 相关阅读:
    SmartIDE v0.1.16 已经发布 - 支持阿里&蚂蚁开源的国产 IDE OpenSumi
    c# 二维图形绘制实践
    防水出色的骨传导耳机,更适合户外运动,南卡Runner Pro 4S体验
    【旋转摆正验证码】移动积分兑换影视会员活动旋转摆正验证码识别——识别解绝方法
    中创新航:动力电池变局者?
    神经网络(四)前馈神经网络
    一文搞懂Linux内核之内核线程
    【计算机网络】Web服务器的配置
    pytest + yaml 框架 -5.调用内置方法和自定义函数
    【RocketMQ】RocketMQ存储结构设计
  • 原文地址:https://blog.csdn.net/musicml/article/details/134067804