码农知识堂 - 1000bd
  •   Python
  •   PHP
  •   JS/TS
  •   JAVA
  •   C/C++
  •   C#
  •   GO
  •   Kotlin
  •   Swift
  • LLaMA 2 - 你所需要的一切资源


    摘录

    关于 LLaMA 2 的全部资源,如何去测试、训练并部署它。


    LLaMA 2 是一个由 Meta 开发的大型语言模型,是 LLaMA 1 的继任者。LLaMA 2 可通过 AWS、Hugging Face 等提供商获取,并免费用于研究和商业用途。LLaMA 2 预训练模型在 2 万亿个标记上进行训练,相比 LLaMA 1 的上下文长度增加了一倍。它的微调模型则在超过 100 万个人工标注数据下完成。

    这篇博客包含了所有的相关资源,以帮助您快速入门。包括以下跳转:

    • LLaMA 2 是什么?
    • 在 LLaMA 游乐场试玩
    • 模型背后的研究工作
    • 模型的性能有多好,基准测试
    • 如何正确地去提示聊天模型
    • 如何使用 PEFT 训练模型
    • 如何部署模型进行推理
    • 和其他资源

    来自 Meta 官方的公告可以在这里找到: https://ai.meta.com/llama/

    LLaMA 2 是什么?

    Meta 发布的 LLaMA 2,是新的 sota 开源大型语言模型 (LLM)。LLaMA 2 代表着 LLaMA 的下一代版本,并且具有商业许可证。LLaMA 2 有 3 种不同的大小——7B、13B 和 70B 个可训练参数。与原版 LLaMA 相比,新的改进包括:

    • 在 2 万亿个标记的文本数据上进行训练
    • 允许商业使用
    • 默认使用 4096 个前后文本视野 (可以被扩展)
    • 70B 模型采用了分组查询注意力 (GQA)
    • 可由此获取 Hugging Face Hub

    在 LLaMA 游乐场试玩

    有几个不同的游乐场供与 LLaMA 2 来测试聊天:

    • HuggingChat 允许你通过 Hugging Face 的对话界面与 LLaMA 2 70B 模型聊天。这提供了一个简洁的方法来了解聊天机器人的工作原理。
    • Hugging Face Spaces 有三种大小的 LLaMA 2 模型 7B、13B 和 70B 可供测试。交互式演示可以让您比较不同的大小模型的区别。
    • Perplexity 他们的对话 AI 演示提供 7B 和 13B 的 LLaMA 2 模型。你可以与模型聊天并且反馈模型响应的不足。

    LLaMA 2 背后的研究工作

    LLaMA 2 是一个基础大语言模型,它由网络上公开可获取到的数据训练完成。另外 Meta 同时发布了它的 CHAT 版本。CHAT 模型的第一个版本是 SFT (有监督调优) 模型。在这之后,LLaMA-2-chat 逐步地经过人类反馈强化学习 (RLHF) 来进化。 RLHF 的过程使用了拒绝采样与近端策略优化 (PPO) 的技术来进一步调优聊天机器人。 Meta 目前仅公布了模型最新的 RLHF(v5) 版本。若你对此过程背后的过程感兴趣则请查看:

    • Llama 2: 开源并已微调的聊天模型
    • Llama 2: 一个超赞的开源大语言模型
    • Llama 2: 全面拆解

    LLaMA 2 的性能有多好,基准测试?

    Meta 声称 “Llama 2 在众多外部基准测试中都优于其他开源的语言模型,包括推理、编程、熟练程度与知识测验” 关于其性能你可以在这里找到更多信息:

    • Hugging Face 开源大语言模型排行榜
    • Meta 官方公告

    如何提示 LLaMA 2 Chat

    LLaMA 2 Chat 是一个开源对话模型。想要与 LLaMA 2 Chat 进行高效地交互则需要你提供合适的提示词、问题来得到合乎逻辑且有帮助的回复。 Meta 并没有选择最简单的提示词结构。以下是单轮、多轮对话的提示词模板。这个模板遵循模型的训练过程,在此详细描述 LLaMA 2 论文. 你也可以看一看 LLaMA 2 提示词模板.

    单轮对话

    [INST] <<SYS>>
    {{ system_prompt }}
    <>>
    {{ user_message }} [/INST]

    多轮对话

    <s>[INST] <<SYS>>
    {{ system_prompt }}
    <SYS>>
    {{ user_msg_1 }} [/INST]{{ model_answer_1 }} s><s>[INST]{{ user_msg_2 }} [/INST]{{ model_answer_2 }} s><s>[INST]{{ user_msg_3 }} [/INST]

    如何训练 LLaMA 2

    因 LLaMA 2 为开源模型,使得可以轻易的通过微调技术,比如 PEFT,来训练它。这是一些非日适合于训练你自己版本 LLaMA 2 的学习资源:

    • 扩展指引: 指令微调 Llama 2
    • 在 Amazon SageMaker 上微调 LLaMA 2 (7-70B)
    • 使用 PEFT 技术微调
    • Meta 提供的 Llama 模型示例以及方案
    • 在本地机器上微调 LLAMA-v2 最简单的方法 !

    如何部属 LLaMA 2

    LLaMA 2 可以在本地环境中部署 (llama.cpp),使用这样已管理好的服务 Hugging Face Inference Endpoints 或通过 AWS, Google Cloud, and Microsoft Azure 这样的服务器平台.

    • 使用文本生成接口与推理终端来部署 LLama 2
    • 使用 Amazon SageMaker 部署 LLaMA 2 70B (即将完成)
    • 在你的 M1/M2 Mac 上通过 GPU 接口来本地部署 Llama-2-13B-chat

    其他资源

    • Llama 2 资源

    如果你想让我再增添一些章节或其他细节请联系我。我致力于提供基于 LLaMA 2 目前已公开信息的高质量概述。


    原文作者: Philschmid

    原文链接: https://www.philschmid.de/llama-2

    译者: Xu Haoran

  • 相关阅读:
    C# —— while循环语句
    【知网稳定检索】第三届文化、设计与社会发展国际学术会议(CDSD 2023)
    css3鼠标悬停图片特效,图片悬停效果
    一文带你入门UML!
    BioVendor sRAGE蛋白解决方案
    JAVA 反射学习
    红帽权限设置及提权知识点结合
    java获取字符串集合中每个字符并且组成一个新的集合实现
    Python + Jmeter 实现自动化性能压测
    抖音矩阵系统源码:开发搭建
  • 原文地址:https://www.cnblogs.com/huggingface/p/18021983
  • 最新文章
  • 攻防演习之三天拿下官网站群
    数据安全治理学习——前期安全规划和安全管理体系建设
    企业安全 | 企业内一次钓鱼演练准备过程
    内网渗透测试 | Kerberos协议及其部分攻击手法
    0day的产生 | 不懂代码的"代码审计"
    安装scrcpy-client模块av模块异常,环境问题解决方案
    leetcode hot100【LeetCode 279. 完全平方数】java实现
    OpenWrt下安装Mosquitto
    AnatoMask论文汇总
    【AI日记】24.11.01 LangChain、openai api和github copilot
  • 热门文章
  • 十款代码表白小特效 一个比一个浪漫 赶紧收藏起来吧!!!
    奉劝各位学弟学妹们,该打造你的技术影响力了!
    五年了,我在 CSDN 的两个一百万。
    Java俄罗斯方块,老程序员花了一个周末,连接中学年代!
    面试官都震惊,你这网络基础可以啊!
    你真的会用百度吗?我不信 — 那些不为人知的搜索引擎语法
    心情不好的时候,用 Python 画棵樱花树送给自己吧
    通宵一晚做出来的一款类似CS的第一人称射击游戏Demo!原来做游戏也不是很难,连憨憨学妹都学会了!
    13 万字 C 语言从入门到精通保姆级教程2021 年版
    10行代码集2000张美女图,Python爬虫120例,再上征途
Copyright © 2022 侵权请联系2656653265@qq.com    京ICP备2022015340号-1
正则表达式工具 cron表达式工具 密码生成工具

京公网安备 11010502049817号