• ChatGPT简介及基本概念


    👉关于作者

    专注于Android/Unity和各种游戏开发技巧,以及各种资源分享(网站、工具、素材、源码、游戏等)
    有什么需要欢迎底部卡片私我,获取更多支持,交流让学习不再孤单

    在这里插入图片描述

    👉实践过程

    😜简介

    ChatGPT(Generative Pre-trained Transformer)是OpenAI于2022年11月推出的聊天机器人。它建立在OpenAI的GPT-3.5系列大语言模型之上,并结合监督学习和强化学习技术进行了微调。

    ChatGPT是一种基于深度学习的自然语言生成模型,是当前自然语言处理领域最具代表性的技术之一。其核心技术包括预训练、Transformer网络和自回归模型。

    预训练是ChatGPT的核心技术之一。预训练是指在大规模语料库上对模型进行训练,使其能够自动学习语言的规律和规则。在预训练过程中,ChatGPT使用了海量的无标签文本数据,比如维基百科和新闻文章等。通过这些数据的训练,ChatGPT可以学习到自然语言的语法、句法和语义等信息,从而能够生成自然流畅的语言表达。

    ChatGPT作为一种自然语言生成模型,其核心技术包括预训练、Transformer网络和自回归模型。预训练使得模型能够自动学习语言规律和规则,Transformer网络能够有效处理长文本序列,自回归模型能够生成连贯自然的文本内容。这些技术的结合使得ChatGPT成为了自然语言处理领域最具代表性的技术之一,应用于多种领域,为人们提供更加便捷高效的交流和沟通方式。

    😜GPT3.5 与 4.0(Plus)区别

    虽然ChatGPT和ChatGPTPlus都是人工智能语言模型,但是它们在性能上存在着巨大的差异。ChatGPT Plus具有更强的表达能力、更高的准确性和更强的适应性。下面将从多个方面对它们进行比较:

    1. 参数数量
      ChatGPT Plus具有更多的参数,也就意味着它具有更高的表达能力和更强的拟合能力。ChatGPT的参数数量只有1750万,而ChatGPT Plus的参数数量达到了15亿,相当于ChatGPT的10倍。
    2. 训练数据量
      ChatGPT Plust比ChatGPTl练数据量多了14倍,这就使得ChatGPT Plus在处理各种语言、场景、领域的文本时更加得心应手。ChatGPT Plus的训练数据来自于互联网上的各种语料库,包括维基百科、网页文本、书籍等,因此它的泛化能力更强。
    3. 对话回复质量
      ChatGPT Plus在生成对话回复方面表现更好,它的对话回复更加准确、流畅,回答问题的能力更加全面。在评价对话系统的任务中,ChatGPT Plus相较于ChatGPT获得了更高的分数。
    4. 支持的语言数量
      ChatGPT Plus支持的语言数量比ChatGPT更多。ChatGPTPlus可以支持70多种语言,而ChatGPT只能支持英语。
    5. 响应速度
      ChatGPT Plus需要更多的计算资源和更长的时间来生成回复,因为它的参数数量更多。这意味着,在同样的硬件条件下,ChatGPTPlus的响应速度可能会比ChatGPT更慢。

    ChatGPT适用于

    ● 需要基本的聊天和问答功能的个人用户
    ● 需要处理英语文本的用户
    ● 计算资源有限的用户

    ChatGPT Plus适用于

    ● 需要高度准确性和自然度的企业用户,例如客服中心和智能助手。
    ● 需要处理多语言文本的用户
    ● 需要处理领域特定语言和术语的用户
    ● 具有充足计算资源的用户

    😜什么是Token

    当我们在ChatGPT中处理文本时,文本会被分割成一系列的tokens,这种分割的方式有助于模型更好地理解和处理文本。
    一个token可以是一个字符、一个单词或者一个标点符号。

    例如,句子 “Hello, how are you?” 可能被分割成以下tokens:[“Hello”, “,”, “how”, “are”, “you”, “?”]
    在这个例子中,每个单词和标点符号都被视为一个token。分割成tokens的过程通常会考虑到语言的特点和常见的处理需求。例如,在英语中,常见的缩写词可能会被视为一个单独的token,比如 “I’m” 或者 “don’t”。这样做可以确保模型正确地处理这些常见的缩写词。

    当我们将文本输入到ChatGPT模型中时,模型会按照token的顺序逐个处理。模型可以根据前面的tokens来预测下一个token,这样就可以逐步生成输出文本。在模型生成的输出中,我们也会得到一系列的tokens。我们可以将这些tokens重新组合成可读的文本形式,以便呈现给用户。

    需要注意的是,tokens的数量会影响到模型的计算成本和响应时间。较长的文本会被分割成更多的tokens,因此在处理文本时需要考虑到tokens的数量。较长的输入文本可能需要更长的处理时间,而较长的输出文本可能会增加响应时间。因此,为了获得更好的性能,我们需要在文本处理中平衡tokens的数量和模型的要求。

    😜什么是Prompt

    Prompt(提示)是指用户向ChatGPT提供的初始输入或问题,它是用来引导对话的一段文本或问题。
    Prompt可以是一个简短的句子、一个问题或者一个完整的对话段落。
    在与ChatGPT进行交互时,用户可以使用prompt来指导对话的方向或者提供上下文信息,以便模型能够更好地理解用户的意图并生成相关的回复。
    Prompt通常以自然语言形式提供,但也可以是一些特殊的标记或指令。

    例如,如果用户想要问ChatGPT关于天气的问题,他们可以使用以下prompt: “今天天气如何?” 或者 “请告诉我今天的天气情况。”

    Prompt对于ChatGPT的性能和回复的准确性具有重要影响。
    一个清晰、具体和相关的prompt可以帮助ChatGPT产生更有意义的回复。因此,选择和设计合适的prompt是与ChatGPT进行交互的关键一步。

    😜对话上下文

    上下文(Context)是指在对话中先前的对话历史和相关信息,它提供了对当前对话的背景和语境。
    上下文可以包括用户的先前发言、ChatGPT的回复以及任何其他相关的对话内容。
    在与ChatGPT进行交互时,上下文对于理解用户的意图以及生成相关的回复非常重要。ChatGPT会根据先前的对话历史和上下文来理解用户的问题,并尝试生成与上下文相关的回复。
    上下文可以是一个或多个对话轮次的文本。

    例如,在一个对话中,上下文可以是用户的先前问题和ChatGPT的回复。ChatGPT会根据这些上下文信息来生成下一轮的回复。

    为了保持对话的连贯性和一致性,通常会将先前的对话历史作为上下文传递给ChatGPT。
    这样,ChatGPT就能够更好地理解用户的意图,并生成与之前对话相关的回复。 需要注意的是,上下文的长度可能会受到模型的限制。较长的上下文可能会被截断或忽略,因此在设计上下文时需要注意保持信息的相关性和重要性。

    👉其他

    📢作者:小空和小芝中的小空
    📢转载说明-务必注明来源:https://zhima.blog.csdn.net/
    📢这位道友请留步☁️,我观你气度不凡,谈吐间隐隐有王者霸气💚,日后定有一番大作为📝!!!旁边有点赞👍收藏🌟今日传你,点了吧,未来你成功☀️,我分文不取,若不成功⚡️,也好回来找我。

  • 相关阅读:
    token、cookie、session
    kubenetes-pod高可用
    Java多线程(7)----浅谈线程池
    贪心算法求解活动选择问题
    TCP的三次握手与四次挥手
    圣经投屏Java+sqlite3极速版
    树莓派——9、IO操控代码编程
    unity驱动3d模特跳舞 穿模问题 穿透
    阿里巴巴最新总结「百亿级别并发设计手册」GitHub收获70K标星
    操作无法完成因为其中文件在其他程序已打开
  • 原文地址:https://blog.csdn.net/qq_27489007/article/details/132251683