• React中实现大模型的打字机效果


    React 想实现一个打字机的效果,类似千问、Kimi 返回的效果。调用大模型时,模型的回答通常是流式输出的,如果等到模型所有的回答全部完成之后再展示给最终用户,交互效果不好,因为模型计算推理时间比较长。本文将采用原生 React 写一个简单的组件,调用本地 Ollama 模型进行对话。

    服务端实现

    由于要流式返回数据数据,正常的 http 请求是一来一回,不会一段一段返回,Websocket 是一个解决方案,Websocket比较重,模型对话只需要单向的返回就可以。所以,OpenAI提供的 API是基于 SSE (Server Sent Event)协议的,SSE 协议采用 Http Chunk Response 实现。下图中可以看到,Response 是 Chunked 编码的。
    在这里插入图片描述

    客户端实现

    通过 Fetch 调用 Ollama 提供的接口,并对返回进行处理,Fetch API 默认支持 Chunk 编码。由于是流式输出,需要定义从 Reponse body 中获取一个 reader,代码如下:

    import React, { useState, useEffect } from 'react';
    
    const ChunkedJSONResponseComponent = () => {
      const [responses, setResponses] = useState([]);
      const [loading, setLoading] = useState(true);
    
      useEffect(() => {
        const fetchData = async () => {
          const response = await fetch('http://10.91.3.116:11434/api/generate', {
            method: 'POST',
            headers: {
              'Content-Type': 'application/json'
            },
            body: JSON.stringify({
              model: "testllama3",
              prompt: "Why is the sky blue?",
              stream: true
            })
          });
    
          const reader = response.body.getReader();
          const decoder = new TextDecoder();
    	  #处理返回值
          const processChunk = ({ done, value }) => {
            if (done) {
              console.log('Stream complete');
              setLoading(false);
              return;
            }
    
            const chunk = decoder.decode(value, { stream: true });
            const lines = chunk.split('\n').filter(line => line.trim() !== '');
    
            lines.forEach(line => {
              try {
                const jsonObject = JSON.parse(line);
                setResponses(prevResponses => [...prevResponses, jsonObject.response]);
              } catch (e) {
                console.error("Failed to parse JSON:", e);
              }
            });
    
            reader.read().then(processChunk);
          };
    
          reader.read().then(processChunk);
        };
    
        fetchData();
      }, []);
    
      return (
        

    Chunked JSON Response

    {responses.map((response, index) => ( {response} ))}

    {loading &&
    Loading...
    }
    ); }; export default ChunkedJSONResponseComponent;

    请添加图片描述

    总结

    OpenAI 设计的接口比较简单,后续出来的大模型都遵循了 OpenAPI 的接口格式,感谢各位大佬没有再造轮子。打字机效果实现很简单,由于原生 Fetch API 就支持 Chunk 编码,做对应的处理既可以完成。

  • 相关阅读:
    云原生网络的微隔离实现技术
    排序(冒泡、选择、插入、希尔、归并、快速)
    始祖双碳新闻 | 2022年8月10日碳中和行业早知道
    ubuntu20.04安装opencv 3.2.0 报错
    华为配置AP和AC之间NAT穿越示例
    【C语言刷LeetCode】438. 找到字符串中所有字母异位词(M)
    Redis事务操作
    如何在一个pycharm项目中创建jupyter notebook文件,并切换到conda环境中
    Map介绍
    Ubuntu安装freeSwitch
  • 原文地址:https://blog.csdn.net/hawk2014bj/article/details/139475146