• Elasticsearch:使用字节大小的向量节省空间 - 8.6


    作者:Jack Conradson, Benjamin Trent

    Elasticsearch 在 8.6 中引入了一种新型向量! 该向量具有 8 位整数维度,其中每个维度的范围为 [-128, 127]。 这比具有 32 位浮点维度的当前向量小 4 倍,这可以节省大量空间。

    你现在可以通过将带有字节值的 element_type 参数添加到向量映射中来开始索引这些较小的 8 位向量,类似于下面的示例。

    1. {
    2. "mappings": {
    3. "properties": {
    4. "my_vector": {
    5. "type": "dense_vector",
    6. "element_type": "byte",
    7. "dims": 3,
    8. "index": true,
    9. "similarity": "dot_product"
    10. }
    11. }
    12. }
    13. }

    但是,如果你现有的向量维度不适合这种较小的类型怎么办? 然后我们可以使用量化过程使它们适合,通常只有很小的精度损失!

    让我们量化

    让我们从定义量化开始。 量化是获取较大值集并将它们映射到较小值集的过程。 更具体地说,在我们的例子中,这将采用 32 位浮点数的范围并将其映射到向量中每个维度的 8 位整数的范围。 (这不应与降维混淆,后者是不同的主题。这只是缩小现有维度的值范围。)

    这导致了另外两个问题。 我们的 32 位浮点向量的实际范围是多少? 我们应该使用什么功能来进行映射? 答案因用例而异。

    例如,最简单的量化形式之一是采用归一化 32 位向量的维度并将它们线性映射到 8 位向量的整个维度范围。 使用 Python,这将类似于以下内容:

    1. import numpy as np
    2. import typing as t
    3. def quantize_embeddings(text_and_embeddings: t.List[t.Mapping[str, t.Any]]) -> t.List[t.Mapping[str, t.Any]]:
    4. quantized_embeddings = np.array([x['embedding'] for x in
    5. query_and_embeddings])
    6. quantized_embeddings = (quantized_embeddings * 128)
    7. quantized_embeddings = quantized_embeddings.clip(-128,
    8. 127).astype(int).tolist()
    9. return [dict(item, **{'embedding': embedding}) for (item,
    10. embedding) in zip(text_and_embeddings, quantized_embeddings)]

    不过,这只是一个例子。 还有许多其他有用的量化函数。 对于你的特定用例,重要的是要评估哪种量化方法可以为您提供相对于空间缩减、相关性和召回率之间的权衡的最佳结果。

    一些真实世界的数字

    8 位向量和量化都很棒,但它们真的能减少实际用例中的空间吗? 答案是肯定的! 并且实质上。 这就是他们在不损害相关性和召回率的情况下继续提供良好结果的全部过程。 Elasticsearch 甚至拥有你使用我们的排名评估 API 自行进行评估所需的所有工具。

    现在,让我们看一下使用以下设置从真实示例生成的一些数字:

    1. 所有数据都是使用云中的 Elasticsearch 和两个 gcp.data.highcpu.1 64GB 节点收集的
    2. 数据是从谷歌构建的 NQ 数据集(自然问题)中收集的,用于 BEIR
    3. 嵌入模型是 sentence-transformers/all-MiniLM-L6-v2
    4. 生成 8 位整数向量的量化应用于使用前面的示例 Python 片段从数据中收集的 32 位浮点向量

    然后我们让一些神奇的事情发生并根据这个设置收集结果:

    category

    Median kNN Response Time

    Median Exact Response Time

    Recall@100

    NDCG@10

    Total Index Size (1p, 1r)

    byte

    32ms

    1072ms

    0.79

    0.385.8gb

    float

    36ms

    1530ms

    0.79

    0.3816.4gb
    % Reduction11%30%0%0%64%

    我们的结果看起来棒极了。 让我们逐一分解。

    • Median kNN Response Time:此响应时间是使用近似 kNN 搜索对我们的示例数据集收集的。 这种类型的搜索使用 Lucene 的 HNSW 图作为支持数据结构。 我们看到 byte 与 float 的响应时间增加了 11%。
    • Median Exact Response Time:此响应时间是使用针对我们的示例数据集的准确 kNN 搜索收集的。 这种类型的搜索使用脚本遍历数据集中的每个向量,并将返回可能的最佳结果。 我们看到响应时间大大减少了 30%!
    • Recall@100:这向我们展示了最相关的结果是否包含在前 100 名中。这对于展示我们的量化函数是否运行良好非常重要。 我们可以看到 byte 和 float 的数字是相同的,这意味着即使在量化之后我们的相关性对于 byte 和 float 一样好。
    • @NDCG@10:这向我们展示了前 10 个结果的质量有多好。 这是评估我们的量化函数是否运行良好的另一个重要指标。 再一次,byte 和 float 之间的数字是相同的,所以我们可以放心,即使在量化之后我们的结果仍然一样好。
    • Total Index Size (1p, 1r):这是用于具有单个分区和单个副本的向量索引的总索引大小。 对于此指标,我们禁用了源,我们建议将其用于所有未修改摄取的向量数据的向量场,这样它就不会存储两次。 我们看到总索引大小大幅减少了 64%! 由于包括图形连接在内的 HNSW 数据结构的额外开销,这并没有完全达到字节和浮点数之间的 4 倍差异,但它仍然是一个相当大的尺寸缩减。

    作为 8.6 的一部分,字节向量已准备就绪,我们鼓励你在 Elastic Cloud 中启动一个集群并尝试一下!

  • 相关阅读:
    单片机,0.03
    判断点是否在点组成的封闭区域内c++
    echarts label fomatter a b c d含义
    操作系统——内存扩容:覆盖技术、交换技术(王道视频p44)
    Python 基础合集4:Python的数据结构(str、list、tuple、dict、set)
    小程序如何设置自取模式下的服务方式
    Rust 从入门到精通04-变量
    GPT4应用讲解,如何获取ChatGPT账号
    盘点世界七大新材料强国
    JAVA餐饮掌上设备点餐系统计算机毕业设计Mybatis+系统+数据库+调试部署
  • 原文地址:https://blog.csdn.net/UbuntuTouch/article/details/130839327