• 增强常见问题解答搜索引擎:在 Elasticsearch 中利用 KNN 的力量


    在快速准确的信息检索至关重要的时代,开发强大的搜索引擎至关重要。 随着大型语言模型和信息检索架构(如 RAG)的出现,在现代软件系统中利用文本表示(向量/嵌入)和向量数据库已变得越来越流行。 在本文中,我们深入研究了如何使用 Elasticsearch 的 K 最近邻 (KNN) 搜索和来自强大语言模型的文本嵌入,这是一个强大的组合,有望彻底改变我们访问常见问题 (FAQ) 的方式。 通过对 Elasticsearch 的 KNN 功能的全面探索,我们将揭示这种集成如何使我们能够创建尖端的常见问题解答搜索引擎,通过以闪电般的延迟理解查询的语义上下文,从而增强用户体验。

    在开始设计解决方案之前,让我们了解信息检索系统中的一些基本概念。

    文本表示(嵌入)

    你可以通过阅读 “Elasticsearch:什么是向量和向量存储数据库,我们为什么关心?” 来了解更多的关于文本嵌入的知识。

    嵌入是一条信息的数字表示,例如文本、文档、图像、音频等。 该表示捕获了所嵌入内容的语义,使其对于许多行业应用程序来说都是稳健的。

    语义搜索

    传统的搜索系统使用词法匹配来检索给定查询的文档。 语义搜索旨在使用文本表示(嵌入)来理解查询的上下文,以提高搜索准确性。

    语义搜索的类型

    • 对称语义搜索:查询和搜索文本长度相似的搜索用例。 例如 在数据集中找到类似的问题。
    • 非对称语义搜索:查询和搜索文本长度不同的搜索用例。 例如 查找给定查询的相关段落。

    向量搜索引擎(向量数据库)

    向量搜索引擎是专用数据库,可用于将图像、文本、音频或视频等非结构化信息存储为嵌入或向量。 在本文中,我们将使用 Elasticsearch 的向量搜索功能。

    现在我们了解了搜索系统的构建块,让我们深入了解解决方案架构和实现。

    1. 搜索解决方案的第一步是将问题-答案对索引到 Elasticsearch 中。 我们将创建一个索引并将问题和答案嵌入存储在同一索引中。 我们将根据检索的特征使用两个独立的模型来嵌入问题和答案。
    2. 我们将使用步骤 1 中使用的相同模型来嵌入查询,并形成搜索查询(3 个部分,即问题、答案、词汇搜索),将查询嵌入映射到相应的问题和答案嵌入。
    3. 我们还将为查询的每个部分提供一个提升值,以表示它们在组合中的重要性。 返回的最终结果根据分数总和乘以各自的提升值进行排名。

    环境设置

    要使用 docker 安装 Elasticsearch,请参阅这篇有关如何设置单节点集群的详细文章。 如果你已有集群,请跳过此步骤。如果你想详细了解如何安装 Elasticsearch,请参考文章 “如何在 Linux,MacOS 及 Windows 上进行安装 Elasticsearch”。在本演示中,我们将使用 Elastic Stack 8.10.4 来进行展示。

    设置你的索引。 你可以使用以下映射作为起点。我们在 Kibana 的 Dev Tools 中打入如下的命令:

    1. PUT faq-index
    2. {
    3. "settings": {
    4. "number_of_shards": 1,
    5. "number_of_replicas": 0
    6. },
    7. "mappings": {
    8. "properties": {
    9. "Question": {
    10. "type": "text"
    11. },
    12. "Answer": {
    13. "type": "text"
    14. },
    15. "question_emb": {
    16. "type": "dense_vector",
    17. "dims": 768,
    18. "index": true,
    19. "similarity": "dot_product"
    20. },
    21. "answer_emb": {
    22. "type": "dense_vector",
    23. "dims": 1024,
    24. "index": true,
    25. "similarity": "dot_product"
    26. }
    27. }
    28. }
    29. }

    模型选择

    由于我们使用相当通用的语言处理数据,因此为了进行本实验,我从 MTEB 排行榜的检索(用于答案)和 STS(用于问题)部分中选择了表现最好的模型。

    选定型号:

    1. 答案:BAAI/bge-large-en-v1.5(您可以使用量化版本以加快推理速度)
    2. 如有问题:thenlper/gte-base

    如果你有特定领域的常见问题解答并想要检查哪种模型表现最好,你可以使用 Beir。 查看本节,其中描述了如何加载自定义数据集以进行评估。

    实现

    出于本实验的目的,我将使用 Kaggle 的心理健康常见问题解答数据集。

    安装所需要的模块

    pips install sentence_transformers

    1. 装载数据

    1. import pandas as pd
    2. data = pd.read_csv('Mental_Health_FAQ.csv')

    2. 生成嵌入

    Questions

    1. from sentence_transformers import SentenceTransformer
    2. question_emb_model = SentenceTransformer('thenlper/gte-base')
    3. data['question_emb'] = data['Questions'].apply(lambda x: question_emb_model.encode(x, normalize_embeddings=True))

    注意:我们对嵌入进行归一化,以使用点积作为相似性度量而不是余弦相似性。 该计算速度更快,并且在 Elasticsearch 密集向量场文档中得到推荐。

    Answers:

    1. answer_emb_model = SentenceTransformer('BAAI/bge-large-en-v1.5')
    2. data['answer_emb'] = data['Answers'].apply(lambda x: answer_emb_model.encode(x, normalize_embeddings=True))

    3. 索引文档

    我们将使用 Elasticsearch  helper 函数。 具体来说,我们将使用 streaming_bulk API 来索引我们的文档。

    首先,让我们实例化 elasticsearch python 客户端。

    我们首先需要把安装好的 Elasticsearch 的证书拷贝到当前目录中:

    1. $ pwd
    2. /Users/liuxg/python/faq
    3. $ cp ~/elastic/elasticsearch-8.10.4/config/certs/http_ca.crt .
    4. $ ls
    5. Mental Health FAQ.ipynb archive (13).zip
    6. Mental_Health_FAQ.csv http_ca.crt

    然后我们打入如下的代码:

    1. from elasticsearch import Elasticsearch
    2. from ssl import create_default_context
    3. context = create_default_context(cafile=r"./http_ca.crt")
    4. es = Elasticsearch('https://localhost:9200',
    5. basic_auth=('elastic', 'YlGXk9PCN7AUlc*VMtQj'),
    6. ssl_context=context,
    7. )

    接下来,我们需要创建一个可以输入到流式 bulk API 中的文档生成器。

    1. index_name="faq-index"
    2. def generate_docs():
    3. for index, row in data.iterrows():
    4. doc = {
    5. "_index": index_name,
    6. "_source": {
    7. "faq_id":row['Question_ID'],
    8. "question":row['Questions'],
    9. "answer":row['Answers'],
    10. "question_emb": row['question_emb'],
    11. "answer_emb": row['answer_emb']
    12. },
    13. }
    14. yield doc

    最后,我们可以索引文档。

    1. import tqdm
    2. from elasticsearch.helpers import streaming_bulk
    3. number_of_docs=len(data)
    4. progress = tqdm.tqdm(unit="docs", total=number_of_docs)
    5. successes = 0
    6. for ok, action in streaming_bulk(client=es, index=index_name, actions=generate_docs()):
    7. progress.update(1)
    8. successes += ok
    9. print("Indexed %d/%d documents" % (successes, number_of_docs))

    4. 查询文档

    1. def faq_search(query="", k=10, num_candidates=10):
    2. if query is not None and len(query) == 0:
    3. print('Query cannot be empty')
    4. return None
    5. else:
    6. query_question_emb = question_emb_model.encode(query, normalize_embeddings=True)
    7. instruction="Represent this sentence for searching relevant passages: "
    8. query_answer_emb = answer_emb_model.encode(instruction + query, normalize_embeddings=True)
    9. payload = {
    10. "query": {
    11. "match": {
    12. "title": {
    13. "query": query,
    14. "boost": 0.2
    15. }
    16. }
    17. },
    18. "knn": [ {
    19. "field": "question_emb",
    20. "query_vector": query_question_emb,
    21. "k": k,
    22. "num_candidates": num_candidates,
    23. "boost": 0.3
    24. },
    25. {
    26. "field": "answer_emb",
    27. "query_vector": query_answer_emb,
    28. "k": k,
    29. "num_candidates": num_candidates,
    30. "boost": 0.5
    31. }],
    32. "size": 10,
    33. "_source":["faq_id","question", "answer"]
    34. }
    35. response = es.search(index=index_name, body=payload)['hits']['hits']
    36. return response

    按照模型页面上的说明,我们需要在将查询转换为嵌入之前将指令附加到查询中。 此外,我们使用模型的 v1.5,因为它具有更好的相似度分布。 查看型号页面上的常见问题解答以了解更多详细信息。

    评估

    为了了解所提出的方法是否有效,根据传统的 KNN 搜索系统对其进行评估非常重要。 让我们尝试定义这两个系统并评估所提出的系统。

    • 系统 1:非对称 KNN 搜索(查询和答案向量)。
    • 系统2:查询(BM25)、非对称KNN搜索(查询和答案向量)和对称KNN搜索(查询和问题向量)的组合。

    为了评估系统,我们必须模仿用户如何使用搜索。 简而言之,我们需要从源问题生成与问题复杂性相似的释义问题。 我们将使用 t5-small-finetuned-quora-for-paraphrasing 微调模型来解释问题。

    让我们定义一个可以生成释义问题的函数。

    1. from transformers import AutoModelWithLMHead, AutoTokenizer
    2. tokenizer = AutoTokenizer.from_pretrained("mrm8488/t5-small-finetuned-quora-for-paraphrasing")
    3. model = AutoModelWithLMHead.from_pretrained("mrm8488/t5-small-finetuned-quora-for-paraphrasing")
    4. def paraphrase(question, number_of_questions=3, max_length=128):
    5. input_ids = tokenizer.encode(question, return_tensors="pt", add_special_tokens=True)
    6. generated_ids = model.generate(input_ids=input_ids, num_return_sequences=number_of_questions, num_beams=5, max_length=max_length, no_repeat_ngram_size=2, repetition_penalty=3.5, length_penalty=1.0, early_stopping=True)
    7. preds = [tokenizer.decode(g, skip_special_tokens=True, clean_up_tokenization_spaces=True) for g in generated_ids]
    8. return preds

    现在我们已经准备好了释义函数,让我们创建一个评估数据集,用于测量系统的准确性。

    1. temp_data = data[['Question_ID','Questions']]
    2. eval_data = []
    3. for index, row in temp_data.iterrows():
    4. preds = paraphrase("paraphrase: {}".format(row['Questions']))
    5. for pred in preds:
    6. temp={}
    7. temp['Question'] = pred
    8. temp['FAQ_ID'] = row['Question_ID']
    9. eval_data.append(temp)
    10. eval_data = pd.DataFrame(eval_data)
    11. #shuffle the evaluation dataset
    12. eval_data=eval_data.sample(frac=1).reset_index(drop=True)

    上面的代码生成相应的测试 Question,它们的结果如下:

    最后,我们将修改 “faq_search” 函数以返回各个系统的 faq_id。

    对于系统 1:

    1. def get_faq_id_s1(query="", k=5, num_candidates=10):
    2. if query is not None and len(query) == 0:
    3. print('Query cannot be empty')
    4. return None
    5. else:
    6. instruction="Represent this sentence for searching relevant passages: "
    7. query_answer_emb = answer_emb_model.encode(instruction + query, normalize_embeddings=True)
    8. payload = {
    9. "knn": [
    10. {
    11. "field": "answer_emb",
    12. "query_vector": query_answer_emb,
    13. "k": k,
    14. "num_candidates": num_candidates,
    15. }],
    16. "size": 1,
    17. "_source":["faq_id"]
    18. }
    19. response = es.search(index=index_name, body=payload)['hits']['hits']
    20. return response[0]['_source']['faq_id']

    对于系统 2:

    1. def get_faq_id_s2(query="", k=5, num_candidates=10):
    2. if query is not None and len(query) == 0:
    3. print('Query cannot be empty')
    4. return None
    5. else:
    6. query_question_emb = question_emb_model.encode(query, normalize_embeddings=True)
    7. instruction="Represent this sentence for searching relevant passages: "
    8. query_answer_emb = answer_emb_model.encode(instruction + query, normalize_embeddings=True)
    9. payload = {
    10. "query": {
    11. "match": {
    12. "title": {
    13. "query": query,
    14. "boost": 0.2
    15. }
    16. }
    17. },
    18. "knn": [ {
    19. "field": "question_emb",
    20. "query_vector": query_question_emb,
    21. "k": k,
    22. "num_candidates": num_candidates,
    23. "boost": 0.3
    24. },
    25. {
    26. "field": "answer_emb",
    27. "query_vector": query_answer_emb,
    28. "k": k,
    29. "num_candidates": num_candidates,
    30. "boost": 0.5
    31. }],
    32. "size": 1,
    33. "_source":["faq_id"]
    34. }
    35. response = es.search(index=index_name, body=payload)['hits']['hits']
    36. return response[0]['_source']['faq_id']

    注意:boost 值是实验性的。 为了这个实验的目的,我根据组合中各个字段的重要性进行了划分。 搜索中每个字段的重要性完全是主观的,可能由业务本身定义,但如果不是,系统的一般经验法则是 Answer 向量 > Question 向量 > 查询。

    好的! 我们一切准备就绪,开始我们的评估。 我们将为两个系统生成一个预测列,并将其与原始 faq_id 进行比较。

    1. eval_data['PRED_FAQ_ID_S1'] = eval_data['Question'].apply(get_faq_id_s1)
    2. from sklearn.metrics import accuracy_score
    3. ground_truth = eval_data["FAQ_ID"].values
    4. predictions_s1 = eval_data["PRED_FAQ_ID_S1"].values
    5. s1_accuracy = accuracy_score(ground_truth, predictions_s1)
    6. print('System 1 Accuracy: {}'.format(s1_accuracy))

    1. eval_data['PRED_FAQ_ID_S2'] = eval_data['Question'].apply(get_faq_id_s2)
    2. predictions_s2 = eval_data["PRED_FAQ_ID_S2"].values
    3. s2_accuracy = accuracy_score(ground_truth, predictions_s2)
    4. print('System 2 Accuracy: {}'.format(s2_accuracy))

    通过所提出的系统,我们可以看到与非对称 KNN 搜索相比,准确率提高了 7-11%。

    我们还可以尝试 ramsrigouthamg/t5_paraphraser,但该模型生成的问题有点复杂和冗长(尽管在上下文中)。

    你还可以使用 LLM 生成评估数据集并检查系统的性能。

    准确性的提高是主观的,取决于查询的质量,即 查询的上下文有多丰富、嵌入的质量和/或使用搜索的用户类型。 为了更好地理解这一点,让我们考虑两种最终用户:

    1. 想要了解有关您的产品和服务的一些事实的一般用户:在这种情况下,上述系统会做得很好,因为问题简单、直观且上下文充分。
    2. 领域/产品特定用户,例如 想要了解产品的一些复杂细节以设置系统或解决某些问题的工程师:在这种情况下,查询在词汇组成方面更具特定于领域,因此开箱即用的模型嵌入将无法捕获所有上下文。 那么,我们该如何解决这个问题呢? 系统的架构将保持不变,但可以通过使用特定领域数据(或预先训练的特定领域模型)微调这些模型来提高搜索系统的整体准确性。

    结论

    在本文中,我们提出并实现了结合搜索类型的常见问题解答搜索。 我们研究了 Elasticsearch 如何使我们能够结合对称和非对称语义搜索,从而将搜索系统的性能提高高达 11%。 我们还了解所提出的搜索架构的系统和资源要求,这将是考虑采用这种方法时的主要决定因素。

    你可以在我的 Github 存储库中找到源笔记本。

  • 相关阅读:
    ViT模型中的tokens和patches概念辨析
    (MATLAB)第三章-MATLAB基础知识
    stl中vecter和pair组合达到字典的效果
    赛轮集团受邀出席2024国际新能源智能网联汽车创新生态大会
    springboot FTP服务器 上传&&下载示例demo
    Elasticsearch Analyzer 内置分词器
    有关MYSQL的22年最新部分面试题汇总
    病毒感染检测(运用BF算法)
    Vue必备知识点(简单+快速上手Vue)
    脚本合集部分源码
  • 原文地址:https://blog.csdn.net/UbuntuTouch/article/details/134071714