• TFIDF与BM25


    TFIDF

    先复习一下 tfidf,tf是词频,即某个词 i 在 文章 j 中出现的频率。分母是文章中所有词的个数,分母是词 i 出现的次数。tf越高说明该词越重要,对于短文本匹配,每个词一般只出现一次,tf 的大小就取决于分母,即文章的长度。
    t f i , j = n i , j ∑ k n k , j tf_{i,j}=\frac{n_{i,j}}{\sum_kn_{k,j}} tfi,j=knk,jni,j
    idf是逆文档频率,计算该词出现在所有文章中的频率,此时,分母是包含该关键字 i 的文章数,分子是所有文章数 N。用log相当于趋势不变,数值变小了。该词出现越多,分子越大,idf值越小,比如:“的” 经常出现,因此不是关键词。当词 i 在 文章 j 中完全不出现,分母为0,因此给分母加 1。
    i d f i = l o g N d f i + 1 idf_i=log\frac{N}{df_i+1} idfi=logdfi+1N
    tf和idf的乘积就是词 i 在文章 j 中的重要性。
    t f i d f i , j = t f i , j × i d f i tfidf_{i,j}=tf_{i,j} \times idf_i tfidfi,j=tfi,j×idfi
    在搜索中,计算搜索串中的多个关键词 与 文章 j 的相似度:将各词的 tfidf 相加:
    s i m i l a r i t y = ∑ i t f i d f i , j similarity = \sum_{i} tfidf_{i,j} similarity=itfidfi,j
    搜索之前,需要知道各个词在已知文章集中的分布。

    BM25

    BM25是基于TF-IDF的改进算法,BM 是Best Match最佳匹配的缩写,25指的是第25次算法迭代。

    idf 部分只做了微调:
    i d f i = l o g N − d f i + 0.5 d f i + 0.5 idf_i=log\frac{N-df_i+0.5}{df_i+0.5} idfi=logdfi+0.5Ndfi+0.5
    其中分母部分从所有文章中减去了包含 i 的文章,0.5用于平滑。

    接下来,又对 tf 做了如下调整:
    t f s c o r e = ( k + 1 ) × t f k × ( 1 − b + b × L d L a v g ) + t f tfscore= \frac {(k + 1) \times tf} { k \times (1 - b + b \times \frac{L_d}{L_{avg}}) + tf} tfscore=k×(1b+b×LavgLd)+tf(k+1)×tf
    这里引入了超参数 k 和 b。

    先看分母中的括号,Ld是文章长度,Lavg是所有文章的平均长度,当文章长度与平均长度一致时,括号里值为 1,相当于未乘系数;当文章比平均长度短时,括号里的值小于1,分母越小,上式结果越大,也就是说文章越短,每一个词越重要,这也与直觉一致。另外,长度的影响与b有关,b越大,影响越大,b的取值在0-1之间,当b为0时,完全不考虑长度的影响,b 一般取值为 0.75。

    k 用于标准化词频的范围,将 tf 值压缩到 0~k+1 之间,其函数曲线如下:
    t f s c o r e = ( k + 1 ) × t f k + t f tfscore = \frac{(k + 1) \times tf}{k + tf} tfscore=k+tf(k+1)×tf

    其横轴为 tf,纵轴为 tfscore,分别针对 k=0,1,2,3,4 画图。当k=0时,tfscore为 1,不考虑词频的影响,而 k 越大词频越趋近于原始词频。因此,如果文章只包含短文本,或者无需关注词出现几次,则可将其设成 k=0。

    有时还考虑到词 i 在搜索文本中的频率,上式扩展成:
    ∑ t ∈ q l o g [ N − d f i + 0.5 d f i + 0.5 ] × ( k 1 + 1 ) t f t d k 1 ( 1 − b + b × L d L a v g ) + t f t d × ( k 2 + 1 ) t f t q k 2 + t f t q \sum_{t \in q} log[\frac{N-df_i+0.5}{df_i+0.5}] \times \frac{(k_1+1)tf_{td}}{k_1(1-b+b \times \frac{L_d}{L_{avg}})+tf_{td}} \times \frac{(k_2+1)tf_{tq}}{k_2+tf_{tq}} tqlog[dfi+0.5Ndfi+0.5]×k1(1b+b×LavgLd)+tftd(k1+1)tftd×k2+tftq(k2+1)tftq
    其中td指被搜索文本,tq指搜索文本。

    这样我们就可以细化的控制 tf 的占比,以及文章长度的影响,以适应各种不同情况下的搜索和匹配任务。注意设置参数k和b。

    之前的BM25算法集成在gensim里,最新的版本没有了,如果想使用,可以从旧版本里抽出来。

  • 相关阅读:
    java基础 韩顺平老师的 面向对象(高级) 自己记的部分笔记
    K_A04_002 基于单片机驱动LCD12864模块显示图片 文字
    virtual box安装ubuntu
    啊?现在初级测试招聘都要求会自动化了?
    学成在线-网站搭建
    AIGC,全能摧毁
    elasticsearch数据备份与恢复(kibana操作)
    利用pyhton整理生活中的小事情
    等保2.0测评手册之Mysql
    我真的不想再用mybatis和其衍生框架了选择自研亦是一种解脱
  • 原文地址:https://blog.csdn.net/xieyan0811/article/details/125459069