• 基于某评论的TF-IDF下的LDA主题模型分析


    完整代码:

    1. import numpy as np
    2. import re
    3. import pandas as pd
    4. import jieba
    5. from sklearn.feature_extraction.text import TfidfVectorizer
    6. from sklearn.decomposition import LatentDirichletAllocation
    7. df1 = pd.read_csv('小红书评论.csv') # 读取同目录下csv文件
    8. # df1 = df1.drop_duplicates(subset=['用户id']) # 获取一个id只评论一次的数据
    9. pattern = u'[\\s\\d,.<>/?:;\'\"[\\]{}()\\|~!\t"@#$%^&*\\-_=+a-zA-Z,。\n《》、?:;“”‘’{}【】()…¥!—┄-]+'
    10. df1['cut'] = df1['内容'].apply(lambda x: str(x))
    11. df1['cut'] = df1['cut'].apply(lambda x: re.sub(pattern, ' ', x)) #对评论内容作清洗,只保留中文汉字,生成新的cut行
    12. df1['cut'] = df1['cut'].apply(lambda x: " ".join(jieba.lcut(x))) #对评论内容作分词和拼接
    13. print(df1['cut'])
    14. print(type(df1['cut']))
    15. # 1.构造TF-IDF
    16. tf_idf_vectorizer = TfidfVectorizer()
    17. tf_idf = tf_idf_vectorizer.fit_transform(df1['cut'])
    18. # 2.特征词列表
    19. feature_names = tf_idf_vectorizer.get_feature_names_out()
    20. # 3.将特征矩阵转变为pandas DataFrame
    21. matrix = tf_idf.toarray()
    22. feature_names_df = pd.DataFrame(matrix,columns=feature_names)
    23. print(feature_names_df)
    24. # 所有的特征词组成列,所有的评论组成行,矩阵中的元素表示这个特征词在该评论中所占的重要性,即tf-idf值,0表示该句评论中没有该词。
    25. n_topics = 5
    26. # 定义LDA对象
    27. lda = LatentDirichletAllocation(
    28. n_components=n_topics,max_iter=50,
    29. learning_method='online',
    30. learning_offset=50.,
    31. random_state=0
    32. )
    33. # 核心,将TF-IDF矩阵放入LDA模型中
    34. lda.fit(tf_idf)
    35. #第1部分
    36. # 要输出的每个主题的前 n_top_words 个主题词数
    37. n_top_words = 50
    38. def top_words_data_frame(model: LatentDirichletAllocation,
    39. tf_idf_vectorizer: TfidfVectorizer,
    40. n_top_words: int) -> pd.DataFrame:
    41. rows = []
    42. feature_names = tf_idf_vectorizer.get_feature_names_out()
    43. for topic in model.components_:
    44. top_words = [feature_names[i]
    45. for i in topic.argsort()[:-n_top_words - 1:-1]]
    46. rows.append(top_words)
    47. columns = [f'topic {i + 1}' for i in range(n_top_words)]
    48. df = pd.DataFrame(rows, columns=columns)
    49. return df
    50. #2
    51. def predict_to_data_frame(model: LatentDirichletAllocation, X: np.ndarray) -> pd.DataFrame:
    52. matrix = model.transform(X)
    53. columns = [f'P(topic {i + 1})' for i in range(len(model.components_))]
    54. df = pd.DataFrame(matrix, columns=columns)
    55. return df
    56. # 要输出的每个主题的前 n_top_words 个主题词数
    57. # 计算 n_top_words 个主题词
    58. top_words_df = top_words_data_frame(lda, tf_idf_vectorizer, n_top_words)
    59. # 获取五个主题的前五十个特征词
    60. print(top_words_df)
    61. # 转 tf_idf 为数组,以便后面使用它来对文本主题概率分布进行计算
    62. X = tf_idf.toarray()
    63. # 计算完毕主题概率分布情况
    64. predict_df = predict_to_data_frame(lda, X)
    65. # 获取五个主题,对于每个评论,分别属于这五个主题的概率
    66. print(predict_df)
    67. import pyLDAvis
    68. import pyLDAvis.sklearn
    69. panel = pyLDAvis.sklearn.prepare(lda, tf_idf, tf_idf_vectorizer)
    70. pyLDAvis.save_html(panel, 'lda_visualization.html')
    71. pyLDAvis.display(panel)

    一、数据清洗

     

    代码逐行讲解:

    1. df1 = pd.read_csv('小红书评论.csv') # 读取同目录下csv文件
    2. # df1 = df1.drop_duplicates(subset=['用户id']) # 获取一个id只评论一次的数据
    3. pattern = u'[\\s\\d,.<>/?:;\'\"[\\]{}()\\|~!\t"@#$%^&*\\-_=+a-zA-Z,。\n《》、?:;“”‘’{}【】()…¥!—┄-]+'
    4. df1['cut'] = df1['内容'].apply(lambda x: str(x))
    5. df1['cut'] = df1['cut'].apply(lambda x: re.sub(pattern, ' ', x)) #对评论内容作清洗,只保留中文汉字,生成新的cut行
    6. df1['cut'] = df1['cut'].apply(lambda x: " ".join(jieba.lcut(x))) #对评论内容作分词和拼接
    7. print(df1['cut'])
    8. print(type(df1['cut']))

    读取同目录下的文件,df1是数据框格式

    提取评论内容,并对评论内容做清洗,采用正则表达式,去除标点和英文。

    用jieba对每一行的数据作分词处理,最后得到的数据展现以及数据类型。

    cc395ce2626d4e26abfbe27aaf023067.png 

    二、模型构建 

    1. tf_idf_vectorizer = TfidfVectorizer()
    2. tf_idf = tf_idf_vectorizer.fit_transform(df1['cut'])
    3. # 2.特征词列表
    4. feature_names = tf_idf_vectorizer.get_feature_names_out()
    5. # 3.将特征矩阵转变为pandas DataFrame
    6. matrix = tf_idf.toarray()
    7. feature_names_df = pd.DataFrame(matrix,columns=feature_names)
    8. print(feature_names_df)
    9. # 所有的特征词组成列,所有的评论组成行,矩阵中的元素表示这个特征词在该评论中所占的重要性,即tf-idf值,0表示该句评论中没有该词。
    10. # 定义LDA对象
    11. n_topics = 5
    12. lda = LatentDirichletAllocation(
    13. n_components=n_topics, max_iter=50,
    14. learning_method='online',
    15. learning_offset=50.,
    16. random_state=0
    17. )
    18. # 核心,将TF-IDF矩阵放入LDA模型中
    19. lda.fit(tf_idf)
    1. tf_idf_vectorizer = TfidfVectorizer()

      • 这行代码创建了一个 TfidfVectorizer 对象,这是 scikit-learn 库中的一个文本向量化工具。它将文本数据转换为TF-IDF特征矩阵,这是一种常用的文本表示形式,能够反映出文本中单词的重要性。
    2. tf_idf = tf_idf_vectorizer.fit_transform(df1['cut'])

      • 这行代码执行了两个操作:
        • fit: 根据提供的文本数据(df1['cut'])来学习词汇表和计算IDF(逆文档频率)。
        • transform: 使用学习到的词汇表和IDF来转换文本数据为TF-IDF矩阵。结果 tf_idf 是一个稀疏矩阵,其中每一行代表一个文档,每一列代表一个单词,矩阵中的值表示该单词在文档中的重要性(TF-IDF权重)。
    3. # 定义LDA对象

      • 这是一个注释行,说明接下来的代码将定义一个LDA(隐狄利克雷分配)模型对象。
    4. n_topics = 5

      • 这行代码设置了一个变量 n_topics,其值为5,表示LDA模型中的主题数量。
    5. lda = LatentDirichletAllocation( ...)

      • 这行代码创建了一个 LatentDirichletAllocation 对象,即LDA模型,用于主题建模。它接受多个参数:
        • n_components=n_topics: 设置模型中的主题数量,这里与之前定义的 n_topics 变量相等。
        • max_iter=50: 设置模型训练的最大迭代次数。
        • learning_method='online': 指定学习算法,这里使用在线学习算法。
        • learning_offset=50.: 在线学习算法中的学习偏移量。
        • random_state=0: 设置随机状态,以确保结果的可重复性。
    6. lda.fit(tf_idf)

      • 这行代码将之前转换得到的TF-IDF矩阵 tf_idf 用于训练LDA模型。fit 方法将根据文档-词项矩阵和设置的主题数量来学习文档的主题分布以及词项在各个主题下的分布。

    总的来说,这段代码的目的是使用LDA模型来发现文档集合中的潜在主题。首先,它通过TF-IDF向量化器将文本数据转换为数值矩阵,然后使用这个矩阵来训练LDA模型,最后可以通过模型来分析文档的主题分布。

    打印出来的结果为:

    f3c8644da9304920ae8f2e2331ad532a.png 

    三、结果展现 

    1. #第1部分
    2. # 要输出的每个主题的前 n_top_words 个主题词数
    3. n_top_words = 50
    4. def top_words_data_frame(model: LatentDirichletAllocation,
    5. tf_idf_vectorizer: TfidfVectorizer,
    6. n_top_words: int) -> pd.DataFrame:
    7. rows = []
    8. feature_names = tf_idf_vectorizer.get_feature_names_out()
    9. for topic in model.components_:
    10. top_words = [feature_names[i]
    11. for i in topic.argsort()[:-n_top_words - 1:-1]]
    12. rows.append(top_words)
    13. columns = [f'topic {i + 1}' for i in range(n_top_words)]
    14. df = pd.DataFrame(rows, columns=columns)
    15. return df
    16. #2
    17. def predict_to_data_frame(model: LatentDirichletAllocation, X: np.ndarray) -> pd.DataFrame:
    18. matrix = model.transform(X)
    19. columns = [f'P(topic {i + 1})' for i in range(len(model.components_))]
    20. df = pd.DataFrame(matrix, columns=columns)
    21. return df
    22. # 要输出的每个主题的前 n_top_words 个主题词数
    23. # 计算 n_top_words 个主题词
    24. top_words_df = top_words_data_frame(lda, tf_idf_vectorizer, n_top_words)
    25. # 获取五个主题的前五十个特征词
    26. print(top_words_df)
    27. # 转 tf_idf 为数组,以便后面使用它来对文本主题概率分布进行计算
    28. X = tf_idf.toarray()
    29. # 计算完毕主题概率分布情况
    30. predict_df = predict_to_data_frame(lda, X)
    31. # 获取五个主题,对于每个评论,分别属于这五个主题的概率
    32. print(predict_df)

    这段代码是用于分析和可视化LDA(Latent Dirichlet Allocation,隐狄利克雷分配)模型的输出结果的。以下是对代码的逐行解释:

     

    这部分代码定义了两个函数,用于处理和展示LDA模型的结果。

    1. n_top_words = 50

      • 设置变量 n_top_words 为50,表示每个主题中要提取的前50个最重要的词。
    2. def top_words_data_frame(...) -> pd.DataFrame:

      • 定义了一个名为 top_words_data_frame 的函数,它接受一个LDA模型、一个TF-IDF向量化器和一个整数 n_top_words 作为参数,并返回一个包含每个主题的前 n_top_words 个词的DataFrame。
    3. rows = []

      • 初始化一个空列表 rows,用于存储每个主题的顶级词汇。
    4. feature_names = tf_idf_vectorizer.get_feature_names_out()

      • 从TF-IDF向量化器中获取词汇表,以便知道每个特征索引对应的词。
    5. for topic in model.components_:

      • 遍历LDA模型的每个主题。
    6. top_words = [feature_names[i] for i in topic.argsort()[:-n_top_words - 1:-1])

      • 对每个主题,获取其权重数组的排序索引,然后选择前 n_top_words 个索引对应的词。
    7. rows.append(top_words)

      • 将每个主题的顶级词汇列表添加到 rows 列表中。
    8. columns = [f'topic {i + 1}' for i in range(n_top_words)]

      • 创建DataFrame的列名,表示每个主题的顶级词汇。
    9. df = pd.DataFrame(rows, columns=columns)

      • 使用 rows 数据和 columns 列名创建一个DataFrame。
    10. return df

      • 返回包含每个主题顶级词汇的DataFrame。

     

    这部分代码使用LDA模型对文档进行主题预测,并展示结果。

    1. def predict_to_data_frame(model: LatentDirichletAllocation, X: np.ndarray) -> pd.DataFrame:

      • 定义了一个名为 predict_to_data_frame 的函数,它接受一个LDA模型和一个NumPy数组 X 作为参数,并返回一个包含文档主题概率分布的DataFrame。
    2. matrix = model.transform(X)

      • 使用LDA模型的 transform 方法将文档集 X 转换为每个文档的主题概率分布矩阵。
    3. columns = [f'P(topic {i + 1})' for i in range(len(model.components_))]

      • 创建列名,表示每个文档属于每个主题的概率。
    4. df = pd.DataFrame(matrix, columns=columns)

      • 使用转换得到的主题概率矩阵和列名创建一个DataFrame。
    5. return df

      • 返回包含文档主题概率分布的DataFrame。

     

    这部分代码执行了上述定义的函数,并打印了结果。

    1. top_words_df = top_words_data_frame(lda, tf_idf_vectorizer, n_top_words)

      • 调用 top_words_data_frame 函数,获取LDA模型的每个主题的前50个词。
    2. print(top_words_df)

      • 打印每个主题的前50个词。
    3. X = tf_idf.toarray()

      • 将TF-IDF矩阵转换为一个NumPy数组,以便用于主题预测。
    4. predict_df = predict_to_data_frame(lda, X)

      • 调用 predict_to_data_frame 函数,获取文档的主题概率分布。
    5. print(predict_df)

      • 打印每个文档属于每个主题的概率。

    这段代码的目的是分析LDA模型的结果,展示每个主题的代表性词汇以及文档的主题概率分布,从而帮助理解文档集合中的潜在主题结构。

    88f21d2d865741a38f4aadc86b88b949.png

     

    四、可视化分析

    1. # 获取五个主题,对于每个评论,分别属于这五个主题的概率
    2. print(predict_df)
    3. import pyLDAvis
    4. import pyLDAvis.sklearn
    5. panel = pyLDAvis.sklearn.prepare(lda, tf_idf, tf_idf_vectorizer)
    6. pyLDAvis.save_html(panel, 'lda_visualization.html')
    7. pyLDAvis.display(panel)

    结果展现:

    24d632f02fc644db9fb9eee781e2cc46.png 

    五、词云图分析

    另写代码,加入停用词后,对数据内容作词云图分析:

    1. import numpy as np
    2. import re
    3. import pandas as pd
    4. import jieba
    5. from sklearn.feature_extraction.text import TfidfVectorizer
    6. from sklearn.decomposition import LatentDirichletAllocation
    7. from wordcloud import WordCloud # 导入 WordCloud 类
    8. import matplotlib.pyplot as plt
    9. # 读取小红书评论数据
    10. df1 = pd.read_csv('小红书评论.csv')
    11. pattern = u'[\\s\\d,.<>/?:;\'\"[\\]{}()\\|~!\t"@#$%^&*\\-_=+a-zA-Z,。\n《》、?:;“”‘’{}【】()…¥!—┄-]+'
    12. df1['cut'] = df1['内容'].apply(lambda x: str(x))
    13. df1['cut'] = df1['cut'].apply(lambda x: re.sub(pattern, ' ', x))
    14. # 定义停用词列表,将你、了、的、我、你等常见词加入其中
    15. stop_words = set(['你', '了', '的', '我', '你', '他', '她', '它','是','有','哭','都','吗','也','啊'])
    16. # 分词并过滤停用词
    17. df1['cut'] = df1['cut'].apply(lambda x: " ".join([word for word in jieba.lcut(x) if word not in stop_words]))
    18. # 生成小红书评论的词云图
    19. def generate_wordcloud(text):
    20. wordcloud = WordCloud(background_color='white', font_path='msyh.ttc').generate(text)
    21. plt.figure()
    22. plt.imshow(wordcloud, interpolation="bilinear")
    23. plt.title("小红书评论词云")
    24. plt.axis("off")
    25. plt.show()
    26. # 获取小红书评论的文本
    27. all_comments_text = ' '.join(df1['cut'])
    28. # 生成词云图
    29. generate_wordcloud(all_comments_text)

    结果展现:e5fc30176bda4be4bba7d3af2eecfa49.png 

    数据我在上方绑定了,需要可自取。 

     

     

     

     

     

  • 相关阅读:
    微信小程序开发01 双线程模型:为什么小程序不用浏览器的线程模型?
    算法提升①
    Android IPC | Android多进程模式
    基于matlab的一级倒立摆直线运动稳定性控制仿真
    latex常用组件--记录
    SSLHandshakeException: Remote host closed connection during handshake异常处理
    PostgreSQL配置主从备份(docker)
    阻容降压电阻应用
    PHP 反序列化漏洞:身份标识
    Linux必备技能:掌握的必会命令
  • 原文地址:https://blog.csdn.net/m0_57265868/article/details/139445833