当前位置:   article > 正文

主题模型--BERTopic python解析

bertopic

一、概念

1.1 主题模型

主题模型(Topic Model)是自然语言处理中的一种常用模型,是一种无监督学习方法,它用于从大量文档中自动提取主题信息。

主题模型的核心思想是,每篇文档都可以看作是多个主题的混合,而每个主题则由一组词构成。

  • 主题模型能够帮助我们理解文档集中的主题结构,有助于文档分类、聚类和信息检索。
  • 主题模型能够将高维的文本数据降维到低维的主题空间,便于后续的分析和处理。

1.2 BERTopic

BERTopic是基于BERT词向量进行主题建模技术,它利用 Transformer 和 c-TF-IDF 来创建密集的集群(分类),允许轻松解释主题,同时在主题描述中保留重要词。

从个人实践效果来看,要优于LDA、BTM等主题模型

BERTopic 可以看作是创建其主题表示的一系列步骤。此过程有五个步骤:

  1. Embeddings:词嵌入,选择预训练模型
  2. Dimensionality Reduction:降维,默认选择UMAP
  3. Clustering:聚类,默认选择HDBSCAN
  4. Vectorizers:将文本中的词语词频矩阵
  5. c-TF-IDF:获得主题的准确表示
  6. Fine-tune Topics:模型微调(可选)
    在这里插入图片描述
    里面涉及到的模型原理后续会分别整理

二、建模流程

使用BERTopic,有两种方式,一种是全部使用默认参数,直接调包运行;另外一种是自己根据实际数据集进行超参数进行调整

2.1 快速入门

直接使用默认的参数进行调用

2.1.1 安装包
pip install bertopic
  • 1
2.1.2 数据导入
df = pd.read_csv('news.csv')
  • 1
2.1.3 分词

分词可以实现处理好再进行建模,也可以定义好分词的方法在建模时传入,一般建议先分词在建模,这样可以打印中间分词结果进行检查

在这里插入图片描述

2.1.4 创建模型
from sentence_transformers import SentenceTransformer
from sklearn.feature_extraction.text import CountVectorizer

embedding_model = SentenceTransformer("distiluse-base-multilingual-cased-v1")
vectorizer =  CountVectorizer()

from bertopic import BERTopic

topic_model = BERTopic(embedding_model=embedding_model, vectorizer_model=vectorizer)
topics, probs = topic_model.fit_transform(docs)
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10

训练时如果报错,可参照之前的一篇文章

在这里插入图片描述

2.1.5 查看结果
  • topic_model.get_topic_info 查看各主题信息
    在这里插入图片描述

  • topic_model.visualize_topics() 话题间距离的可视化
    在这里插入图片描述

  • topic_model.visualize_hierarchy(top_n_topics=20) 主题层次聚类可视化

  • topic_model.visualize_barchart(topics=[1]) 显示主题1的词条形图
    在这里插入图片描述

  • topic_model.visualize_heatmap() 主题相似度热力图
    在这里插入图片描述

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/你好赵伟/article/detail/343684
推荐阅读
相关标签
  

闽ICP备14008679号