当前位置:   article > 正文

AI数据分析:用kimi批量根据word文档生成词云图片_kimi 读取文本 转换成想要数据 训练方法

kimi 读取文本 转换成想要数据 训练方法

在kimi中输入提示词:

你是一个Python编程专家,完成如下Python脚本的编写:

读取"F:\AI.docx"这个文件;

然后用jieba分词对文件内容进行分词;

用wordcloud生成词云,背景颜色设为白色;

词云图片保存到F盘;

注意:每一步都要输出相关信息到屏幕上

指定使用Windows系统中的黑体字体 ,字体路径为: 'C:\\Windows\\Fonts\\simsun.ttc'

为什么要指定字体呢?

如果不指定字体,词云中的英文显示正常,但是中文是乱码的。生成词云时中文显示为乱码通常是因为字体问题。wordcloud库默认使用的字体可能不支持中文字符,因此需要指定一个支持中文的字体。在Python中,一个常用的支持中文的字体是'SimHei'(黑体)。要解决这个问题,需要做两件事:指定中文字体:在创建WordCloud对象时,设置font_path参数为一个支持中文的字体路径。安装中文字体:如果你的系统中没有安装支持中文的字体,你需要先安装一个。

Kim生成的Python源代码:

import os

from docx import Document

from wordcloud import WordCloud

import jieba

from PIL import Image

import numpy as np

# 设置文件路径和字体路径

docx_path = 'F:\\AI.docx'

output_image_path = 'F:\\wordcloud.png'

font_path = 'C:\\Windows\\Fonts\\simsun.ttc' # 指定Windows系统中的黑体字体路径

# 检查文件是否存在

if not os.path.isfile(docx_path):

print(f'文件 {docx_path} 不存在。')

else:

# 读取Word文档

doc = Document(docx_path)

text = " ".join([para.text for para in doc.paragraphs])

print('文件读取成功。')

# 使用jieba进行中文分词

words = " ".join(jieba.cut(text, cut_all=False))

print('分词完成。')

# 生成词云

wordcloud = WordCloud(

font_path=font_path, # 指定中文字体路径

background_color='white',

max_words=200,

max_font_size=100,

random_state=42,

width=800,

height=400,

colormap='viridis'

).generate(words)

# 保存词云图片

wordcloud.to_file(output_image_path)

print(f'词云图片已保存到 {output_image_path}')

# 显示词云图片

image = Image.open(output_image_path)

image.show()

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/羊村懒王/article/detail/689734
推荐阅读
相关标签
  

闽ICP备14008679号