制作中文词云图的Python源码实例
发布时间:2023-12-17 05:10:39
制作中文词云图的Python源码实例:
import jieba
from wordcloud import WordCloud
import matplotlib.pyplot as plt
def generate_wordcloud(text):
# 使用jieba库进行中文分词
word_list = jieba.cut(text)
# 将词列表转换为空格分隔的字符串
word_str = " ".join(word_list)
# 生成词云
wordcloud = WordCloud(font_path="STHeiti Medium.ttc",
background_color='white',
width=800,
height=600).generate(word_str)
# 显示词云图
plt.imshow(wordcloud, interpolation='bilinear')
plt.axis('off')
plt.show()
def main():
# 待处理的文本
text = "我爱中国,我爱北京,我爱天安门广场!"
# 生成词云
generate_wordcloud(text)
if __name__ == '__main__':
main()
使用例子:
上述源代码中的text变量是待处理的中文文本,可以根据实际需求进行修改。运行上述代码,将会得到一个中文词云图,其中显示了出现次数较多的词语在图中的大小。
例如,如果text变量的值为"我爱中国,我爱北京,我爱天安门广场!",则生成的词云图将会包含词语"我"、"爱"、"中国"、"北京"和"天安门广场"等。词云图中,出现次数较多的词语将会显示得较大,出现次数较少的词语将会显示得较小。
可以使用该词云图来进行文本分析、数据可视化等任务。
