jieba以动词+其它词性分词并制作词云图

人类千百年来都是视觉动物

从远古时代的壁画,到现在的表情包

大数据时代的今天,文本和数据更需要颜值

jieba分词我在这里就不多介绍了,很多玩过python的同学相信多多少少都接触到一点,在这里分享一个在制作词云图时遇到的一个关于分词词性的解决方案。

场景:因为需要对海员提交的“关于国外有哪些举措对于稳定和扩大海员队伍是值得中国学习”意见信息进行总结,然后制作词云图,而相关举措因该是动词+其它词性 查阅资料后发现jieba分词时可以判别词的词性。 以下是解决方案

import jieba.posseg as psg
from PIL import Image
from wordcloud import WordCloud, ImageColorGenerator
import matplotlib.pyplot as plt
import numpy as np
text = 
你的文本

def GetWordCloud():
    path_img = r"weibo.jpg"
    background_image = np.array(Image.open(path_img))
    result = psg.cut(text)
    newword = [x.word + result.__next__().word for x in result if x.flag == v]
    cut_text = " ".join(newword)
    wordcloud = WordCloud(
        font_path="C:/Windows/Fonts/simfang.ttf",
        background_color="white",
        mask=background_image).generate(cut_text)
    image_colors = ImageColorGenerator(background_image)
    plt.rcParams[savefig.dpi] = 500
    plt.rcParams[figure.dpi] = 500
    plt.rcParams[figure.figsize] = (15.0, 8.0)
    plt.imshow(wordcloud.recolor(color_func=image_colors), interpolation="bilinear")
    plt.axis("off")
    plt.savefig(./result9.png, dpi=300)
    plt.show()
if __name__ == __main__:
	GetWordCloud()
经验分享 程序员 微信小程序 职场和发展