版权声明: https://blog.csdn.net/qq_34246164/article/details/81852812
淘宝手机信息的爬取,请看这边博客(点击这里),然后我们利用其中保存的文本来进行绘制词云。
首先直接贴上代码(有写的不明白的可以直接留言,一起学习)
import matplotlib.pyplot as plt
from wordcloud import WordCloud
from scipy.misc import imread
import jieba
text = open(r"tb.txt","rb").read()
wordlist = jieba.cut(text)
wl = ' '.join(wordlist) #将分词后的文本存入到一个列表中
#设置停用词
stopwords_list = []
with open('stopwords.txt', 'r') as f:
for line in f.readlines():
stopwords_list.append(line.strip()
) #停用词设置
wc = WordCloud(background_color = "white", #设置背景颜色
mask = imread('shen.png'), #设置背景图片
max_words = 2000, #设置最大显示的字数
stopwords = stopwords_list, #["的", "这种", "这样", "还是", "就是", "这个", "没有","但是", "可以","真的","我们","导演", "看到","一个",'可能','一部'], #设置停用词
font_path = r"C:\Windows\Fonts\simkai.ttf", # 设置为楷体 常规
#设置中文字体,使得词云可以显示(词云默认字体是“DroidSansMono.ttf字体库”,不支持中文)
max_font_size = 60, #设置字体最大值
random_state = 30, #设置有多少种随机生成状态,即有多少种配色方案
)
myword = wc.generate(wl)#生成词云
wc.to_file('result.jpg')
#展示词云图
plt.imshow(myword)
plt.axis("off")
plt.show()
接下是结果展示:
你发现了什么?