1、写词云的思路:数据采集-分词-生成词云
2、用到的模块:wordcloud。如果没有这个模块,cmd进入python所在目录的Scripts文件夹,通过pip安装。pip install wordcloud。安装出现以下错误:
从https://www.microsoft.com/en-us/download/details.aspx?id=44266下载Microsoft Visual C++ Compiler for Python 2.7。安装以下即可,接下来遇到什么安装包没安装的,在cmd环境下直接pip install jieba(工具包名)
3、开始编码:导入模块
from wordcloud import WordCloud
import os
cur_path=os.path.dirname(__file__)+"./resource"
print(cur_path)
#打开索要分析的数据文件
with open(os.path.join(cur_path,'love_en.txt'),'r') as fp:
text=fp.read()
print(text)
wordCloud=WordCloud().generate(text) #统计这个文件里面的词频,当道wordCloud里面
image=wordCloud.to_image()
image.show()
效果图如下:
4、wordcloud支持英文分词,jieba支持中文分词