用自己的姓名或学号新建一个文件夹,在文件夹中新建一个文本文件“111.txt”。
将“111.txt”文件中的内容的中文提取到“222.txt”文档中(使用 re方法)。
使用 jieba 对提取的中文文档(222.txt)进行分词处理,并统计出现频率最高的前 100 个。
使用 wordcloud 和 matplotlib.pyplot
方法对“222.txt”中的分词制作分词云图,并保存为“分词云图 1.png”。
使用“222.txt”中出现频率最高的前 10 个词语,制作条形图,X 轴对应10 个词语,y
轴对应每个词语的频率值,保存成“条形图 2.png”。
一:
先看看python的文件操作,
https://www.runoob.com/python3/python3-file-methods.html
open('a','111.txt'): # 写入txt
二:
看正则
https://www.runoob.com/python3/python3-reg-expressions.html (正则教程)
https://c.runoob.com/front-end/854/(正则测试)
三:
后面的jieba,wordcloud ,matplotlib.pyplot是python 的第三方库,你直接搜索库的教程,csdn上一大堆新手教程