您好,我是有问必答小助手,您的问题已经有小伙伴解答了,您看下是否解决,可以追评进行沟通哦~
如果有您比较满意的答案 / 帮您提供解决思路的答案,可以点击【采纳】按钮,给回答的小伙伴一些鼓励哦~~
ps:问答VIP仅需29元,即可享受5次/月 有问必答服务,了解详情>>>https://vip.csdn.net/askvip?utm_source=1146287632
可以参考以下代码,方法完全一样
import jieba
from collections import Counter
#读取中文文本
def chi_reader(filepath):
a=''
with open(filepath,'r',encoding='utf-8-sig') as f:
for line in f:
a+=line
return a
#分词并去掉只有一个字的词
def fenci(t):
fc_list=jieba.lcut(t)
fclist=[z for z in fc_list if len(z)!=1]
return fclist
#过滤指定词
stopwords=[‘什么’]
def guolv(yourlist):
final_list=[]
for c in yourlist:
if c not in stopwords:
final_list.append(c)
return final_list
#调用函数读取内容,并分词,过滤,进行词频统计
mytext=chi_reader('红楼梦.txt')
mylist=guolv(fenci(mytext))
cfrequency=Counter(mylist)
#然后再根据人物进行选择