jieba分词结果出现错误

jieba分词后,结果里出现了错误,唠闲嗑这个词被分成了唠闲,磕,这种情况该怎么处理呀

该回答通过自己思路及引用到GPTᴼᴾᴱᴺᴬᴵ搜索,得到内容具体如下:
如果jieba分词结果出现错误,可以考虑使用自定义词典来解决这个问题。自定义词典可以手动指定一些分词器无法识别的词语,从而让分词结果更加准确。以下是使用jieba自定义词典的步骤:
1、 创建一个文本文件,例如"my_dict.txt",并将需要增加的词语逐行添加到该文件中。
2、 使用jieba.load_userdict()方法将自定义词典加载到分词器中,例如:

import jieba

jieba.load_userdict('my_dict.txt')

3、对文本进行分词时,分词器将优先使用自定义词典中的词语进行分词,例如:

text = "唠闲嗑这个词被分成了唠闲磕"
seg_list = jieba.cut(text)
print("/".join(seg_list))

输出结果为:"唠闲嗑/这个/词/被/分成/了/唠闲/磕"
可以看到,"唠闲嗑"被正确地分为一个词语。
注意,自定义词典中的词语应该按照词频从高到低的顺序排列,这样可以保证分词器优先使用自定义词典中的词语进行分词。同时,自定义词典中的词语应该使用utf-8编码保存。


如果以上回答对您有所帮助,点击一下采纳该答案~谢谢

调整下词频,或者自定义字典

img


代码

import jieba
seg_list = jieba.cut("我和小明在唠闲嗑")
print("/".join(seg_list))
# 输出:我/和/小明/在/唠闲/磕
jieba.suggest_freq("唠闲嗑", True) # 调整词频
seg_list = jieba.cut("我和小明在唠闲嗑")
print("/".join(seg_list))
# 输出:我/和/小明/在/唠闲嗑

不知道你这个问题是否已经解决, 如果还没有解决的话:
  • 帮你找了个相似的问题, 你可以看下: https://ask.csdn.net/questions/7471405
  • 我还给你找了一篇非常好的博客,你可以看看是否有帮助,链接:jieba 分词 用户自定义词典(即不想被分开的词)
  • 您还可以看一下 钱兴会老师的从零开始自然语言处理课程中的 自己构建jieba分词的停词库,提升分词质量小节, 巩固相关知识点
  • 除此之外, 这篇博客: jieba分词代码原理分析中的 项目结构 部分也许能够解决你的问题, 你可以仔细阅读以下内容或跳转源博客中阅读:

    .
    ├── analyse 提供了TF-IDF算法和textrank算法相关的实现
    │ ├──

    analyzer.py
    │ ├── idf.txt
    │ ├── init.py
    │ ├── textrank.py
    │ └── tfidf.py
    ├── _compat.py 处理python2和python3之间差异的一个文件
    ├── dict.txt 记录了大约350000个词语的词频和词性
    ├── finalseg 提供了隐马尔科夫维特比算法相关的代码,用于未登录文本切词
    │ ├── init.py HMM解决未登录词主要逻辑代码
    │ ├── prob_emit.p 发射概率 参数存储文件
    │ ├── prob_emit.py
    │ ├── prob_start.p 初始状态分布 参数存储文件
    │ ├── prob_start.py
    │ ├── prob_trans.p 转移概率 参数存储文件
    │ └── prob_trans.py
    ├── init.py !!!结巴分词提供的功能接口,主要代码都在其中
    ├── main.py
    └── posseg
    ​ ├── char_state_tab.p
    ​ ├── char_state_tab.py
    ​ ├── init.py
    ​ ├── prob_emit.p
    ​ ├── prob_emit.py
    ​ ├── prob_start.p
    ​ ├── prob_start.py
    ​ ├── prob_trans.p
    ​ ├── prob_trans.py
    ​ └── viterbi.py

    3 directories, 26 files

    格式:行内空格出现了问题…看着好乱


如果你已经解决了该问题, 非常希望你能够分享一下解决方案, 写成博客, 将相关链接放在评论区, 以帮助更多的人 ^-^