最近在研究SyntaxNet,但是下载中文语料库参照官方网站的训练方法,可以很容易实现中文词性标注和语音分析,但是无法将中文成功分词,结果往往是将一整句话识别成一个名词,有么有哪位大神也碰到这样的问题,一起探讨下?谢过啦!
http://blog.csdn.net/nancy_xz/article/details/52981364
不要去使用syntaxNet去分词,它的中文分词我觉得做的不好。所以我采用以下的方法
1, 准备语料库
2, 采用jiaba中文分词
3, 把分词后的语句去交给syntaxNet做语议分析。
这个结果会比较喜人