Elasticsearch2.4.1怎么开发的Tokenizer

Elasticsearch 有10种分词器(Tokenizer),但是公司要求把之前版本公司编的一个数字分词的Tokenizer,之前用的1.几的版本,打成jar放进lib文件夹下就行了。我修改了pom和代码,更新了这个分词器,然后打成jar包放进lib,但是不能用,提示没有我写的这个Tokenizer,是2.4.1版本扫描方式变了还是我修改的有问题?有没有大神知道的

http://eggtwo.com/news/detail/147