ElasticSearch 亿级数据量分词聚合问题

服务器内存64G,单节点
现有1亿数据,有几个字段需要分词后再聚合统计。1个字段大概10G左右的数据。
整个索引有300G大小。es使用的是6.3版本,如果用fielddata,试了好多次,
基本不能完成计算。有没有什么好的办法解决这个问题,或者使用其它的技术?

https://blog.csdn.net/laoyang360/article/details/79253294