MongoDB 亿级数据存储

最近公司项目用到MongoDB,需要存储大量数据,初始数据存入mongo就已经达到30亿条,考虑性能问题需要在一天内导入完毕,日后每天5000w增量数据。
机器内存512,mongo内存限制200G,4个分片,存入15亿条时就存在mongo内存磁盘交换问题,之后存储速度大幅度降低,有什么办法解决吗?

这个数据量需要搭建集群,可以参考:

日增5000w即使分片成本也会很高吧,如此大的数据量应该是时序类分析数据吧,建议对口专业的时序存储和分析类数据库,例如elasticsearch或者clickhouse,不追求并发量clickhouse能做到单机数十亿存储上亿数据秒级聚合