mysql 单表数据行10亿 频繁的查询 修改 删除 通过分区和索引 读写分离 可以解决 效率问题吗 ? 还是必须要分表那?
分表,读写分离,都用上吧。
必须分表。大概每张表600-800万数据性能会比较好。
针对频繁查询的创建索引,或者联合索引。
读写分离肯定也要做。
频繁的查询,修改,删除,还数据这么大,那些数据是否都真的有用哈?如果没用可以考虑垂直分表,把不用的数据丢一边去。
另外这么大数据可以考虑使用elasticsearch等搜索引擎来做查询。
建议分表,如果业务是读多写少可以加上读写分离
首先考虑基于binlog读写分离集群,然后分库分表,还可以加上第三方缓存