mysql千万级数据,写多读少,如何优化

mysql数据库,其中有一张表数据量有3千万,写多读少,如何优化?
我对表进行大量写操作的时候,整个系统都无法访问了,请问是什么原因?
是因为对表执行大量的新增操作,IO变慢了?

千万级,索引优化也还行。
接着分表,拆成 N 张子表,再不行的话,再分库,分成多个库。
总结起来,就是数据库设计和表创建时就要考虑性能、sql的编写需要注意优化、分区、分表、分库。
写多读少对优化的本质没多大影响,因为都是执行sql。

写多读少可以考虑使用历史数据库+活动数据库,然后主键考虑使用流水号或者uuid来避免重复。如果要考虑并发,可以再使用读写分离+垂直分表。

这点数据量优化没什么难度的,
写多读少,具体怎么写怎么读的? 根据业务来优化比较靠谱,不需要一上来就整得那么复杂
简单来说就分表就够了,按照某个字段的值来分表,查的时候来判断是哪张表就可以了,
也可以考虑用分区表优化,不过分区表有很多限制,如果条件符合的话分区表比较适合...