关于MySQL数据库批量插入问题

问大家个问题 数据表有20万数据了 然后每次批量插入的时候数据量也很大 每次都要进行这样的操作 数据库里存在则修改 不存在则新增 容易造成程序超时 有什么好的解决方案吗

先插入临时表,再用临时表做merge

可以做好历史表,若表数据查询已经修改的频率很低,可以将数据同步到历史表,业务先去数据表,再去历史表。
又或者分库分表(需要根据业务来判断)
若是响应不是很及时,可以采用存储过程实现