关于高并发数据的读写该怎么处理

有这样一个需求 七个左右的客户,每隔半小时左右都会往各自账户下上传200万左右的数据量,然后同时大概每个客户下又有40到200个用户不停的获取这些数据,并且获取完会删除,每次获取40到300条左右数据,使用完后会再次获取,该用什么方式去处理并发,保证数据没有被重复获取,我用mysql来存储读写感觉性能不太行,而且并发会导致重复的获取,删除又造成死锁,改成抽样获取性能又太差,死锁问题也无法避免

尝试使用redis,数据结构设置好了以后完全没有问题,也可以读写分库,比如读取为1库,写入为2库,将其区分开来,读取库设置过期时间,过期后数据自动删除,写入库设置自动任务.读取库设置自动任务或者定时任务,将数据不停地往读取库更新.
redis完全是内存数据库,可以实现是要的要求

mq行不行

使用消息队列处理
https://help.aliyun.com/document_detail/29532.html

img


如有帮助,请采纳