大数据量时,消息队列消费者如何高性能消费

场景是,采用mqtt协议,把设备发送的消息,转发到了kafka,再由消费者入库。
如果一下很多消息要消费者入库,那如何保证入库这个逻辑的高性能

写库的性能取决于DB的配置,IO性能、磁盘的配置以及数据结构的设计(比如索引不要设计太多,表结构尽量简单化)等等, 单纯从逻辑层面优化,办法比较少,要么是换成Nosql数据库,要么是增加数据库的实例来提升写入速度,此外如果DB有同步复制相关的配置,可考虑改成异步复制等等。