一张亿级的数据表怎么做更新优化

今天面试,面试官问了我这个问题,我说SQL优化和索引,他说索引范反而更慢了,我在网上查了下,不是太能理解,望大家帮忙解决下

数据量太大,索引也非常大了,是不是还不如全表扫描
这么多数据,是不是应该分表来提升性能

分区 分表 创建索引

分表分库,或者用分布式存储,这么大的数据量,单表怎么优化都会慢

网上有个想法是,把读取出来数据生成临时表,将原表数据删除,修改后在插入。大家怎么看