百万到千万级数据量比对如何提高效率

需求是要拿一条数据和缓存的数据做比对,得到结果,但是数据量很大导致速度很慢
目前解决方案是下面代码这样,OneCompareTaskCount 是开启的线程数量,onceCompareCount每个线程处理数据量,newList是总的数据集
大概400万条数据计算了有4分钟,请问有没有更好的方法提高效率
for (int i = 0; i < OneCompareTaskCount ; i++)
                    {
                        int temp_i = i;
                        ManualResetEvent mre = new ManualResetEvent(false);
                        manualEvents.Add(mre);
                        ThreadPool.QueueUserWorkItem((object obj) =>
                        {
                            int _start = temp_i * onceCompareCount,
                        _end = temp_i == OneCompareTaskCount - 1 ? newList.Count : (temp_i + 1) * onceCompareCount;
                            Parallel.For(_start, _end, (j) =>
                            {
                                // 计算并保存结果
                            });
                            mre.Set();
                        }, mre);
                    }
                    WaitHandle.WaitAll(manualEvents.ToArray());

这问题不好回答,因为我估计任何人的回答都不会让你满意
原因:数据结构问题

你能看到所有数据库选型都是hash,B tree,链表,跳表,索引,这样的描述。甚至还可能又bloom过滤器这样的说法(主要目的,利用数据结构快速定位目标,避免全扫描)
因为如果你说几百万和几千万,你就啥都不做,单纯2个循环,他都不会有啥高性能的说法
所以需要根据你的具体需求去确定一个合适数据结构,但是这样的方式是你绝对不想看的

可以尝试将数据导入到数据库里面,然后通过表连接,建立索引会快很多

多线程操作本身就是让 cpu 同时间多做工作 , 现在代码无法优化了就升级CPU呗。
如果说只是单纯 让用户 增强 体验感, 在不需要全部计算完的前提下 ,可以分批展现;
比如,我在界面只能显示50行,当点击下一页的时候,再比较下一批数据。
如果是必须得一次性计算完,只能提升硬件咯。