当前位置: 首页 > news >正文

200W数据需要去重,如何优化?

优化去重逻辑的时间取决于多个因素,包括数据量、数据结构、硬件性能(CPU、内存)、去重算法的实现方式等。以下是对优化去重逻辑的详细分析和预期优化效果:


1. 去重逻辑的性能瓶颈

  • 时间复杂度:使用HashSet去重的时间复杂度为O(n),其中n是数据量。
  • 内存占用HashSet需要将数据全部加载到内存中,如果数据量过大(如200万条),可能会占用大量内存,甚至导致GC(垃圾回收)频繁触发,影响性能。
  • 数据分布:如果数据的唯一标识(如getUniqueKey())分布不均匀,可能会导致HashSet的哈希冲突增加,影响性能。

2. 优化去重逻辑的预期效果

  • 使用HashSet去重:对于200万条数据,HashSet去重的理论时间通常在几秒到十几秒之间,具体取决于硬件性能。
  • 并行去重:如果使用多线程并行去重,可以将时间进一步缩短。例如,使用8个线程并行处理,理论上可以将时间减少到原来的1/8左右。
  • 内存优化:如果内存不足,可以采用分批去重的方式,减少内存占用,但可能会略微增加时间。

3. 优化去重的具体实现

  • 单线程去重
  Set<String> uniqueSet = new HashSet<>();List<Data> uniqueDataList = dataList.stream().filter(data -> uniqueSet.add(data.getUniqueKey())).collect(Collectors.toList());

对于200万条数据,单线程去重的时间通常在5-10秒左右(取决于硬件性能)。

  • 多线程并行去重
    将数据分片,使用多线程并行去重。

    int threadPoolSize = 8; // 根据CPU核心数调整
    ExecutorService executor = Executors.newFixedThreadPool(threadPoolSize);
    List<Future<List<Data>>> futures = new ArrayList<>();
    int chunkSize = dataList.size() / threadPoolSize;
    for (int i = 0; i < threadPoolSize; i++) {int start = i * chunkSize;int end = (i == threadPoolSize - 1) ? dataList.size() : (i + 1) * chunkSize;List<Data> subList = dataList.subList(start, end);futures.add(executor.submit(() -> {Set<String> localSet = new HashSet<>();return subList.stream().filter(data -> localSet.add(data.getUniqueKey())).collect(Collectors.toList());}));
    }
    List<Data> uniqueDataList = new ArrayList<>();
    for (Future<List<Data>> future : futures) {uniqueDataList.addAll(future.get());
    }
    executor.shutdown();
    

    使用多线程并行去重,时间可以缩短到1-3秒左右。


4. 进一步优化

  • 使用更高效的数据结构:如果getUniqueKey()是数值类型,可以使用Trove库的THashSet,它比HashSet更高效。
  • 减少数据拷贝:在去重时,尽量避免对数据的多次拷贝,直接操作原始数据。
  • 使用布隆过滤器:如果允许一定的误判率,可以使用布隆过滤器(Bloom Filter)进行快速去重。

5. 测试和验证

  • 硬件环境:在测试时,确保硬件环境(CPU、内存、磁盘)与实际生产环境一致。
  • 数据分布:使用真实数据或模拟数据测试,确保数据分布与实际场景一致。
  • 性能监控:使用性能分析工具(如JProfiler、VisualVM)监控去重逻辑的性能瓶颈。

6. 预期优化效果总结

  • 单线程去重:5-10秒。
  • 多线程并行去重:1-3秒。
  • 进一步优化(如布隆过滤器):可以进一步缩短时间,但可能会引入一定的误判率。

示例代码(多线程并行去重)

public List<Data> deduplicate(List<Data> dataList, int threadPoolSize) throws Exception {ExecutorService executor = Executors.newFixedThreadPool(threadPoolSize);List<Future<List<Data>>> futures = new ArrayList<>();int chunkSize = dataList.size() / threadPoolSize;for (int i = 0; i < threadPoolSize; i++) {int start = i * chunkSize;int end = (i == threadPoolSize - 1) ? dataList.size() : (i + 1) * chunkSize;List<Data> subList = dataList.subList(start, end);futures.add(executor.submit(() -> {Set<String> localSet = new HashSet<>();return subList.stream().filter(data -> localSet.add(data.getUniqueKey())).collect(Collectors.toList());}));}List<Data> uniqueDataList = new ArrayList<>();for (Future<List<Data>> future : futures) {uniqueDataList.addAll(future.get());}executor.shutdown();return uniqueDataList;
}

通过以上优化,去重逻辑的时间可以从原来的几十秒优化到几秒甚至更短。


http://www.mrgr.cn/news/93569.html

相关文章:

  • 20250306-笔记-精读class CVRPEnv:step(self, selected)
  • Flink深入浅出之03:状态、窗口、checkpoint、两阶段提交
  • FPGA学习篇——Verilog学习3(关键字+注释方法+程序基本框架)
  • 蓝桥杯单片机——第十五届蓝桥杯省赛
  • STM32之I2C硬件外设
  • C语言100天练习题【记录本】
  • STM32之硬件SPI
  • 苦瓜书盘官网,免费pdf/mobi电子书下载网站
  • 100天精通Python(爬虫篇)——第115天:爬虫在线小工具_Curl转python爬虫代码工具(快速构建初始爬虫代码)
  • Kubernetes Pod网络组件解析与选型指南
  • python从入门到精通(二十五):文件操作和目录管理难度分级练习题
  • 【华三】STP端口角色与状态深度解析
  • MySQL------存储引擎和用户和授权
  • 从0开始的操作系统手搓教程25:使用环状缓冲区来让我们的键盘驱动真正的有作用起来
  • 200W数据去重入库的几种方法及优缺点
  • STM32-I2C通信协议
  • Browser Use+DeepSeek的使用教程
  • LTC6804、LTC6811、LTC6813的使用
  • Linux 软硬链接
  • 音视频入门基础:RTP专题(14)——FFmpeg源码中,对H.264的各种RTP有效载荷结构的解析