• Python处理复杂的CSV文件


    目录

    大家好 我是毕加索锁(锁!)今天教大家 利用Python处理复杂的CSV文件

    项目简介

    项目笔记与心得

    总结


     

    fc97777301023df3d532093971882cd7.gif

    大家好 我是毕加索锁(锁!)今天教大家 利用Python处理复杂的CSV文件

    项目简介

    鉴于项目保密的需要,不便透露太多项目的信息,因此,简单介绍一下项目存在的难点:

    1. 海量数据:项目是对CSV文件中的数据进行处理,而特点是数据量大...真的大!!!拿到的第一个CSV示例文件是110多万行(小CASE),而第二个文件就到了4500万行,等到第三个文件......好吧,一直没见到第三个完整示例文件,因为太大了,据说是第二个示例文件的40多倍,大概二十亿行......

    2. 业务逻辑复杂:项目是需要对CSV文件的每一行数据的各种组合可能性进行判断,而判断的业务逻辑较为复杂,如何在解决复杂逻辑的同时保证较高的处理效率是难点之一。

    项目笔记与心得

    一、分批处理与多进程、多线程加速

    1. 因为数据量太大,肯定是要分批对数据进行处理,否则,效率低不谈,大概率也没有足够的内存能够支撑,需要用到chunksize,此外,为了节约内存,以及提高处理效率,可以将文本类的数据存储为“category”格式:

    2. 项目整体是计算密集型的任务,因此,需要用到多进程,充分利用CPU的多核性能;

    3. 多线程进行读取与写入,其中,写入使用to_csv的增量写入方法,mode参数设置为'a';

    4. 多进程与多线程开启一般为死循环,需要在合适的位置,放入结束循环的信号,以便处理完毕后退出多进程或多线程

    1. """鉴于项目保密需要,以下代码仅为示例"""
    2. import time
    3. import pathlib as pl
    4. import pandas as pd
    5. from threading import Thread
    6. from multiprocessing import Queue, Process, cpu_count
    7. # 导入多线程Thread,多进程的队列Queue,多进程Process,CPU核数cpu_count
    8. # 存放分段读取的数据队列,注:maxsize控制队列的最大数量,避免一次性读取到内存中的数据量太大
    9. data_queue = Queue(maxsize=cpu_count() * 2)  
    10. # 存放等待写入磁盘的数据队列
    11. write_queue = Queue()  
    12. def read_data(path: pl.Path, data_queue: Queue, size: int = 10000):
    13.     """
    14.     读取数据放入队列的方法
    15.     :return:
    16.     """
    17.     data_obj = pd.read_csv(path, sep=',', header=0, chunksize=size, dtype='category')
    18.     for idx, df in enumerate(data_obj):
    19.         while data_queue.full():  # 如果队列满了,那就等待
    20.             time.sleep(1)
    21.         data_queue.put((idx + 1, df))
    22.     data_queue.put((NoneNone))  # 放入结束信号
    23.     
    24. def write_data(out_path: pl.Path, write_queue: Queue):
    25.     """
    26.     将数据增量写入CSV的方法
    27.     :return:
    28.     """
    29.     while True:
    30.         while write_queue.empty():
    31.             time.sleep(1)
    32.         idx, df = write_queue.get()
    33.         if df is None:
    34.             return  # 结束退出
    35.         df.to_csv(out_path, mode='a', header=None, index=False, encoding='ansi')  # 输出CSV
    36.             
    37. def parse_data(data_queue: Queue, write_queue: Queue):
    38.     """
    39.     从队列中取出数据,并加工的方法
    40.     :return:
    41.     """
    42.     while True:
    43.         while write_queue.empty():
    44.             time.sleep(1)
    45.         idx, df = data_queue.get()
    46.         if df is None:  # 如果是空的结束信号,则结束退出进程,
    47.         # 特别注意结束前把结束信号放回队列,以便其他进程也能接收到结束信号!!!
    48.             data_queue.put((idx, df))
    49.             return
    50.         """处理数据的业务逻辑略过"""
    51.         write_queue.put((idx, df))  # 将处理后的数据放入写队列
    52. # 创建一个读取数据的线程
    53. read_pool = Thread(target=read_data, args=(read_data_queue, *args))
    54. read_pool.start()  # 开启读取线程
    55. # 创建一个增量写入CSV数据的线程
    56. write_pool = Thread(target=write_data, args=(write_data_queue, *args))
    57. write_pool.start()  # 开启写进程
    58. pools = []  # 存放解析进程的队列
    59. for i in range(cpu_count()):  # 循环开启多进程,不确定开多少个进程合适的情况下,那么按CPU的核数开比较合理
    60.     pool = Process(target=parse_data, args=(read_data_queue, write_data_queue, *args))
    61.     pool.start()  # 启动进程
    62.     pools.append(pool)  # 加入队列
    63. for pool in pools:
    64.     pool.join()  # 等待所有解析进程完成
    65. # 所有解析进程完成后,在写队列放入结束写线程的信号
    66. write_data_queue.put((NoneNone))  
    67. write_pool.join()  # 等待写线程结束
    68. print('任务完成')

    二、优化算法,提高效率

    1. 将类对象存入dataframe列

    • 在尝试了n种方案之后,最终使用了将类对象存到dataframe的列中,使用map方法,运行类方法,最后,将运行结果展开到多列中的方式。该方案本项目中取得了最佳的处理效率。

    1. """鉴于保密需要,以下代码仅为示例"""
    2. class Obj:
    3.     def __init__(self, ser: pd.Series):
    4.         """
    5.         初始化类对象
    6.         :param ser: 传入series
    7.         """
    8.         self.ser = ser  # 行数据
    9.         self.attrs1 = []  # 属性1
    10.         self.attrs2 = []  # 属性2
    11.         self.attrs3 = []  # 属性3
    12.     def __repr__(self):
    13.         """
    14.         自定义输出
    15.         """
    16.         attrs1 = '_'.join([str(a) for a in self.attrs1])
    17.         attrs2 = '_'.join([str(a) for a in self.attrs2])
    18.         attrs3 = '_'.join([str(a) for a in self.attrs3])
    19.         return '_'.join([attrs1, attrs2, attrs3])
    20.         
    21.     def run(self):
    22.         """运行业务逻辑"""
    23.         
    24. # 创建obj列,存入类对象
    25. data['obj'] = data.apply(lambda x: Obj(x), axis=1)
    26. # 运行obj列中的类方法获得判断结果
    27. data['obj'] = data['obj'].map(lambda x: x.run())
    28. # 链式调用,1将类对象文本化->2拆分到多列->3删除空列->4转换为category格式
    29. data[['col1''col2''col3', ...省略]] = data['obj'].map(str).str.split('_', expand=True).dropna(axis=1).astype('category')
    30. # 删除obj列
    31. data.drop(columns='obj', inplace=True)  
    1. 减少计算次数以提高运行效率

    在整个优化过程中,对运行效率产生最大优化效果的有两项:

    • 一是改变遍历算法,采用直接对整行数据进行综合判断的方法,使原需要遍历22个组合的计算与判断大大减少

    • 二是提前计算特征组合,制作成字典,后续直接查询结果,而不再进行重复计算

    1. 使用numpy加速计算

    numpy还是数据处理上的神器,使用numpy的方法,比自己实现的方法效率要高非常多,本项目中就用到了:bincount、argsort,argmax、flipud、in1d、all等,即提高了运行效率,又解决了逻辑判断的问题:

    1. """numpy方法使用示例"""
    2. import numpy as np
    3. # 计算数字的个数组合bincount
    4. np.bincount([92131291011])
    5. # 输出结果:array([0, 0, 1, 0, 0, 0, 0, 0, 0, 2, 1, 1, 1, 1], dtype=int64)
    6. # 取得个数最多的数字argmax
    7. np.argmax(np.bincount([92131291011]))
    8. # 输出结果: 9
    9. # 将数字按照个数优先,其次大小进行排序argsort
    10. np.argsort(np.bincount([92131291011]))
    11. # 输出结果:array([ 0, 1, 3, 4, 5, 6, 7, 8, 2, 10, 11, 12, 13, 9], dtype=int64)
    12. # 翻转列表flipud
    13. np.flipud(np.argsort(np.bincount([92131291011])))
    14. # 输出结果: array([ 9, 13, 12, 11, 10,  2,  8,  7,  6,  5,  4,  3,  1,  0], dtype=int64)
    15. # 查找相同值in1d
    16. np.in1d([234], [293])
    17. # 输出结果: array([ True, True, False]) 注:指2,3True,4False
    18. np.all(np.in1d([23], [293]))
    19. # 输出结果: array([ True,  True])
    20. # 是否全是all
    21. np.all(np.in1d([234], [293]))  # 判断组合1是否包含在组合2中
    22. # 输出结果: False
    23. np.all(np.in1d([23], [293]))
    24. # 输出结果: True
    1. 优化前后的效率对比

    2b5a43936ffd6e9af80304797052967d.png

    总结

    • 优化算法是在这个项目上时间花费最多的工作(没有之一)。4月12日接单,10天左右出了第1稿,虽能运行,但回头看存在两个问题:一是有bug需要修正,二是运行效率不高(4500万行数据,执行需要1小时21分钟,如果只是在这个版本上debug需要增加判断条件,效率只会更低);后20多天是在不断的优化算法的同时对bug进行修正,最后版本执行相同数据只需要不足30分钟,效率提高了一倍多。回顾来看,虽然调优花费的时间多,但是每一个尝试不论成功还是失败都是一次宝贵的经验积累。

    •  

    • 我是毕加锁 (锁!) 期待你的关注

     

     

    7e741756a1967903c061fb4444576ca0.png

     

  • 相关阅读:
    机器学习笔记之高斯分布(四)关于高斯分布的推断问题
    Python Selenium 浏览器打印预览
    高端无主灯设计灯光设计该如何布置射灯灯具?
    03【设计模式的七大原则】
    常见钓鱼手法及防范
    Python Day9 字符串进阶【零基础】
    Spring自动配置原理
    CentOS部署MySQL 5.7(详细)
    【LeetCode-中等】128. 最长连续序列(详解)
    Python快速刷题网站——牛客网 数据分析篇(十七)
  • 原文地址:https://blog.csdn.net/weixin_69999177/article/details/125500442