Pandas to_csv() 保存大数据帧速度慢

新手上路,请多包涵

我猜这是一个简单的修复方法,但我遇到了一个问题,即使用 to_csv() 函数将 pandas 数据帧保存到 csv 文件需要将近一个小时。我正在使用 anaconda python 2.7.12 和 pandas (0.19.1)。

 import os
import glob
import pandas as pd

src_files = glob.glob(os.path.join('/my/path', "*.csv.gz"))

# 1 - Takes 2 min to read 20m records from 30 files
for file_ in sorted(src_files):
    stage = pd.DataFrame()
    iter_csv = pd.read_csv(file_
                     , sep=','
                     , index_col=False
                     , header=0
                     , low_memory=False
                     , iterator=True
                     , chunksize=100000
                     , compression='gzip'
                     , memory_map=True
                     , encoding='utf-8')

    df = pd.concat([chunk for chunk in iter_csv])
    stage = stage.append(df, ignore_index=True)

# 2 - Takes 55 min to write 20m records from one dataframe
stage.to_csv('output.csv'
             , sep='|'
             , header=True
             , index=False
             , chunksize=100000
             , encoding='utf-8')

del stage

我已经确认硬件和内存都在工作,但这些都是相当宽的表格(约 100 列),主要是数字(十进制)数据。

谢谢,

原文由 Kimi Merroll 发布,翻译遵循 CC BY-SA 4.0 许可协议

阅读 1.3k
2 个回答

添加我的小见解,因为“gzip”替代方案对我不起作用 - 尝试使用 to_hdf 方法。这大大减少了写入时间! (对于 100MB 的文件不到一秒 - CSV 选项在 30-55 秒之间执行此操作)

 stage.to_hdf(r'path/file.h5', key='stage', mode='w')

原文由 Amir F 发布,翻译遵循 CC BY-SA 4.0 许可协议

新手上路,请多包涵

to_hdf得到的不是csv文件,有时无法满足需求。先转为pyarrow table再保存就可以了,实测比直接to_csv提升7倍。https://bjzhanghao.com/p/3471

撰写回答
你尚未登录,登录后可以
  • 和开发者交流问题的细节
  • 关注并接收问题和回答的更新提醒
  • 参与内容的编辑和改进,让解决方法与时俱进
推荐问题
logo
Stack Overflow 翻译
子站问答
访问
宣传栏