我想将文件 f (文件大小:85GB)分块读取到数据帧中。建议使用以下代码。
chunksize = 5
TextFileReader = pd.read_csv(f, chunksize=chunksize)
但是,这段代码给了我 TextFileReader,而不是数据框。另外,由于内存限制,我不想连接这些块以将 TextFileReader 转换为数据帧。请指教。
原文由 Geet 发布,翻译遵循 CC BY-SA 4.0 许可协议
我想将文件 f (文件大小:85GB)分块读取到数据帧中。建议使用以下代码。
chunksize = 5
TextFileReader = pd.read_csv(f, chunksize=chunksize)
但是,这段代码给了我 TextFileReader,而不是数据框。另外,由于内存限制,我不想连接这些块以将 TextFileReader 转换为数据帧。请指教。
原文由 Geet 发布,翻译遵循 CC BY-SA 4.0 许可协议
如果你想接收一个数据帧作为处理块的结果,你可以这样做。在初始化块迭代之前初始化空数据框。完成过滤过程后,您可以将每个结果连接到数据框中。因此,您将在 for 循环下收到根据您的条件过滤的数据帧。
file = 'results.csv'
df_empty = pd.DataFrame()
with open(file) as fl:
chunk_iter = pd.read_csv(fl, chunksize = 100000)
for chunk in chunk_iter:
chunk = chunk[chunk['column1'] > 180]
df_empty = pd.concat([df_empty,chunk])
原文由 julliet 发布,翻译遵循 CC BY-SA 4.0 许可协议
2 回答5.2k 阅读✓ 已解决
2 回答1.1k 阅读✓ 已解决
4 回答1.4k 阅读✓ 已解决
3 回答1.3k 阅读✓ 已解决
3 回答1.2k 阅读✓ 已解决
2 回答849 阅读✓ 已解决
1 回答1.7k 阅读✓ 已解决
当您尝试处理 85GB CSV 文件时,如果您尝试通过将其分成块并将其转换为数据帧来读取所有数据,那么它肯定会达到内存限制。您可以尝试使用不同的方法来解决此问题。在这种情况下,您可以对数据使用过滤操作。例如,如果您的数据集中有 600 列,而您只对 50 列感兴趣。尝试只从文件中读取 50 列。这样你会节省很多内存。在阅读时处理行。如果您需要先过滤数据,请使用生成器函数。
yield
使一个函数成为一个生成器函数,这意味着它不会做任何工作,直到你开始循环它。有关生成器函数的更多信息: Reading a huge .csv file
高效过滤请参考: https ://codereview.stackexchange.com/questions/88885/efficiently-filter-a-large-100gb-csv-file-v3
对于处理较小的数据集:
方法 1:将读取器对象直接转换为数据帧:
有必要在函数concat中添加参数 ignore index ,以避免索引重复。
方法 2: 使用 Iterator 或 get_chunk 将其转换为 dataframe。
通过为 read_csv 指定一个块大小,返回值将是一个 TextFileReader 类型的可迭代对象。
资料来源:http: //pandas.pydata.org/pandas-docs/stable/io.html#io-chunking
df= pd.DataFrame(TextFileReader.get_chunk(1))
这会将一个块转换为数据帧。
检查 TextFileReader 中的块总数
如果文件较大,我不会推荐第二种方法。例如,如果 csv 文件包含 100000 条记录,则 chunksize=5 将创建 20,000 个块。