这是我的问题。
一堆 .csv 文件(或其他文件)。 Pandas 是一种读取它们并保存为 Dataframe
格式的简单方法。但是当文件量很大时,我想用多处理来读取文件以节省一些时间。
我早期的尝试
我手动将文件分成不同的路径。分别使用:
os.chdir("./task_1")
files = os.listdir('.')
files.sort()
for file in files:
filename,extname = os.path.splitext(file)
if extname == '.csv':
f = pd.read_csv(file)
df = (f.VALUE.as_matrix()).reshape(75,90)
然后将它们组合起来。
如何使用 pool
运行它们来解决我的问题?
任何意见,将不胜感激!
原文由 Han Zhengzu 发布,翻译遵循 CC BY-SA 4.0 许可协议
使用
Pool
: