请问如何可以优化提升pandas的read_sql的速度呢?

小弟的需求需要在多个数据库之间查询数据并关联,所以小弟选择了使用pandas,通过read_sql读取数据至dataframe加工后直接生成目标数据。但是目前遭遇了一个问题:read_sql的速度非常慢,例如,在oracle库中读取37W数据量(22个字段)的表至dataframe耗时需要4分半。代码如下:

import pandas as pd
import sqlalchemy as sql
ora_engine=sql.create_engine('oracle://test01:test01@test01db')
ora_df1=pd.read_sql('select * from target_table1',ora_engine)

耗时4分32秒

甚至小弟使用另外一个简单粗暴的方法都会比read_sql快很多。代码如下:

import pandas as pd
import sqlalchemy as sql
ora_engine=sql.create_engine('oracle://test01:test01@test01db')
conn=ora_engine.raw_connection()
cursor=conn.cursor()
queryset=cursor.execute('select * from target_table1')
columns=[for i[0] in queryset.description]
df_data=queryset.fetchall()
ora_df1=pd.DataFrame()
ora_df1.columns=columns
ora_df1.append(df_data)

耗时1分31秒

这里想请教一下各位大大,有什么方法可以优化提升pandas的read_sql的速度,非常感谢大家~

阅读 18.1k
3 个回答
试试read_sql_table

http://pandas.pydata.org/pandas-docs/stable/generated/pandas.read_sql_table.html#pandas.read_sql_table

我调用hive数据库的内容的时候,速度非常的慢,然后就替换成调用impala了,速度提升很快。

你再找找其他的连接接口,替换试试吧。

新手上路,请多包涵

图片描述

应该是你数据库的问题,我这边100万数据,30列。也就read_sql 35秒.
cursor.execute 31秒,没你那么夸张

撰写回答
你尚未登录,登录后可以
  • 和开发者交流问题的细节
  • 关注并接收问题和回答的更新提醒
  • 参与内容的编辑和改进,让解决方法与时俱进
推荐问题