请问如何可以优化提升pandas的read_sql的速度呢?
小弟的需求需要在多个数据库之间查询数据并关联,所以小弟选择了使用pandas,通过read_sql读取数据至dataframe加工后直接生成目标数据。但是目前遭遇了一个问题:read_sql的速度非常慢,例如,在oracle库中读取37W数据量(22个字段)的表至dataframe耗时需要4分半。代码如下:
import pandas as pd
import sqlalchemy as sql
ora_engine=sql.create_engine('oracle://test01:test01@test01db')
ora_df1=pd.read_sql('select * from target_table1',ora_engine)
耗时4分32秒
甚至小弟使用另外一个简单粗暴的方法都会比read_sql快很多。代码如下:
import pandas as pd
import sqlalchemy as sql
ora_engine=sql.create_engine('oracle://test01:test01@test01db')
conn=ora_engine.raw_connection()
cursor=conn.cursor()
queryset=cursor.execute('select * from target_table1')
columns=[for i[0] in queryset.description]
df_data=queryset.fetchall()
ora_df1=pd.DataFrame()
ora_df1.columns=columns
ora_df1.append(df_data)
耗时1分31秒
这里想请教一下各位大大,有什么方法可以优化提升pandas的read_sql的速度,非常感谢大家~
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论
评论(3)
我调用hive数据库的内容的时候,速度非常的慢,然后就替换成调用impala了,速度提升很快。
你再找找其他的连接接口,替换试试吧。
应该是你数据库的问题,我这边100万数据,30列。也就read_sql 35秒.
cursor.execute 31秒,没你那么夸张