将SQL Server表加载到pandas DataFrame的速度很慢[英] Slow loading SQL Server table into pandas DataFrame

本文是小编为大家收集整理的关于将SQL Server表加载到pandas DataFrame的速度很慢的处理方法,想解了将SQL Server表加载到pandas DataFrame的速度很慢的问题怎么解决?将SQL Server表加载到pandas DataFrame的速度很慢问题的解决办法?那么可以参考本文帮助大家快速定位并解决问题。

问题描述

当使用 pyodbc 并且主要是函数 pandas.read_sql(query,pyodbc_conn) 从 SQL Server DB 加载超过 1000 万条记录时,Pandas 变得异常缓慢.以下代码最多需要 40-45 分钟才能从 SQL 表中加载 10-15 百万条记录:Table1

有没有更好更快的方法将SQL Table读入pandas Dataframe?

import pyodbc
import pandas

server = <server_ip> 
database = <db_name> 
username = <db_user> 
password = <password> 
port='1443'
conn = pyodbc.connect('DRIVER={SQL Server};SERVER='+server+';PORT='+port+';DATABASE='+database+';UID='+username+';PWD='+ password)
cursor = conn.cursor()

data = pandas.read_sql("select * from Table1", conn) #Takes about 40-45 minutes to complete

推荐答案

我遇到了同样的问题,行数更多,~50 M最后编写了一个 SQL 查询并将它们存储为 .h5 文件.

sql_reader = pd.read_sql("select * from table_a", con, chunksize=10**5)

hdf_fn = '/path/to/result.h5'
hdf_key = 'my_huge_df'
store = pd.HDFStore(hdf_fn)
cols_to_index = [<LIST OF COLUMNS THAT WE WANT TO INDEX in HDF5 FILE>]

for chunk in sql_reader:
    store.append(hdf_key, chunk, data_columns=cols_to_index, index=False)

# index data columns in HDFStore
store.create_table_index(hdf_key, columns=cols_to_index, optlevel=9, kind='full')
store.close()

这样,我们将能够比 Pandas.read_csv 更快地读取它们

本文地址:https://www.itbaoku.cn/post/1727936.html