我有一個1,000,000
X 50
熊貓DataFrame
,我目前正在寫使用SQL表:加速Pandas to_sql()?
df.to_sql('my_table', con, index=False)
它需要一個非常長的時間。我已經看到了關於如何加速這個過程的各種解釋,但是他們似乎都不適用於MSSQL。
如果我嘗試的方法:
Bulk Insert A Pandas DataFrame Using SQLAlchemy
然後我得到一個
no attribute copy_from
錯誤。如果我嘗試從多線程操作方法:
http://techyoubaji.blogspot.com/2015/10/speed-up-pandas-tosql-with.html
然後我得到一個
QueuePool limit of size 5 overflow 10 reach, connection timed out
錯誤。
是否有任何簡單的方法來加速to_sql()到MSSQL表?無論是通過大量複製或其他方法,但完全從Python代碼?
您正在寫入現有表還是將其創建? – MaxU
我會使用[this](http://stackoverflow.com/a/33817026/5741205)或類似的方法 - BCP應該快速__very__ – MaxU