我創建了一個表,其中有一個文本輸入文件,其大小爲7.5 GB,並且有6500萬條記錄,現在我想將這些數據推送到Amazon RedShift表中。如何在talend中推送大文件數據?
但處理560萬條記錄後,它不再移動。
可能是什麼問題? tFileOutputDelimited是否有任何限制,因爲作業已經運行了3個小時。
下面是我創建的將數據推送到Redshift表的工作。
tFileInputDelimited(的.text)--- --- TMAP> tFilOutputDelimited(CSV)
|
|
tS3Put(複印輸出文件,以S3)------> tRedShiftRow(createTempTable) - > tRedShiftRow(COPY到臨時)
你知道哪部分工作被卡住了嗎?它等着創建平面文件(csv)還是創建了平面文件?如果是,那麼文件已上傳到S3? ..它會很有趣,看看你的工作是什麼點卡住..因爲紅移複製到臨時表命令將是快速的,不應該卡住.. – garpitmzn