我有200多個MSSQL表,並且希望將數據傳輸到Azure Data Lake Storage。 我認爲的一種方法是對動態數據流使用SSIS,即創建表名變量,並對錶名和每個表運行數據流執行foreach循環。然而,這種方法似乎是錯誤的,雖然文件是在Data Lake存儲中創建的,並且正確的方案數據不會由於錯誤的映射而被傳輸。 是否有任何通用的方式來創建一個動態數據流並傳輸大量的表數據?
我在ADF中進行自定義活動,它涉及從Azure存儲Blob中讀取多個文件,對它們進行一些處理,然後將結果文件寫入Azure Data Lake Store。 最後一步是我停下來的地方,因爲據我所見,.NET SDK只允許從本地文件上傳。 有什麼辦法可以(以編程方式)從本地文件上傳文件到ADL Store,它是而不是?可能是一個blob或流。如果沒有,任何解決方法?