我有以下兩個SSHExecuteOperator任務的DAG。第一個任務執行返回參數的存儲過程。第二項任務需要此參數作爲輸入。 請解釋如何從推送到task1中的XCom中獲取值,以便在task2中使用它? from airflow import DAG
from datetime import datetime, timedelta
from airflow.contrib.hooks.ssh
失敗一個任務是BCP查詢的結果(我連接的MS SQL服務器的命令行查詢)的最佳方式是什麼? 我每30分鐘從多個表下載數據。如果數據不存在,則BCP命令仍在創建一個文件(0大小)。這使得看起來任務總是成功,但實際上這意味着其他團隊正在維護的複製服務器上缺少數據。 bcp "SELECT * FROM database.dbo.table WHERE row_date = '2016-05-28' A
我有一個task_a,我想在DAG_1和DAG_2中使用。這是可能的氣流? task_a = SomeOperator(
task_id='some_id',
bash_command='some_command',
#instead of just
dag= DAG_1 # I want to assign this task to multiple dags
#dag=assign_m