2016-11-29 1085 views
0

我有一個java應用程序,它通過查詢表中的數據庫並將其提供給kafka主題獲得批量的flink批處理。我將如何定期進行這項計劃。有沒有flink調度程序?例如,我的Java應用程序應該繼續在後臺運行,並且flink調度程序應該定期查詢數據庫中的表,並且flink批處理它並將其輸入到kafka中(flink批處理和饋入kafka已經完成了我的應用程序的一部分)。如果有人有指示,請幫助。如何安排定期flink批處理

回答

1

Flink不提供作業調度程序。

您是否考慮過使用連續運行的Flink DataStream應用程序來實現用例?您可以實施定期查詢數據庫的SourceFunction

連續流應用程序具有移動部件較少(無調度程序,如果出現問題時不失敗處理)以及跨「批處理」邊界的一致視圖的優點。不利的一面是作業總是消耗資源(Flink無法在低負載下自動縮小)。

+0

謝謝!我們不想使用DataStream,因爲它對我們的應用和要求來說效率低下。因此,我們轉移到了DataSet。如果沒有Flink調度程序,我可能不得不做一個簡單的Java調度程序來運行我的Flink應用程序。 – flinkexplorer