我正在運行帶有4個執行程序(每個1個內核)的Spark-Kafka Streaming作業。而kafka源主題有50個分區。在不增加Cores的情況下增加Spark執行程序的並行度
在流java程序的foreachpartition中,我連接到oracle並做了一些工作。 Apache DBCP2正用於連接池。
Spark-streaming程序正在與數據庫建立4個連接 - 每個執行程序可能有1個連接。但是,我的期望是 - 因爲有50個分區,應該有50個線程在運行,並且存在50個數據庫連接。
如何在不增加內核數量的情況下增加並行度。
這是否意味着我一次最多可以看到4個數據庫連接? – AKC