hdinsight

    0熱度

    1回答

    我已經創建ARM模板來部署Azure VM和HDI羣集。我想在部署完成後列出Azure虛擬機的公有IP和HDI羣集頭節點的專用IP。 有沒有辦法使用ARM模板,怎麼做呢?

    0熱度

    1回答

    我目前正試圖在外部庫spark-avro的HDInsight集羣上運行Spark Scala作業,但沒有成功。有人可以幫我解決這個問題嗎? 目標旨在查找必需的步驟,以便能夠讀取駐留在HDInsight羣集上的Azure blob存儲上的avro文件。 電流規格: 火花2.0在Linux(HDI 3.5)clustertype Scala的2.11.8 火花組裝2.0.0-hadoop2.7.0-S

    -2熱度

    2回答

    HDI簇的最佳方式: - template.json parameters.sjon deploy.sh 上模板1 天青VM: - template.json parameters.sjon deploy.sh 我可以單獨部署1和2而不會出現任何問題。 現在我想要獲取HDI羣集headnode IP並在Azure VM的屬性文件中使用。 我該如何實現3並一次性部署1,2,3?

    -2熱度

    1回答

    這是我的場景。我正在創建HDI羣集並使用ARM模板安裝我的自定義應用程序。 我需要使用Shell腳本爲我的應用程序配置以下值。在ARM模板中使用CustomScript選項安裝我的應用程序。 工作節點數量 每個工人節點 每頭節點RAM 每個工人節點的核心數 RAM每個工人節點的核心數

    1熱度

    3回答

    我想製作一個自動化的Spark作業提交系統/程序。 當然,系統需要先提交HDInsight,然後再提交Spark作業。 此外,系統提交基於時間表的火花作業(例如7PM提交作業1,9PM提交作業2) 實現這些目標的最佳方法是什麼? c.f)我能做些什麼 使用PowerShell 供應HDIsinght與李維

    0熱度

    1回答

    我想使用ARM模板創建具有特定時區的HDInsight羣集。 繼模板來創建虛擬機,我試過一個"timeZone": "Romance Standard Time"元素添加到: 的computeProfile元素 每個computeProfile.roles元素 每個computeProfile.roles.*.linuxOperatingSystemProfile元素的 但這些都沒有工作。

    0熱度

    1回答

    我已經創建了template1,它將部署HDI羣集和template2,它將單獨部署Azure VM。 現在我想從集羣中獲取頭節點專用IP,並將其傳遞給Azure VM模板以使用ARM模板進行處理。 我該怎麼做?

    0熱度

    1回答

    我已經創建了4個節點的HDinsight集羣。當我發出命令「紗節點-list」,它表明: Node-Id Node-State Node-Http-Address Number-of-Running-Containers 10.x.x.x:xxxxx RUNNING 10.x.x.x:xxxxx 0 10.x.x.x:xxxxx RUNNING 10.x.x.x:xxxxx

    -1熱度

    1回答

    我有一個免費試用Azure賬戶。在創建Data Lake Store帳戶時,有一個選項「定價:隨收隨付」。如果我選擇「隨您付費」,它會向我收取此存儲帳戶的費用?

    1熱度

    1回答

    我在Azure中創建了HDInsight的Spark羣集。現在我想將處理後的數據存儲到HBASE中,我不想創建單獨的HBASE HDInsight羣集,並使用VNET連接到Spark羣集。 這是因爲我們限制每個區域60個核心(例如,東部美國2)。我已經並且想要爲我的Spark Cluster使用全部60個內核。所以想到在HDInsight的Spark Cluster中安裝HBASE。 它似乎有一個