我知道hive地圖邊連接使用內存。 我可以使用SSD而不是內存嗎? 我想通過將尺寸表放在SSD上來進行地圖邊連接。 這可能嗎?關於Apache Hive Map方面加入
0
A
回答
0
我會盡量解釋你的Hadoop分佈式緩存來回答你的問題:
DistributedCache是一個Map-Reduce框架提供的緩存文件(在你的情況是要蜂巢表的設施加入)應用程序需要。
的DistributedCache假定通過URL指定的文件已經存在於文件系統(這是你的SSD或HDD)在url中指定的路徑,並通過集羣中的每一臺機器進行訪問。
所以,具有諷刺意味的是Hadoop的框架工作,誰決定是否將內存映射文件 (RAM /紗)或SSD/HDD取決於地圖文件 大小。
雖然默認情況下,地圖連接(作爲小型表)使用的表的最大大小爲1,000,000,000字節(大約1 GB),但您也可以通過hive set properties示例手動增加此值:
set hive.auto.convert.join.noconditionaltask = true;
set hive.auto.convert.join.noconditionaltask.size = 2000000000;
在該節點上執行作業的任何任務之前,框架將把必要的文件複製到從節點上。它的效率源自這樣一個事實,即每個作業只複製一次文件,並且能夠緩存從站上未歸檔的歸檔。
你可以找到更多關於這個鏈接分佈式緩存:
https://hadoop.apache.org/docs/r2.6.3/api/org/apache/hadoop/filecache/DistributedCache.html
https://hadoop.apache.org/docs/r1.2.1/api/org/apache/hadoop/filecache/DistributedCache.html
相關問題
- 1. Hive Bucketed Map加入
- 2. 關於Hadoop的map-reduce
- 3. Apache Phoenix vs Hive-Spark
- 4. String to Map Conversion Hive
- 5. HIVE加入問題
- 6. Apache Hive更多地用於編程語言還是數據倉庫方面?
- 7. Apache Hive:將Map <string,string>轉換爲json字符串?
- 8. Apache Hive on Yarn
- 9. Apache Ignite map-reduce解方程的方式
- 10. 非Equi加入hIve
- 11. Hive加入不同
- 12. Map-Reduce日誌Hive-Tez
- 13. Apache Hive中的Unix_timestamp
- 14. Apache Hive - 單一插入日期值
- 15. 關於「選擇」和「加入」的方法
- 16. Hive的桶映射加入
- 17. Apache Hive LIKE'string%'或substr?
- 18. Apache Beam:FlatMap vs Map?
- 19. Hive On Spark:java.lang.NoClassDefFoundError:org/apache/hive/spark/client /作業
- 20. 關於PHP + Apache Rewrite
- 21. 關於Hadoop和Hive的基本知識
- 22. HIve選擇加入Rlike
- 23. 在Hive中加入查詢
- 24. Apache Solr塊加入支持和麪
- 25. 在Hive中插入MAP數據類型的表
- 26. 如何配置Apache Hive?
- 27. Flume - HiveSink:java.lang.NoClassDefFoundError:org/apache/hive/hcatalog/streaming/RecordWriter
- 28. Apache Hive字符串拆分
- 29. 天。減去在HIVE APACHE
- 30. 被忽略的Sqoop函數'--map-column-hive'
您可以用'分佈式cahce'(HDFS) – mrsrinivas
你能詳細談談那一點? – Kangmini
您使用的是什麼執行引擎? – mrsrinivas