0
Hadoop map-reduce配置提供了mapred.task.limit.maxvmem和mapred.task.default.maxvmem。根據the documentation,這兩個值都是long類型的值,以字節爲單位,它表示與任務關聯的默認/較高VMEM任務限制。在這種情況下,「長」的含義似乎是32位,設置值高於2GB可能會導致負值被用作限制。 我在64位系統上運行,2GB比我想實施的低很多。我可以設置高於2GB的任務內存限制嗎
有沒有辦法解決這個限制?
我使用Hadoop版本0.20.1