2016-12-27 193 views
8

我不知道是什麼導致這個例外一段幾個小時運行後運行我的星火工作。星火:找不到CoarseGrainedScheduler

正在運行星火2.0.2

任何調試小費?

2016-12-27 03:11:22,199 [shuffle-server-3] ERROR org.apache.spark.network.server.TransportRequestHandler - Error while invoking RpcHandler#receive() for one-way message. 
org.apache.spark.SparkException: Could not find CoarseGrainedScheduler. 
    at org.apache.spark.rpc.netty.Dispatcher.postMessage(Dispatcher.scala:154) 
    at org.apache.spark.rpc.netty.Dispatcher.postOneWayMessage(Dispatcher.scala:134) 
    at org.apache.spark.rpc.netty.NettyRpcHandler.receive(NettyRpcEnv.scala:571) 
    at org.apache.spark.network.server.TransportRequestHandler.processOneWayMessage(TransportRequestHandler.java:180) 
    at org.apache.spark.network.server.TransportRequestHandler.handle(TransportRequestHandler.java:109) 
    at org.apache.spark.network.server.TransportChannelHandler.channelRead0(TransportChannelHandler.java:119) 
    at org.apache.spark.network.server.TransportChannelHandler.channelRead0(TransportChannelHandler.java:51) 
    at io.netty.channel.SimpleChannelInboundHandler.channelRead(SimpleChannelInboundHandler.java:105) 
    at io.netty.channel.AbstractChannelHandlerContext.invokeChannelRead(AbstractChannelHandlerContext.java:308) 
    at io.netty.channel.AbstractChannelHandlerContext.fireChannelRead(AbstractChannelHandlerContext.java:294) 
    at io.netty.handler.timeout.IdleStateHandler.channelRead(IdleStateHandler.java:266) 
    at io.netty.channel.AbstractChannelHandlerContext.invokeChannelRead(AbstractChannelHandlerContext.java:308) 
    at io.netty.channel.AbstractChannelHandlerContext.fireChannelRead(AbstractChannelHandlerContext.java:294) 
    at io.netty.handler.codec.MessageToMessageDecoder.channelRead(MessageToMessageDecoder.java:103) 
    at io.netty.channel.AbstractChannelHandlerContext.invokeChannelRead(AbstractChannelHandlerContext.java:308) 
    at io.netty.channel.AbstractChannelHandlerContext.fireChannelRead(AbstractChannelHandlerContext.java:294) 
    at org.apache.spark.network.util.TransportFrameDecoder.channelRead(TransportFrameDecoder.java:85) 
    at io.netty.channel.AbstractChannelHandlerContext.invokeChannelRead(AbstractChannelHandlerContext.java:308) 
    at io.netty.channel.AbstractChannelHandlerContext.fireChannelRead(AbstractChannelHandlerContext.java:294) 
    at io.netty.channel.DefaultChannelPipeline.fireChannelRead(DefaultChannelPipeline.java:846) 
    at io.netty.channel.nio.AbstractNioByteChannel$NioByteUnsafe.read(AbstractNioByteChannel.java:131) 
    at io.netty.channel.nio.NioEventLoop.processSelectedKey(NioEventLoop.java:511) 
    at io.netty.channel.nio.NioEventLoop.processSelectedKeysOptimized(NioEventLoop.java:468) 
    at io.netty.channel.nio.NioEventLoop.processSelectedKeys(NioEventLoop.java:382) 
    at io.netty.channel.nio.NioEventLoop.run(NioEventLoop.java:354) 
    at io.netty.util.concurrent.SingleThreadEventExecutor$2.run(SingleThreadEve 
+0

'--conf spark.dynamicAllocation.enabled = false'是爲我解決了這個問題。 ¯\ _(ツ)_/ – sinemetu1

回答

10

是的,現在我知道那個神祕異常的含義,執行者因爲超過容器閾值而被殺。
有幾個原因可能發生,但第一個罪魁禍首是檢查你的工作或嘗試添加更多的節點/執行者到你的集羣。

+3

這些原因是什麼?如果我對運行緩慢的作業沒有問題,但不增加節點/資源會怎麼樣?你能給出一個更詳細的解釋,也許分享一個參考鏈接? –

3

這可能是一個資源問題。嘗試增加內核和執行程序的數量,同時爲應用程序分配更多RAM,然後通過調用重新分區來增加RDD的分區數量。理想的分區數量取決於以前的設置。希望這可以幫助。

0

對我而言,當我指定一個spark.read.load不存在的路徑時,或者我指定了輸入的錯誤格式,即parquet而不是csv,就發生了這種情況。

不幸的是,實際的錯誤有時是沉默而發生堆棧跟蹤以上。有時候,雖然你可以找到另一組堆棧跟蹤,而這個跟蹤會更有意義。