[关闭]
@yanbo-ai 2014-11-04T08:16:14.000000Z 字数 2131 阅读 11091

Spark 常规故障处理: Too many open files

Spark General Troubleshooting TooManyOpenFiles


当你在 Linux 系统上使用 SparkContext.textFile 加载本地文件系统(文件目录)的数据时,可能会遇到下面的错误:

  1. 14/11/04 15:38:59 WARN TaskSetManager: Lost task 99.0 in stage 2.0 (TID 100, spark-test): java.io.FileNotFoundException: /tmp/spark-local-20141104153618-ee2b/13/shuffle_0_99_513 (Too many open files)
  2. java.io.FileOutputStream.open(Native Method)
  3. java.io.FileOutputStream.<init>(FileOutputStream.java:221)
  4. org.apache.spark.storage.DiskBlockObjectWriter.open(BlockObjectWriter.scala:123)
  5. org.apache.spark.storage.DiskBlockObjectWriter.write(BlockObjectWriter.scala:192)
  6. org.apache.spark.shuffle.hash.HashShuffleWriter$$anonfun$write$1.apply(HashShuffleWriter.scala:67)
  7. org.apache.spark.shuffle.hash.HashShuffleWriter$$anonfun$write$1.apply(HashShuffleWriter.scala:65)
  8. scala.collection.Iterator$class.foreach(Iterator.scala:727)
  9. org.apache.spark.util.collection.AppendOnlyMap$$anon$1.foreach(AppendOnlyMap.scala:159)
  10. org.apache.spark.shuffle.hash.HashShuffleWriter.write(HashShuffleWriter.scala:65)
  11. org.apache.spark.scheduler.ShuffleMapTask.runTask(ShuffleMapTask.scala:68)
  12. org.apache.spark.scheduler.ShuffleMapTask.runTask(ShuffleMapTask.scala:41)
  13. org.apache.spark.scheduler.Task.run(Task.scala:54)
  14. org.apache.spark.executor.Executor$TaskRunner.run(Executor.scala:177)
  15. java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1145)
  16. java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:615)
  17. java.lang.Thread.run(Thread.java:724)

这是由于程序打开的文件句柄数超过了 Linux 系统的限制,注意看下面的代码片段:

  1. val tradeDir = "/data/trades"
  2. val userPairsRDD = sc.textFile(tradeDir).map(line => (line.split('\001')(4) -> 1))
  3. val userCountsWithReduce = userPairsRDD
  4. .reduceByKey(_ + _)
  5. .collect()

textFile 函数的传入参数如果是一个文件夹,它会试图加载文件夹里面所有的文件数据到内存中。当文件夹里的文件数量大于操作系统所限制打开的文件数量时就会出现上述错误。

有几种方法可以确认文件夹下的文件数量:

  1. 14/11/04 15:45:59 INFO TaskSetManager: Finished task 129.0 in stage 0.0 (TID 129) in 5878 ms on spark-test (128/1033)

修复上述错误的建议:

  1. * soft nofile 10240
  2. * hard nofile 10240

注意:使用设置 /etc/security/limits.conf 改变打开文件限制时需要退出登录然后重新登录才有效。

添加新批注
在作者公开此批注前,只有你和作者可见。
回复批注