hadoop mapreduce hadoop-streaming hadoop-plugins hadoop-partitioning

DiskErrorException en máquina esclava-Hadoop multinodo



mapreduce hadoop-streaming (1)

Estoy tratando de procesar archivos XML desde hadoop, obtuve un error de seguimiento al invocar trabajos de conteo de palabras en archivos XML.

13/07/25 12:39:57 INFO mapred.JobClient: Task Id : attempt_201307251234_0001_m_000008_0, Status : FAILED Too many fetch-failures 13/07/25 12:39:58 INFO mapred.JobClient: map 99% reduce 0% 13/07/25 12:39:59 INFO mapred.JobClient: map 100% reduce 0% 13/07/25 12:40:56 INFO mapred.JobClient: Task Id : attempt_201307251234_0001_m_000009_0, Status : FAILED Too many fetch-failures 13/07/25 12:40:58 INFO mapred.JobClient: map 99% reduce 0% 13/07/25 12:40:59 INFO mapred.JobClient: map 100% reduce 0% 13/07/25 12:41:22 INFO mapred.JobClient: map 100% reduce 1% 13/07/25 12:41:57 INFO mapred.JobClient: Task Id : attempt_201307251234_0001_m_000015_0, Status : FAILED Too many fetch-failures 13/07/25 12:41:58 INFO mapred.JobClient: map 99% reduce 1% 13/07/25 12:41:59 INFO mapred.JobClient: map 100% reduce 1% 13/07/25 12:42:57 INFO mapred.JobClient: Task Id : attempt_201307251234_0001_m_000014_0, Status : FAILED Too many fetch-failures 13/07/25 12:42:58 INFO mapred.JobClient: map 99% reduce 1% 13/07/25 12:42:59 INFO mapred.JobClient: map 100% reduce 1% 13/07/25 12:43:22 INFO mapred.JobClient: map 100% reduce 2%

Observé un error de seguimiento en el archivo hadoop-hduser-tasktracker-localhost.localdomain.log en la máquina esclava.

2013-07-25 12:38:58,124 WARN org.apache.hadoop.mapred.TaskTracker: getMapOutput(attempt_201307251234_0001_m_000001_0,0) failed : org.apache.hadoop.util.DiskChecker$DiskErrorException: Could not find taskTracker/hduser/jobcache/job_201307251234_0001/attempt_201307251234_0001_m_000001_0/output/file.out.index in any of the configured local directories at org.apache.hadoop.fs.LocalDirAllocator$AllocatorPerContext.getLocalPathToRead(LocalDirAllocator.java:429)

Esto funciona bien cuando corrí para archivos de texto


Parece que has golpeado este problema . O aplique el parche o descargue la versión fija, y debería estar listo para comenzar.

HTH