tutorial spark software org downloads distribución and hadoop apache-spark

hadoop - software - Excepción al eliminar Spark temp dir en Windows 7 64 bit



spark mapreduce (4)

Establecí la variable HADOOP_HOME de la misma manera que tu. (En Windows 10)

Intente usar la ruta completa al configurar los permisos, es decir,

D:> winutils / bin / winutils.exe chmod 777 / tmp / colmena

Esto funcionó para mí.

Además, solo una nota sobre la excepción: recibo la misma excepción al salir de la chispa de cmd ejecutando "sys.exit".

Pero ... puedo salir limpiamente cuando uso ": q" o ": quit". Entonces, no estoy seguro de lo que está sucediendo aquí, todavía estoy tratando de descubrir ...

Estoy tratando de ejecutar la prueba unitaria del trabajo de chispa en Windows 7 de 64 bits. yo tengo

HADOOP_HOME=D:/winutils winutils path= D:/winutils/bin/winutils.exe

Corrí debajo de los comandos:

winutils ls /tmp/hive winutils chmod -R 777 /tmp/hive

Pero cuando ejecuto mi prueba obtengo el siguiente error.

Running com.dnb.trade.ui.ingest.spark.utils.ExperiencesUtilTest Tests run: 17, Failures: 0, Errors: 0, Skipped: 0, Time elapsed: 0.132 sec 17/01/24 15:37:53 INFO Remoting: Remoting shut down 17/01/24 15:37:53 ERROR ShutdownHookManager: Exception while deleting Spark temp dir: C:/Users/415387/AppData/Local/Temp/spark-b1672cf6-989f-4890-93a0-c945ff147554 java.io.IOException: Failed to delete: C:/Users/415387/AppData/Local/Temp/spark-b1672cf6-989f-4890-93a0-c945ff147554 at org.apache.spark.util.Utils$.deleteRecursively(Utils.scala:929) at org.apache.spark.util.ShutdownHookManager$$anonfun$1$$anonfun$apply$mcV$sp$3.apply(ShutdownHookManager.scala:65) at ..... Java HotSpot(TM) 64-Bit Server VM warning: ignoring option MaxPermSize=786m; support was removed in 8.0 Caused by: java.lang.RuntimeException: java.io.IOException: Access is denied at org.apache.hadoop.hive.ql.session.SessionState.start(SessionState.java:525) ... 28 more Caused by: java.io.IOException: Access is denied at java.io.WinNTFileSystem.createFileExclusively(Native Method)

He intentado cambiar la permición de forma manual. Cada vez que recibo el mismo error.

Por favor ayuda


Estoy enfrentando el mismo problema después de intentar ejecutar el ejemplo de WordCount con el comando spark-submit . En este momento, lo ignoro porque devuelve los resultados antes de que ocurra el error.

Encontré algunos problemas antiguos en la chispa de Jira, pero no encontré ninguna solución. (Por cierto, uno de ellos tiene el estado cerrado).

https://issues.apache.org/jira/browse/SPARK-8333

https://issues.apache.org/jira/browse/SPARK-12216

Desafortunadamente parece que no les importa chispa en las ventanas en absoluto.

Una mala solución es otorgar permiso a la carpeta Temp (en su caso * C: / Users / 415387 / AppData / Local / Temp *) a todos.

Entonces será así:

winutils chmod -R 777 C:/Users/415387/AppData/Local/Temp/

Pero te recomiendo encarecidamente que no hagas eso.


Estaba enfrentando un problema similar. Cambié el permiso a la carpeta / tmp en lugar de / tmp / hive

D:> winutils / bin / winutils.exe chmod 777 / tmp

No aparece ningún error después de esto y hay una salida limpia


Ejecutar Spark en Windows tiene este problema de eliminación de la temperatura de Spark. Puede configurarlo de la siguiente manera para ocultarlo.

Logger.getLogger("org").setLevel(Level.FATAL)