tutorial spark examples example apache-spark

apache-spark - examples - apache spark wikipedia



Cambiar la memoria del ejecutor(y otras configuraciones) para Spark Shell (3)

¿Cómo cambiar la memoria del ejecutor (y otras configuraciones) para Apache Spark Shell?

En particular, me gustaría dar planos a spark-shell, como -Dspark-cores-max = 12 cuando lo inicio para que mis trabajos en la carcasa de chispa utilicen esos ajustes de configuración.


RESPUESTA ACEPTABLE DEL USO DEPRIMIDO

Escribe un script como este:

#!/bin/bash export SPARK_JAVA_OPTS="$*" MASTER=spark://ec2-99-99-99-99:7077 /usr/share/spark/bin/spark-shell

/usr/share/spark/bin/spark-shell debe ser la ruta hacia donde se encuentra el largo script de inicio de chispa. En mi clúster había otra secuencia de comandos en / usr / local / bin / pero esta era solo unas líneas similar a la anterior y tenía SPARK_JAVA_OPTS codificado.

De todos modos, uso de ejemplo:

my-spark-starter-script -Dspark-cores-max=12 -Dspark.executor.memory=26000m


Si está ejecutando la chispa en chispa instalada en modo independiente (1 nodo), use

./bin/spark-shell --driver-memory 4g

Si está ejecutando el chispero en la chispa instalada en el clúster (2+ nodos), use

./bin/spark-shell --executor-memory 4g

4g es 4GB.


A partir de la chispa 1.2.0, puede establecer la memory y los cores dando los siguientes argumentos a spark-shell.

spark-shell --driver-memory 10G --executor-memory 15G --executor-cores 8

para ver otras opciones, puede dar los siguientes comandos para encender el caparazón

spark-shell --help