machine-learning - que - redes neuronales inteligencia artificial
Significado de una época en el entrenamiento de redes neuronales (2)
Una época consiste en un ciclo de entrenamiento completo en el conjunto de entrenamiento. Una vez que se ve cada muestra en el conjunto, comienza de nuevo, marcando el comienzo de la segunda época.
Esto no tiene nada que ver con la formación por lotes o en línea per se. Lote significa que actualiza una vez al final de la época (después de ver cada muestra, es decir, #epoch actualizaciones) y en línea que actualiza después de cada muestra (#samples * #epoch actualizaciones).
No puede estar seguro de si 5 épocas o 500 son suficientes para la convergencia, ya que variará de un dato a otro. Puede detener el entrenamiento cuando el error converge o es inferior a un cierto umbral. Esto también entra en el territorio de prevenir el sobreajuste. Puede leer sobre paradas tempranas y cross-validation respecto a eso.
mientras leo sobre cómo construir ANN en pybrain , dicen:
Entrene la red para algunas épocas. Por lo general, establecería algo así como 5 aquí,
trainer.trainEpochs( 1 )
Busqué qué significa eso, luego concluyo que usamos una época de datos para actualizar los pesos.Si elijo entrenar los datos con 5 épocas como consejo de pybrain, el conjunto de datos se dividirá en 5 subconjuntos, y los wights se actualizarán. 5 veces como máximo.
Estoy familiarizado con la capacitación en línea donde los wights se actualizan después de cada muestra de datos o vector de características. Mi pregunta es cómo asegurarse de que 5 épocas serán suficientes para construir un modelo y establecer los pesos probablemente. ¿Cuál es la ventaja de esta manera en la capacitación en línea? Además, el término "época" se usa en la capacitación en línea, ¿significa un vector de características?
perdón por reactivar este hilo. Soy nuevo en las redes neuronales y estoy investigando el impacto del entrenamiento ''mini-lote''.
Hasta ahora, según tengo entendido, una época ( como dice runDOSrun ) es un uso completo de TrainingSet (no DataSet. porque DataSet = TrainingSet + ValidationSet). en el entrenamiento de mini lotes, puede subdividir el TrainingSet en conjuntos pequeños y actualizar los pesos dentro de una época. ''con suerte'' esto haría que la red ''converja'' más rápido.
Algunas definiciones de redes neuronales están desactualizadas y, supongo, deben redefinirse.