underfitting traduccion overfitting machine-learning computer-vision neural-network deep-learning conv-neural-network

machine-learning - underfitting - overfitting traduccion



Sobreajuste después de la primera época (1)

Podría ser que la tarea sea fácil de resolver y después de una época el modelo ha aprendido lo suficiente como para resolverlo, y el entrenamiento para más épocas solo aumenta el ajuste excesivo.

Pero si ha equilibrado el conjunto de trenes y no el conjunto de pruebas, lo que puede estar sucediendo es que está entrenando para una tarea (reconocimiento de expresiones en datos distribuidos uniformemente) y luego está probando una tarea ligeramente diferente, porque el conjunto de pruebas es no equilibrado

Estoy utilizando redes neuronales convolucionales (a través de Keras) como mi modelo para el reconocimiento de expresiones faciales (55 sujetos). Mi conjunto de datos es bastante difícil y alrededor de 450k con 7 clases. Equilibré mi conjunto de entrenamiento por tema y por etiqueta de clase.

Implementé una arquitectura CNN muy simple (con aumento de datos en tiempo real):

model = Sequential() model.add(Convolution2D(32, 3, 3, border_mode=borderMode, init=initialization, input_shape=(48, 48, 3))) model.add(BatchNormalization()) model.add(PReLU()) model.add(MaxPooling2D(pool_size=(2, 2))) model.add(Flatten()) model.add(Dense(256)) model.add(BatchNormalization()) model.add(PReLU()) model.add(Dropout(0.5)) model.add(Dense(nb_output)) model.add(Activation(''softmax''))

Después de la primera época, mi pérdida de entrenamiento disminuye constantemente, mientras que la pérdida de validación aumenta. ¿Podrían sobreajustarse tan pronto? ¿O hay un problema con que mis datos sean confusos? ¿Debo equilibrar también mi conjunto de pruebas?