neural network - simple - Función de pérdida de red neuronal de regresión multivariante
regresion lineal simple y multiple (0)
Estoy haciendo una regresión multivariante con una red neuronal multicapa totalmente conectada en Tensorflow. La red predice 2 variables flotantes continuas (y1,y2)
dado un vector de entrada (x1,x2,...xN)
, es decir, la red tiene 2 nodos de salida. Con 2 salidas, la red no parece converger. Mi función de pérdida es esencialmente la distancia L2 entre los vectores de predicción y de verdad (cada uno contiene 2 escalares):
loss = tf.nn.l2_loss(tf.sub(prediction, truthValues_placeholder)) + L2regularizationLoss
Estoy usando la regularización de L2, la regularización de abandono y mis funciones de activación son tanh.
Mis preguntas : ¿La distancia L2 es la forma correcta de calcular la pérdida para una salida de red multivariable? ¿Se necesitan algunos trucos para lograr que converjan las redes de regresión multivariante (a diferencia de las redes y clasificadores de una sola variable)?