una regresion parametros modelo los lineal interpretacion estadistica empresa ejemplos definicion aplicada analisis math machine-learning linear-algebra

math - regresion - No se puede entender la función de costo para la regresión lineal



regresion lineal formula (2)

Realmente no puedo entender la siguiente ecuación, especialmente 1/(2m) .

¿Cuál es el propósito de esta ecuación? ¿Y de dónde viene 1/(2m) ?

J(theta_0, theta_1) = 1/(2m) * sum_(i=1)^m [ h_theta(x^i) - y^i ]^2

Por favor explique. ¿Cómo se lanza?


La función de costo es

J(theta_0, theta_1) = 1/(2m) * sum_(i=1)^m [ h_theta(x^i) - y^i ]^2

Por h_theta(x^i) denotamos qué salidas de modelo para x^i , entonces h_theta(x^i) - y^i es su error (suponiendo que y^i es una salida correcta).

Ahora, calculamos el cuadrado de este error [ h_theta(x^i) - y^i ]^2 (que elimina el signo, ya que este error puede ser tanto positivo como negativo) y lo sumamos sobre todas las muestras, y para enlazarlo de alguna manera lo normalizamos, simplemente dividiendo por m , de modo que tenemos un error medio (porque damos por número de muestras) cuadrado (porque cuadramos) (porque calculamos un error):

1/m * sum_(i=1)^m [ h_theta(x^i) - y^i ]^2

Este 2 que aparece en la parte delantera se usa solo para la simplificación de la derivada , porque cuando intente minimizarlo, usará el método de descenso más inclinado, que se basa en la derivada de esta función. La derivada de a^2 es 2a , y nuestra función es un cuadrado de algo, por lo que este 2 se cancelará. Esta es la única razón de su existencia.


desea construir un modelo que distribuya uniformemente los errores en sus puntos de datos, por lo que la suma del error = 0 y la media de los errores = 0; también debe construir el modelo que tenga los errores más pequeños, lo que es equivalente a minimizar el error cuadrático medio.