Análisis de señales
Analogía entre vectores y señales
Existe una analogía perfecta entre vectores y señales.
Vector
Un vector contiene magnitud y dirección. El nombre del vector se indica mediante tipo de cara en negrita y su magnitud se indica mediante tipo de cara clara.
Example:V es un vector con magnitud V. Considere dos vectores V 1 y V 2 como se muestra en el siguiente diagrama. Sea que la componente de V 1 junto con V 2 esté dada por C 12 V 2 . La componente de un vector V 1 junto con el vector V 2 se puede obtener tomando una perpendicular desde el final de V 1 al vector V 2 como se muestra en el diagrama:
El vector V 1 se puede expresar en términos del vector V 2
V 1 = C 12 V 2 + V e
Donde Ve es el vector de error.
Pero esta no es la única forma de expresar el vector V 1 en términos de V 2 . Las posibilidades alternativas son:
V 1 = C 1 V 2 + V e1
V 2 = C 2 V 2 + V e2
La señal de error es mínima para un valor de componente grande. Si C 12 = 0, entonces se dice que dos señales son ortogonales.
Producto escalar de dos vectores
V 1 . V 2 = V 1 .V 2 cos
θ = Ángulo entre V1 y V2
V 1 . V 2 = V 2 .V 1
Los componentes de V 1 alog n V 2 = V 1 Cos θ = $ V1.V2 \ over V2 $
Del diagrama, los componentes de V 1 alog n V 2 = C 12 V 2
$$ V_1.V_2 \ over V_2 = C_12 \, V_2 $$
$$ \ Rightarrow C_ {12} = {V_1.V_2 \ over V_2} $$
Señal
El concepto de ortogonalidad se puede aplicar a las señales. Consideremos dos señales f 1 (t) y f 2 (t). Similar a los vectores, puede aproximar f 1 (t) en términos de f 2 (t) como
f 1 (t) = C 12 f 2 (t) + f e (t) para (t 1 <t <t 2 )
$ \ Flecha derecha $ f e (t) = f 1 (t) - C 12 f 2 (t)
Una forma posible de minimizar el error es integrando sobre el intervalo t 1 a t 2 .
$$ {1 \ over {t_2 - t_1}} \ int_ {t_1} ^ {t_2} [f_e (t)] dt $$
$$ {1 \ over {t_2 - t_1}} \ int_ {t_1} ^ {t_2} [f_1 (t) - C_ {12} f_2 (t)] dt $$
Sin embargo, este paso tampoco reduce el error de manera apreciable. Esto se puede corregir tomando el cuadrado de la función de error.
$ \ varepsilon = {1 \ over {t_2 - t_1}} \ int_ {t_1} ^ {t_2} [f_e (t)] ^ 2 dt $
$ \ Flecha derecha {1 \ over {t_2 - t_1}} \ int_ {t_1} ^ {t_2} [f_e (t) - C_ {12} f_2] ^ 2 dt $
Donde ε es el valor cuadrático medio de la señal de error. El valor de C 12 que minimiza el error, necesita calcular $ {d \ varepsilon \ over dC_ {12}} = 0 $
$ \ Flecha derecha {d \ over dC_ {12}} [{1 \ over t_2 - t_1} \ int_ {t_1} ^ {t_2} [f_1 (t) - C_ {12} f_2 (t)] ^ 2 dt] = 0 $
$ \ Derecha {1 \ over {t_2 - t_1}} \ int_ {t_1} ^ {t_2} [{d \ over dC_ {12}} f_ {1} ^ 2 (t) - {d \ over dC_ {12} } 2f_1 (t) C_ {12} f_2 (t) + {d \ over dC_ {12}} f_ {2} ^ {2} (t) C_ {12} ^ 2] dt = 0 $
La derivada de los términos que no tienen término C12 es cero.
$ \ Rightarrow \ int_ {t_1} ^ {t_2} - 2f_1 (t) f_2 (t) dt + 2C_ {12} \ int_ {t_1} ^ {t_2} [f_ {2} ^ {2} (t)] dt = 0 $
Si $ C_ {12} = {{\ int_ {t_1} ^ {t_2} f_1 (t) f_2 (t) dt} \ over {\ int_ {t_1} ^ {t_2} f_ {2} ^ {2} (t ) dt}} $ componente es cero, entonces se dice que dos señales son ortogonales.
Ponga C 12 = 0 para obtener la condición de ortogonalidad.
0 = $ {{\ int_ {t_1} ^ {t_2} f_1 (t) f_2 (t) dt} \ over {\ int_ {t_1} ^ {t_2} f_ {2} ^ {2} (t) dt}} PS
$$ \ int_ {t_1} ^ {t_2} f_1 (t) f_2 (t) dt = 0 $$
Espacio vectorial ortogonal
Un conjunto completo de vectores ortogonales se denomina espacio vectorial ortogonal. Considere un espacio vectorial tridimensional como se muestra a continuación:
Considere un vector A en un punto (X 1 , Y 1 , Z 1 ). Considere tres vectores unitarios (V X , V Y , V Z ) en la dirección de los ejes X, Y, Z respectivamente. Dado que estos vectores unitarios son mutuamente ortogonales, satisface que
$$ V_X. V_X = V_Y. V_Y = V_Z. V_Z = 1 $$
$$ V_X. V_Y = V_Y. V_Z = V_Z. V_X = 0 $$
Puede escribir las condiciones anteriores como
$$ V_a. V_b = \ left \ {\ begin {array} {ll} 1 & \ quad a = b \\ 0 & \ quad a \ neq b \ end {array} \ right. $$
El vector A se puede representar en términos de sus componentes y vectores unitarios como
$ A = X_1 V_X + Y_1 V_Y + Z_1 V_Z ................ (1) $
Cualquier vector en este espacio tridimensional se puede representar en términos de estos tres vectores unitarios solamente.
Si considera n espacio dimensional, entonces cualquier vector A en ese espacio puede representarse como
$ A = X_1 V_X + Y_1 V_Y + Z_1 V_Z + ... + N_1V_N ..... (2) $
Como la magnitud de los vectores unitarios es la unidad para cualquier vector A
La componente de A a lo largo del eje x = AV X
El componente de A a lo largo del eje Y = AV Y
La componente de A a lo largo del eje Z = AV Z
De manera similar, para n espacio dimensional, la componente de A a lo largo de algún eje G
$ = A.VG ............... (3) $
Sustituye la ecuación 2 en la ecuación 3.
$ \ Flecha derecha CG = (X_1 V_X + Y_1 V_Y + Z_1 V_Z + ... + G_1 V_G ... + N_1V_N) V_G $
$ = X_1 V_X V_G + Y_1 V_Y V_G + Z_1 V_Z V_G + ... + G_1V_G V_G ... + N_1V_N V_G $
$ = G_1 \, \, \, \, \, \ text {desde} V_G V_G = 1 $
$ Si V_G V_G \ neq 1 \, \, \ text {es decir, V_G V_G = k $
$ AV_G = G_1V_G V_G = G_1K $
$ G_1 = {(AV_G) \ over K} $
Espacio de señal ortogonal
Consideremos un conjunto de n funciones mutuamente ortogonales x 1 (t), x 2 (t) ... x n (t) en el intervalo t 1 a t 2 . Como estas funciones son ortogonales entre sí, cualesquiera dos señales x j (t), x k (t) deben satisfacer la condición de ortogonalidad. es decir
$$ \ int_ {t_1} ^ {t_2} x_j (t) x_k (t) dt = 0 \, \, \, \ text {donde} \, j \ neq k $$
$$ \ text {Let} \ int_ {t_1} ^ {t_2} x_ {k} ^ {2} (t) dt = k_k $$
Sea una función f (t), se puede aproximar con este espacio de señal ortogonal agregando los componentes a lo largo de señales mutuamente ortogonales, es decir
$ \, \, \, f (t) = C_1x_1 (t) + C_2x_2 (t) + ... + C_nx_n (t) + f_e (t) $
$ \ quad \ quad = \ Sigma_ {r = 1} ^ {n} C_rx_r (t) $
$ \, \, \, f (t) = f (t) - \ Sigma_ {r = 1} ^ n C_rx_r (t) $
Error cuadrado medio $ \ varepsilon = {1 \ over t_2 - t_2} \ int_ {t_1} ^ {t_2} [f_e (t)] ^ 2 dt $
$$ = {1 \ over t_2 - t_2} \ int_ {t_1} ^ {t_2} [f [t] - \ sum_ {r = 1} ^ {n} C_rx_r (t)] ^ 2 dt $$
El componente que minimiza el error cuadrático medio se puede encontrar mediante
$$ {d \ varepsilon \ over dC_1} = {d \ varepsilon \ over dC_2} = ... = {d \ varepsilon \ over dC_k} = 0 $$
Consideremos $ {d \ varepsilon \ over dC_k} = 0 $
$$ {d \ over dC_k} [{1 \ over t_2 - t_1} \ int_ {t_1} ^ {t_2} [f (t) - \ Sigma_ {r = 1} ^ n C_rx_r (t)] ^ 2 dt] = 0 $$
Todos los términos que no contienen C k son cero. es decir, en suma, el término r = k permanece y todos los demás términos son cero.
$$ \ int_ {t_1} ^ {t_2} - 2 f (t) x_k (t) dt + 2C_k \ int_ {t_1} ^ {t_2} [x_k ^ 2 (t)] dt = 0 $$
$$ \ Rightarrow C_k = {{\ int_ {t_1} ^ {t_2} f (t) x_k (t) dt} \ over {int_ {t_1} ^ {t_2} x_k ^ 2 (t) dt}} $$
$$ \ Derecha \ int_ {t_1} ^ {t_2} f (t) x_k (t) dt = C_kK_k $$
Error cuadrático medio
El promedio del cuadrado de la función de error f e (t) se denomina error cuadrático medio. Se denota por ε (épsilon).
.$ \ varepsilon = {1 \ over t_2 - t_1} \ int_ {t_1} ^ {t_2} [f_e (t)] ^ 2dt $
$ \, \, \, \, = {1 \ sobre t_2 - t_1} \ int_ {t_1} ^ {t_2} [f_e (t) - \ Sigma_ {r = 1} ^ n C_rx_r (t)] ^ 2 dt PS
$ \, \, \, \, = {1 \ over t_2 - t_1} [\ int_ {t_1} ^ {t_2} [f_e ^ 2 (t)] dt + \ Sigma_ {r = 1} ^ {n} C_r ^ 2 \ int_ {t_1} ^ {t_2} x_r ^ 2 (t) dt - 2 \ Sigma_ {r = 1} ^ {n} C_r \ int_ {t_1} ^ {t_2} x_r (t) f (t) dt PS
Sabes que $ C_ {r} ^ {2} \ int_ {t_1} ^ {t_2} x_r ^ 2 (t) dt = C_r \ int_ {t_1} ^ {t_2} x_r (t) f (d) dt = C_r ^ 2 K_r $
$ \ varepsilon = {1 \ over t_2 - t_1} [\ int_ {t_1} ^ {t_2} [f ^ 2 (t)] dt + \ Sigma_ {r = 1} ^ {n} C_r ^ 2 K_r - 2 \ Sigma_ {r = 1} ^ {n} C_r ^ 2 K_r] $
$ \, \, \, \, = {1 \ sobre t_2 - t_1} [\ int_ {t_1} ^ {t_2} [f ^ 2 (t)] dt - \ Sigma_ {r = 1} ^ {n} C_r ^ 2 K_r] $
$ \, \ por lo tanto \ varepsilon = {1 \ over t_2 - t_1} [\ int_ {t_1} ^ {t_2} [f ^ 2 (t)] dt + (C_1 ^ 2 K_1 + C_2 ^ 2 K_2 + ... + C_n ^ 2 K_n)] $
La ecuación anterior se utiliza para evaluar el error cuadrático medio.
Conjunto cerrado y completo de funciones ortogonales
Consideremos un conjunto de n funciones mutuamente ortogonales x 1 (t), x 2 (t) ... x n (t) en el intervalo t 1 a t 2 . Esto se llama conjunto cerrado y completo cuando no existe ninguna función f (t) que satisfaga la condición $ \ int_ {t_1} ^ {t_2} f (t) x_k (t) dt = 0 $
Si esta función satisface la ecuación $ \ int_ {t_1} ^ {t_2} f (t) x_k (t) dt = 0 \, \, \ text {for} \, k = 1,2, .. $ entonces f Se dice que (t) es ortogonal a todas y cada una de las funciones del conjunto ortogonal. Este conjunto está incompleto sin f (t). Se cierra y se completa cuando se incluye f (t).
f (t) se puede aproximar con este conjunto ortogonal agregando los componentes a lo largo de señales mutuamente ortogonales, es decir
$$ f (t) = C_1 x_1 (t) + C_2 x_2 (t) + ... + C_n x_n (t) + f_e (t) $$
Si la serie infinita $ C_1 x_1 (t) + C_2 x_2 (t) + ... + C_n x_n (t) $ converge af (t) entonces el error cuadrático medio es cero.
Ortogonalidad en funciones complejas
Si f 1 (t) y f 2 (t) son dos funciones complejas, entonces f 1 (t) se puede expresar en términos de f 2 (t) como
$ f_1 (t) = C_ {12} f_2 (t) \, \, \, \, \, \, \, \, $ ..con un error insignificante
Donde $ C_ {12} = {{\ int_ {t_1} ^ {t_2} f_1 (t) f_2 ^ * (t) dt} \ over {\ int_ {t_1} ^ {t_2} | f_2 (t) | ^ 2 dt}} $
Donde $ f_2 ^ * (t) $ = conjugado complejo de f 2 (t).
Si f 1 (t) y f 2 (t) son ortogonales, entonces C 12 = 0
$$ {\ int_ {t_1} ^ {t_2} f_1 (t) f_2 ^ * (t) dt \ over \ int_ {t_1} ^ {t_2} | f_2 (t) | ^ 2 dt} = 0 $$
$$ \ Flecha derecha \ int_ {t_1} ^ {t_2} f_1 (t) f_2 ^ * (dt) = 0 $$
La ecuación anterior representa la condición de ortogonalidad en funciones complejas.