Análisis de señales

Analogía entre vectores y señales

Existe una analogía perfecta entre vectores y señales.

Vector

Un vector contiene magnitud y dirección. El nombre del vector se indica mediante tipo de cara en negrita y su magnitud se indica mediante tipo de cara clara.

Example:V es un vector con magnitud V. Considere dos vectores V 1 y V 2 como se muestra en el siguiente diagrama. Sea que la componente de V 1 junto con V 2 esté dada por C 12 V 2 . La componente de un vector V 1 junto con el vector V 2 se puede obtener tomando una perpendicular desde el final de V 1 al vector V 2 como se muestra en el diagrama:

El vector V 1 se puede expresar en términos del vector V 2

    V 1 = C 12 V 2 + V e

    Donde Ve es el vector de error.

Pero esta no es la única forma de expresar el vector V 1 en términos de V 2 . Las posibilidades alternativas son:

V 1 = C 1 V 2 + V e1

V 2 = C 2 V 2 + V e2

La señal de error es mínima para un valor de componente grande. Si C 12 = 0, entonces se dice que dos señales son ortogonales.

Producto escalar de dos vectores

    V 1 . V 2 = V 1 .V 2 cos

      θ = Ángulo entre V1 y V2

    V 1 . V 2 = V 2 .V 1

    Los componentes de V 1 alog n V 2 = V 1 Cos θ = $ V1.V2 \ over V2 $

Del diagrama, los componentes de V 1 alog n V 2 = C 12 V 2

$$ V_1.V_2 \ over V_2 = C_12 \, V_2 $$

$$ \ Rightarrow C_ {12} = {V_1.V_2 \ over V_2} $$

Señal

El concepto de ortogonalidad se puede aplicar a las señales. Consideremos dos señales f 1 (t) y f 2 (t). Similar a los vectores, puede aproximar f 1 (t) en términos de f 2 (t) como

    f 1 (t) = C 12 f 2 (t) + f e (t) para (t 1 <t <t 2 )

    $ \ Flecha derecha $ f e (t) = f 1 (t) - C 12 f 2 (t)

Una forma posible de minimizar el error es integrando sobre el intervalo t 1 a t 2 .

$$ {1 \ over {t_2 - t_1}} \ int_ {t_1} ^ {t_2} [f_e (t)] dt $$

$$ {1 \ over {t_2 - t_1}} \ int_ {t_1} ^ {t_2} [f_1 (t) - C_ {12} f_2 (t)] dt $$

Sin embargo, este paso tampoco reduce el error de manera apreciable. Esto se puede corregir tomando el cuadrado de la función de error.

$ \ varepsilon = {1 \ over {t_2 - t_1}} \ int_ {t_1} ^ {t_2} [f_e (t)] ^ 2 dt $

$ \ Flecha derecha {1 \ over {t_2 - t_1}} \ int_ {t_1} ^ {t_2} [f_e (t) - C_ {12} f_2] ^ 2 dt $

Donde ε es el valor cuadrático medio de la señal de error. El valor de C 12 que minimiza el error, necesita calcular $ {d \ varepsilon \ over dC_ {12}} = 0 $

$ \ Flecha derecha {d \ over dC_ {12}} [{1 \ over t_2 - t_1} \ int_ {t_1} ^ {t_2} [f_1 (t) - C_ {12} f_2 (t)] ^ 2 dt] = 0 $

$ \ Derecha {1 \ over {t_2 - t_1}} \ int_ {t_1} ^ {t_2} [{d \ over dC_ {12}} f_ {1} ^ 2 (t) - {d \ over dC_ {12} } 2f_1 (t) C_ {12} f_2 (t) + {d \ over dC_ {12}} f_ {2} ^ {2} (t) C_ {12} ^ 2] dt = 0 $

La derivada de los términos que no tienen término C12 es cero.

$ \ Rightarrow \ int_ {t_1} ^ {t_2} - 2f_1 (t) f_2 (t) dt + 2C_ {12} \ int_ {t_1} ^ {t_2} [f_ {2} ^ {2} (t)] dt = 0 $

Si $ C_ {12} = {{\ int_ {t_1} ^ {t_2} f_1 (t) f_2 (t) dt} \ over {\ int_ {t_1} ^ {t_2} f_ {2} ^ {2} (t ) dt}} $ componente es cero, entonces se dice que dos señales son ortogonales.

Ponga C 12 = 0 para obtener la condición de ortogonalidad.

0 = $ {{\ int_ {t_1} ^ {t_2} f_1 (t) f_2 (t) dt} \ over {\ int_ {t_1} ^ {t_2} f_ {2} ^ {2} (t) dt}} PS

$$ \ int_ {t_1} ^ {t_2} f_1 (t) f_2 (t) dt = 0 $$

Espacio vectorial ortogonal

Un conjunto completo de vectores ortogonales se denomina espacio vectorial ortogonal. Considere un espacio vectorial tridimensional como se muestra a continuación:

Considere un vector A en un punto (X 1 , Y 1 , Z 1 ). Considere tres vectores unitarios (V X , V Y , V Z ) en la dirección de los ejes X, Y, Z respectivamente. Dado que estos vectores unitarios son mutuamente ortogonales, satisface que

$$ V_X. V_X = V_Y. V_Y = V_Z. V_Z = 1 $$

$$ V_X. V_Y = V_Y. V_Z = V_Z. V_X = 0 $$

Puede escribir las condiciones anteriores como

$$ V_a. V_b = \ left \ {\ begin {array} {ll} 1 & \ quad a = b \\ 0 & \ quad a \ neq b \ end {array} \ right. $$

El vector A se puede representar en términos de sus componentes y vectores unitarios como

$ A = X_1 V_X + Y_1 V_Y + Z_1 V_Z ................ (1) $

Cualquier vector en este espacio tridimensional se puede representar en términos de estos tres vectores unitarios solamente.

Si considera n espacio dimensional, entonces cualquier vector A en ese espacio puede representarse como

$ A = X_1 V_X + Y_1 V_Y + Z_1 V_Z + ... + N_1V_N ..... (2) $

Como la magnitud de los vectores unitarios es la unidad para cualquier vector A

La componente de A a lo largo del eje x = AV X

El componente de A a lo largo del eje Y = AV Y

La componente de A a lo largo del eje Z = AV Z

De manera similar, para n espacio dimensional, la componente de A a lo largo de algún eje G

$ = A.VG ............... (3) $

Sustituye la ecuación 2 en la ecuación 3.

$ \ Flecha derecha CG = (X_1 V_X + Y_1 V_Y + Z_1 V_Z + ... + G_1 V_G ... + N_1V_N) V_G $

$ = X_1 V_X V_G + Y_1 V_Y V_G + Z_1 V_Z V_G + ... + G_1V_G V_G ... + N_1V_N V_G $

$ = G_1 \, \, \, \, \, \ text {desde} V_G V_G = 1 $

$ Si V_G V_G \ neq 1 \, \, \ text {es decir, V_G V_G = k $

$ AV_G = G_1V_G V_G = G_1K $

$ G_1 = {(AV_G) \ over K} $

Espacio de señal ortogonal

Consideremos un conjunto de n funciones mutuamente ortogonales x 1 (t), x 2 (t) ... x n (t) en el intervalo t 1 a t 2 . Como estas funciones son ortogonales entre sí, cualesquiera dos señales x j (t), x k (t) deben satisfacer la condición de ortogonalidad. es decir

$$ \ int_ {t_1} ^ {t_2} x_j (t) x_k (t) dt = 0 \, \, \, \ text {donde} \, j \ neq k $$

$$ \ text {Let} \ int_ {t_1} ^ {t_2} x_ {k} ^ {2} (t) dt = k_k $$

Sea una función f (t), se puede aproximar con este espacio de señal ortogonal agregando los componentes a lo largo de señales mutuamente ortogonales, es decir

    $ \, \, \, f (t) = C_1x_1 (t) + C_2x_2 (t) + ... + C_nx_n (t) + f_e (t) $

    $ \ quad \ quad = \ Sigma_ {r = 1} ^ {n} C_rx_r (t) $

    $ \, \, \, f (t) = f (t) - \ Sigma_ {r = 1} ^ n C_rx_r (t) $

Error cuadrado medio $ \ varepsilon = {1 \ over t_2 - t_2} \ int_ {t_1} ^ {t_2} [f_e (t)] ^ 2 dt $

$$ = {1 \ over t_2 - t_2} \ int_ {t_1} ^ {t_2} [f [t] - \ sum_ {r = 1} ^ {n} C_rx_r (t)] ^ 2 dt $$

El componente que minimiza el error cuadrático medio se puede encontrar mediante

$$ {d \ varepsilon \ over dC_1} = {d \ varepsilon \ over dC_2} = ... = {d \ varepsilon \ over dC_k} = 0 $$

Consideremos $ {d \ varepsilon \ over dC_k} = 0 $

$$ {d \ over dC_k} [{1 \ over t_2 - t_1} \ int_ {t_1} ^ {t_2} [f (t) - \ Sigma_ {r = 1} ^ n C_rx_r (t)] ^ 2 dt] = 0 $$

Todos los términos que no contienen C k son cero. es decir, en suma, el término r = k permanece y todos los demás términos son cero.

$$ \ int_ {t_1} ^ {t_2} - 2 f (t) x_k (t) dt + 2C_k \ int_ {t_1} ^ {t_2} [x_k ^ 2 (t)] dt = 0 $$

$$ \ Rightarrow C_k = {{\ int_ {t_1} ^ {t_2} f (t) x_k (t) dt} \ over {int_ {t_1} ^ {t_2} x_k ^ 2 (t) dt}} $$

$$ \ Derecha \ int_ {t_1} ^ {t_2} f (t) x_k (t) dt = C_kK_k $$

Error cuadrático medio

El promedio del cuadrado de la función de error f e (t) se denomina error cuadrático medio. Se denota por ε (épsilon).

.

$ \ varepsilon = {1 \ over t_2 - t_1} \ int_ {t_1} ^ {t_2} [f_e (t)] ^ 2dt $

$ \, \, \, \, = {1 \ sobre t_2 - t_1} \ int_ {t_1} ^ {t_2} [f_e (t) - \ Sigma_ {r = 1} ^ n C_rx_r (t)] ^ 2 dt PS

$ \, \, \, \, = {1 \ over t_2 - t_1} [\ int_ {t_1} ^ {t_2} [f_e ^ 2 (t)] dt + \ Sigma_ {r = 1} ^ {n} C_r ^ 2 \ int_ {t_1} ^ {t_2} x_r ^ 2 (t) dt - 2 \ Sigma_ {r = 1} ^ {n} C_r \ int_ {t_1} ^ {t_2} x_r (t) f (t) dt PS

Sabes que $ C_ {r} ^ {2} \ int_ {t_1} ^ {t_2} x_r ^ 2 (t) dt = C_r \ int_ {t_1} ^ {t_2} x_r (t) f (d) dt = C_r ^ 2 K_r $

$ \ varepsilon = {1 \ over t_2 - t_1} [\ int_ {t_1} ^ {t_2} [f ^ 2 (t)] dt + \ Sigma_ {r = 1} ^ {n} C_r ^ 2 K_r - 2 \ Sigma_ {r = 1} ^ {n} C_r ^ 2 K_r] $

$ \, \, \, \, = {1 \ sobre t_2 - t_1} [\ int_ {t_1} ^ {t_2} [f ^ 2 (t)] dt - \ Sigma_ {r = 1} ^ {n} C_r ^ 2 K_r] $

$ \, \ por lo tanto \ varepsilon = {1 \ over t_2 - t_1} [\ int_ {t_1} ^ {t_2} [f ^ 2 (t)] dt + (C_1 ^ 2 K_1 + C_2 ^ 2 K_2 + ... + C_n ^ 2 K_n)] $

La ecuación anterior se utiliza para evaluar el error cuadrático medio.

Conjunto cerrado y completo de funciones ortogonales

Consideremos un conjunto de n funciones mutuamente ortogonales x 1 (t), x 2 (t) ... x n (t) en el intervalo t 1 a t 2 . Esto se llama conjunto cerrado y completo cuando no existe ninguna función f (t) que satisfaga la condición $ \ int_ {t_1} ^ {t_2} f (t) x_k (t) dt = 0 $

Si esta función satisface la ecuación $ \ int_ {t_1} ^ {t_2} f (t) x_k (t) dt = 0 \, \, \ text {for} \, k = 1,2, .. $ entonces f Se dice que (t) es ortogonal a todas y cada una de las funciones del conjunto ortogonal. Este conjunto está incompleto sin f (t). Se cierra y se completa cuando se incluye f (t).

f (t) se puede aproximar con este conjunto ortogonal agregando los componentes a lo largo de señales mutuamente ortogonales, es decir

$$ f (t) = C_1 x_1 (t) + C_2 x_2 (t) + ... + C_n x_n (t) + f_e (t) $$

Si la serie infinita $ C_1 x_1 (t) + C_2 x_2 (t) + ... + C_n x_n (t) $ converge af (t) entonces el error cuadrático medio es cero.

Ortogonalidad en funciones complejas

Si f 1 (t) y f 2 (t) son dos funciones complejas, entonces f 1 (t) se puede expresar en términos de f 2 (t) como

$ f_1 (t) = C_ {12} f_2 (t) \, \, \, \, \, \, \, \, $ ..con un error insignificante

Donde $ C_ {12} = {{\ int_ {t_1} ^ {t_2} f_1 (t) f_2 ^ * (t) dt} \ over {\ int_ {t_1} ^ {t_2} | f_2 (t) | ^ 2 dt}} $

Donde $ f_2 ^ * (t) $ = conjugado complejo de f 2 (t).

Si f 1 (t) y f 2 (t) son ortogonales, entonces C 12 = 0

$$ {\ int_ {t_1} ^ {t_2} f_1 (t) f_2 ^ * (t) dt \ over \ int_ {t_1} ^ {t_2} | f_2 (t) | ^ 2 dt} = 0 $$

$$ \ Flecha derecha \ int_ {t_1} ^ {t_2} f_1 (t) f_2 ^ * (dt) = 0 $$

La ecuación anterior representa la condición de ortogonalidad en funciones complejas.