Obtención de la Ganancia de Kalman Uni-dimensional

Hay varias formas de obtener la ecuación de ganancia de Kalman unidimensional. Presentaré la más simple.

Dada la medida \( z_{n} \) y la estimación previa \( \hat{x}_{n,n-1} \), nos interesa encontrar una estimación combinada óptima \( \hat{x}_{n,n} \) basada en la medición y la estimación previa.

La estimación combinada óptima es en realidad una media ponderada de la estimación previa y la medición:

\[ \hat{x}_{n,n} = k_{1}z_{n} + k_{2}\hat{x}_{n,n-1} \]

Donde \( k_{1} \) y \( k_{2} \) son las ponderaciones de la medición y del estado previo estimado.

\[ k_{1} + k_{2} = 1 \]

\[ \hat{x}_{n,n} = k_{1}z_{n} + (1 - k_{1})\hat{x}_{n,n-1} \]

La relación entre varianzas está dada por:

\[ p_{n,n} = k_{1}^{2}r_{n} + (1 - k_{1})^{2}p_{n,n-1} \]

donde:

\( p_{n,n} \) es la varianza de la estimación combinada óptima \( \hat{x}_{n,n} \)

\( p_{n,n-1} \) es la varianza del estado previo estimado \( \hat{x}_{n,n} \)

\( r_{n} \) es la varianza de la medición \( z_{n} \)

Nota: para cualquier variable aleatoria \( x \) con distribución normal y varianza \( \sigma^{2} \), \( kx \) se también de distribuye de manera normal, con varianza \( k^{2}\sigma^{2} \)

Como estamos buscando una estimación óptima estamos interesados en minimizar \( p_{n,n} \).

Para encontrar el \( k_{1} \) que minimiza \( p_{n,n} \), derivamos \( p_{n,n} \) con respecto a \( k_{1} \) e igualamos a cero.

\[ \frac{dp_{n,n}}{dk_{1}} = 2k_{1}r_{n} - 2(1 - k_{1})p_{n,n-1} \]

Por lo tanto

\[ k_{1}r_{n} = p_{n,n-1} - k_{1}p_{n,n-1} \]

\[ k_{1}p_{n,n-1} + k_{1}r_{n} = p_{n,n-1} \]

\[ k_{1} = \frac{p_{n,n-1}}{p_{n,n-1} + r_{n}} \]

Hemos obtenido la ganancia de Kalman!

Dado que la ganancia de Kalman produce la estimación de varianza mínima, el filtro de Kalman también se denomina filtro óptimo.

Espalda