Rekurencyjna metoda NK

Wstęp i oznaczenia

Algorytm ważonej rekurencyjnej metody najmniejszych kwadratów (WRMNK) został wyprowadzony dla obiektu typu ARX, którego postać przytacza się dla wygody:

y ( i ) = z k B ( z 1 ) A ( z 1 ) u ( i ) + 1 A ( z 1 ) e ( i ) . {\displaystyle y(i)=z^{-k}{\frac {B(z^{-1})}{A(z^{-1})}}u(i)+{\frac {1}{A(z^{-1})}}e(i).}

Zakłada się, że znany jest ciąg wejść obiektu u ( 1 ) , u ( 2 ) , {\displaystyle u(1),u(2),\dots } oraz ciąg wyjść obiektu y ( 1 ) , y ( 2 ) , , {\displaystyle y(1),y(2),\dots ,} natomiast sekwencja białego szumu, modelującego zakłócenie sprowadzone na wyjście obiektu e ( 1 ) , e ( 2 ) , , {\displaystyle e(1),e(2),\dots ,} jest nieznana.

Niech Θ {\displaystyle \mathbf {\Theta } } oznacza wektor nieznanych parametrów obiektu:

Θ = [ b 0   b 1   b d B   a 1 a 2   a d A ] T . {\displaystyle \mathbf {\Theta } =\left\lbrack b_{0}\ b_{1}\ldots \ b_{dB}\ a_{1}\quad a_{2}\ldots \ a_{dA}\right\rbrack ^{T}.}

Niech Θ ^ ( i ) {\displaystyle \mathbf {\hat {\Theta }} (i)} oznacza wektor zawierający oszacowania (estymaty) tych parametrów w chwili i , {\displaystyle i,} oraz niech φ ( i 1 ) {\displaystyle {\boldsymbol {\varphi }}(i-1)} oznacza wektor zawierający próbki wejść i wyjść odpowiadające tym parametrom (zwany wektorem regresyjnym):

φ ( i 1 ) = [ u ( i k )   u ( i k 1 )   u ( i k d B ) y ( i 1 )   y ( i 2 )   y ( i d A ) ] T {\displaystyle {\begin{aligned}{\boldsymbol {\varphi }}(i-1)={}&\left\lbrack u(i-k)\ u(i-k-1)\ldots \ u(i-k-dB)\right.\\&\left.-y(i-1)\ -y(i-2)\ldots \ -y(i-dA)\right\rbrack ^{T}\end{aligned}}}

Niech ponadto wskaźnik jakości będzie dany jako:

J N ( Θ ^ ) = 1 N i = 1 N λ N i ε 2 ( i ) = 1 N i = 1 N λ N i ( y ( i ) Θ ^ T ( i 1 ) φ ( i 1 ) ) 2 , {\displaystyle J_{N}(\mathbf {\hat {\Theta }} )={\frac {1}{N}}\sum _{i=1}^{N}\lambda ^{N-i}\varepsilon ^{2}(i)={\frac {1}{N}}\sum _{i=1}^{N}\lambda ^{N-i}\left(y(i)-\mathbf {\hat {\Theta }} ^{T}(i-1){\boldsymbol {\varphi }}(i-1)\right)^{2},}

gdzie λ ( 0 , 1 ] {\displaystyle \lambda \in (0,1\rbrack } zwany jest współczynnikiem ważenia lub zapominania, a ε ( i ) {\displaystyle \varepsilon (i)} zwany jest błędem predykcji jednokrokowej.

Algorytm WRMNK

Algorytmem, który minimalizuje tak zdefiniowany wskaźnik jakości, jest algorytm ważonej rekurencyjnej metody najmniejszych kwadratów, dany wzorem:

Θ ^ ( i ) = Θ ^ ( i 1 ) + k ( i ) ε ( i ) , {\displaystyle \mathbf {\hat {\Theta }} (i)=\mathbf {\hat {\Theta }} (i-1)+\mathbf {k} (i)\varepsilon (i),}

gdzie k ( i ) {\displaystyle \mathbf {k} (i)} zwany jest wektorem wzmocnienia i liczony jest zgodnie z zależnością:

k ( i ) = P ( i ) φ ( i 1 ) . {\displaystyle \mathbf {k} (i)=\mathbf {P} (i)\cdot {\boldsymbol {\varphi }}(i-1).}

Użyta w powyższym wzorze macierz P ( i ) {\displaystyle \mathbf {P} (i)} zwana jest macierzą kowariancji. Podstawową zależnością pozwalającą na rekurencyjne wyznaczania tej macierzy jest równanie:

P 1 ( i ) = λ P 1 ( i 1 ) + φ ( i 1 ) φ T ( i 1 ) . {\displaystyle \mathbf {P} ^{-1}(i)=\lambda \mathbf {P} ^{-1}(i-1)+{\boldsymbol {\varphi }}(i-1){\boldsymbol {\varphi }}^{T}(i-1).}

Ponieważ jednak zastosowanie powyższego wzoru wiązałoby się z koniecznością odwracania macierzy, algorytm byłby niezwykle skomplikowany w implementacji i potencjalnie niestabilny numerycznie. Na szczęście udało się wyprowadzić zależność rekurencyjną pozwalającą na aktualizację macierzy kowariancji z pominięciem odwracania macierzy, która jest dana zależnością:

P ( i ) = 1 λ [ P ( i 1 ) P ( i 1 ) φ ( i 1 ) φ T ( i 1 ) P ( i 1 ) λ + φ T ( i 1 ) P ( i 1 ) φ ( i 1 ) ] {\displaystyle \mathbf {P} (i)={\frac {1}{\lambda }}\left\lbrack \mathbf {P} (i-1)-{\frac {\mathbf {P} (i-1){\boldsymbol {\varphi }}(i-1){\boldsymbol {\varphi }}^{T}(i-1)\mathbf {P} (i-1)}{\lambda +{\boldsymbol {\varphi }}^{T}(i-1)\mathbf {P} (i-1){\boldsymbol {\varphi }}(i-1)}}\right\rbrack }

Warunek początkowy

Warunek początkowy dla macierzy kowariancji dany jest wzorem:

P ( 0 ) = β I , {\displaystyle \mathbf {P} (0)=\beta \mathbf {I} ,}

gdzie β {\displaystyle \beta } jest pewną, dużą wartością dodatnią (np. 1000).

Zobacz też

Uwagi

W przypadku, gdy λ = 1 {\displaystyle \lambda =1} o metodzie mówi się, że jest bez ważenia (czyli jest to RMNK). Tak sparametryzowana metoda nie nadaje się do identyfikacji obiektów niestacjonarnych (czyli takich, których parametry zmieniają się w czasie), gdyż w macierzy P {\displaystyle \mathbf {P} } pamiętana jest cała historia zmian wejścia i wyjścia obiektu. W przypadku identyfikacji obiektów niestacjonarnych zazwyczaj wartość parametru λ {\displaystyle \lambda } ustala się na nieco mniejszą od jedności (na przykład 0,99).

Bibliografia

  • Dariusz Bismor: Adaptive Algorithms for Active Noise Control in an Acoustic Duct. Gliwice: Studio Komputerowe Jacka Skalmierskiego, 1999.