Funkcja systemu: Różnice pomiędzy wersjami

Z Brain-wiki
 
(Nie pokazano 61 pośrednich wersji utworzonych przez tego samego użytkownika)
Linia 1: Linia 1:
=[[Analiza_sygnałów_-_lecture|AS/]] Funkcja systemu=
+
=[[Analiza_sygnałów_-_lecture|AS/]] Transformata Z i widmo procesu AR=
  
  
Linia 7: Linia 7:
  
 
Jednostronna transformata <math>\mathcal{Z}</math> ciągu liczb <math>x[n]</math> definiowana jest jako funkcja zmiennej <math>z</math> będąca sumą szeregu
 
Jednostronna transformata <math>\mathcal{Z}</math> ciągu liczb <math>x[n]</math> definiowana jest jako funkcja zmiennej <math>z</math> będąca sumą szeregu
:<math>\mathcal{Z}\{x[n]\} = X(z)= \sum_{n=0}^{\infty} x[n] z^{-n}</math>
 
Dla <math>z=e^{i \omega}</math> dostajemy Dyskretną Transformatę Fouriera.
 
:<math>X(z=e^{i \omega})= \sum_{n=0}^{\infty} x[n] z=e^{i \omega n}</math>
 
  
Transformata <math>\mathcal{Z}</math> jest liniowa
+
:<math>
 +
\displaystyle
 +
\mathcal{Z}\{x[n]\} = X(z)= \sum_{n=0}^{\infty} x[n] z^{-n}
 +
</math>
  
:<math>\mathcal{Z}\lbrace a x[n] + b y[n]\rbrace =a X[z] + b Y[z]</math>
+
czyli np.
 +
<math>
 +
\mathcal{Z}\{(2, 7, 3)\} = 2 z + 7 z^{-1} + 3 z^{-2}
 +
</math>
  
a dla przesunięcia w czasie
 
  
:<math>\mathcal{Z}\lbrace x[n-k]\rbrace  = z^{-k}X(z)</math>
 
  
Dowód:
+
Dla <math>z=e^{i \omega}</math> dostajemy Dyskretną Transformatę Fouriera.
  
:<math>\mathcal{Z}\lbrace x[n-k]\rbrace = \sum_{n=0}^{\infty} x[n-k] z^{-n}
+
:<math>
 +
\displaystyle
 +
X(z=e^{i \omega})= \sum_{n=0}^{\infty} x[n] e^{- i \omega n}
 
</math>
 
</math>
  
:<math> | j=n-k|</math>
 
  
:<math> = \sum_{j=-k}^{\infty} x[j] z^{-(j+k)} = \sum_{j=-k}^{\infty} x[j] z^{-j} z^{-k} = z^{-k} \sum_{j=-k}^{\infty} x[j] z^{-j}  </math>
+
Transformata <math>\mathcal{Z}</math> jest liniowa
  
dla systemów przyczynowych <math>x[j]</math> są niezerowe dla <math>j>0</math> (por. [https://brain.fuw.edu.pl/edu/index.php/Systemy_liniowe_niezmiennicze_w_czasie_(LTI)#Splot_i_przyczynowo.C5.9B.C4.87 LTI/Splot i przyczynowość])
+
:<math>
 +
\displaystyle
 +
\mathcal{Z}\lbrace a x[n] + b y[n]\rbrace =a X[z] + b Y[z]
 +
</math>
  
  
więc
+
a dla przesunięcia w czasie
  
:<math>\mathcal{Z}\lbrace x[n-k]\rbrace = z^{-k} \sum_{j=0}^{\infty} x[j] z^{-j}</math>
+
:<math>
 +
\displaystyle
 +
\mathcal{Z}\lbrace x[n-k]\rbrace = z^{-k}X(z)
 +
</math>
  
  
Splot:  
+
Dowód:
  
<math>x[n]=x_1[n]*x_2[n] \longleftrightarrow \mathcal{Z}\{x[n]\} = X(z) = \mathcal{Z}\{x_1[n]\} \mathcal{Z}\{x_2[n]\} = X_1(z)  X_2(z) </math>  
+
:::<math>
 +
\displaystyle
 +
\mathcal{Z}\lbrace x[n-k]\rbrace = \sum_{n=0}^{\infty} x[n-k] z^{-n} \;\; \stackrel{ j \rightarrow n-k }{=} \;\;
 +
\sum_{j=-k}^{\infty} x[j] z^{-(j+k)} =
 +
</math>
  
 +
:::<math>
 +
\displaystyle
 +
= \sum_{j=-k}^{\infty} x[j] z^{-j} z^{-k} = z^{-k} \sum_{j=-k}^{\infty} x[j] z^{-j} </math>
  
:<math> \mathcal{Z}\{x_1(n)*x_2(n)\} = X(z) = </math>
 
  
 +
dla systemów przyczynowych <math>x[j]</math> są niezerowe dla <math>j>0</math> (por. [https://brain.fuw.edu.pl/edu/index.php/Systemy_liniowe_niezmiennicze_w_czasie_(LTI)#Splot_i_przyczynowo.C5.9B.C4.87 LTI/Splot i przyczynowość])
 +
więc
  
:<math> \sum_{n=-\infty}^\infty\left[\sum_{k = -\infty}^\infty x_1(k)x_2(n-k)\right]z^{-n}</math>
 
  
:<math>= \sum_{k = -\infty}^\infty x_1(k)\left[\sum_{n=-\infty}^\infty x_2(n-k)z^{-n}\right]</math>
+
:<math>\displaystyle
 
+
\mathcal{Z}\lbrace x[n-k]\rbrace = z^{-k} \sum_{j=0}^{\infty} x[j] z^{-j}
:<math>= \sum_{k = -\infty}^\infty x_1(k)\left[\sum_{n = -\infty}^\infty x_2(n-k)z^{-(n-k)}z^{-k}\right]
 
 
</math>
 
</math>
  
  
niech <math>n-k = l</math>
+
Niech <math>x[n]=x_1[n]*x_2[n]</math>; wtedy transformata <math>\mathcal{Z}</math> splotu to iloczyn transformat <math>\mathcal{Z}</math>:
  
:<math> X(z) = \sum_{k = -\infty}^\infty x_1(k)\left[z^{-k}\sum_{l=-\infty}^\infty x_2(l)z^{-l}\right]</math>
 
  
:<math>= \sum_{k = -\infty}^\infty x_1(k) z^{-k} X_2(z)</math>
+
::<math>  
 +
\displaystyle
 +
\mathcal{Z}\{x[n]\} = X(z) = \mathcal{Z}\{x_1[n]\} \mathcal{Z}\{x_2[n]\} = X_1(z) X_2(z)  
 +
</math>  
  
:<math>=  X_1(z) X_2(z) </math>
 
  
==Widmo procesu AR==
+
Dowód:
  
:<math>
+
:::<math> \displaystyle \mathcal{Z}\{x_1(n)*x_2(n)\} = X(z) = </math>
x[n] = \sum_{i=1}^M a_i x[n-i] + \epsilon[n]
 
</math>
 
  
lub prościej
+
:::<math> \displaystyle \sum_{n=-\infty}^\infty\left[\sum_{k = -\infty}^\infty x_1(k)x_2(n-k)\right]z^{-n}</math>
  
<math>
+
:::<math>= \displaystyle \sum_{k = -\infty}^\infty x_1(k)\left[\sum_{n=-\infty}^\infty x_2(n-k)z^{-n}\right]</math>
\sum_{i=0}^M a_i x[n-i] = \epsilon[n]
 
</math>
 
  
biorąc transformatę Z obu stron
+
:::<math>= \displaystyle \sum_{k = -\infty}^\infty x_1(k)\left[\sum_{n = -\infty}^\infty x_2(n-k)z^{-(n-k)}z^{-k}\right]
 
 
<math>
 
\mathcal{Z}\left\{\sum_{i=0}^M a_i x[n-i] \right\} = \mathcal{Z}\left\{ \epsilon[n] \right\}
 
 
</math>
 
</math>
  
dostajemy
 
 
<math>
 
A(z) X(z) = E(z)
 
</math>
 
  
<math>
+
:::niech <math>n-k = l</math>
X(z) = A^{-1}(z) E(z)
 
</math>
 
  
oznaczając <math>A^{-1}(z) = H(z)</math> dostajemy
+
:::<math> \displaystyle X(z) = \sum_{k = -\infty}^\infty x_1(k)\left[z^{-k}\sum_{l=-\infty}^\infty x_2(l)z^{-l}\right]</math>
  
<math>
+
:::<math>= \displaystyle \sum_{k = -\infty}^\infty x_1(k) z^{-k} X_2(z)</math>
X(z) = H(z) E(z)
 
</math>
 
  
podstawiając <math>z=e^{i\omega t}</math>  przechodzimy z transformaty <math>\mathcal{Z}</math> do transformaty Fouriera:
+
:::<math>= \displaystyle X_1(z) X_2(z) </math>
  
<math>
 
\hat{x}(\omega) = H(\omega) E(\omega)
 
</math>
 
  
widmo to kwadrat modułu transformaty Fouriera
 
  
<math>
 
\left| \hat{x}(\omega) \right| ^2 =
 
\left| H(\omega) E(\omega)  \right|^2 = 
 
\left| H(\omega) \right|^2 \sigma^2 = 
 
\dfrac{\sigma^2}{\left| {A(e^{-i\omega n})} \right|^2}
 
</math>
 
 
gdzie <math>\sigma^2</math> to wariancja nieskorelowanego szumu <math>\epsilon</math>, którego widmo jest płaskie (nie zależy od częstości)
 
 
==Procesy ARMA==
 
  
  
 +
==Widmo procesu AR==
 +
kładąc <math> a_0 = 1</math>, proces AR o znanych współczynnikach <math>a_i</math>
 
:<math>
 
:<math>
\sum_{k=0}^K a_k y[n-k] = \sum_{l=0}^L b_l x[n-l]
+
\displaystyle
 +
x[n] = \sum_{i=1}^M a_i x[n-i] + \epsilon[n]
 
</math>
 
</math>
  
Jest to ogólna postać procesu ARMA -- autoregressive moving average.
+
możemy zapisać jako
 
 
 
 
Dla <math>L=0</math> dostajemy proces AR (autoregressive), w którym sygnał na wyjściu <math>y</math> zależy tylko od <math>K</math> poprzednich próbek wyjścia <math>y</math>.
 
 
 
 
 
Kładąc <math>K=0</math> dostajemy proces MA (moving average), w którym sygnał na wyjściu <math>y</math> zależy tylko od <math>L</math> poprzednich próbek wejścia <math>x</math>.
 
 
 
==Funkcja systemu==
 
  
Zastosujmy do obu stron powyższego równania transformatę<math>\mathcal{Z}</math>:
 
 
:<math>
 
:<math>
\mathcal{Z}\left\{\sum_{k=0}^K a_k y[n-k] \right\}  = \mathcal{Z}\left\{ \sum_{l=0}^L b_l x[n-l] \right\}
+
\displaystyle
 +
\sum_{i=0}^M a_i x[n-i] = \epsilon[n]
 
</math>
 
</math>
  
:<math>
+
Biorąc transformatę Z obu stron
\sum_{k=0}^K a_k \mathcal{Z}\left\{ y[n-k]\right\} = \sum_{l=0}^L b_l \mathcal{Z} \left\{x[n-l]\right\}
 
</math>
 
  
 
:<math>
 
:<math>
\sum_{k=0}^K a_k z^{-k} Y(z) = \sum_{l=0}^L b_l z^{-l} X(z)
+
\displaystyle
</math>
+
\mathcal{Z}\left\{\sum_{i=0}^M a_i x[n-i] \right\} = \mathcal{Z}\left\{ \epsilon[n] \right\}
:<math>
 
Y(z) \sum_{k=0}^K a_k z^{-k} = X(z) \sum_{l=0}^L b_l z^{-l}
 
 
</math>
 
</math>
  
  
Dla systemu przyczynowego dostajemy:
+
dostajemy
  
 
+
<math>
:<math>
+
A(z) X(z) = E(z)
\frac{Y(z)}{X(z)} \equiv H(z) = \frac{\sum_{l=0}^L b_l z^{-l}}{\sum_{k=0}^K a_k z^{-k}}
 
 
</math>
 
</math>
  
<!--
+
<math>
lub
+
X(z) =  \dfrac{E(z)}{A(z)}
 
 
:<math>
 
H(z) = \mathrm{const} \frac {\prod_{l=0}^L \left(1-\frac{d_l}{z}\right) }     {\prod_{k=0}^K \left(1-\frac{c_k}{z}\right) } .
 
 
</math>
 
</math>
  
-->
 
  
<math>H(z)</math> &mdash; funkcja systemu ''(system function)'' pozwala spójnie przedstawić działanie systemu LTI/ARMA realizującego filtrowanie  sygnału <math>x</math>:
+
oznaczając
  
:<math>Y(z)=H(z) X(z)</math>
+
<math>\displaystyle
 +
H(z) \stackrel{def}{=} A^{-1}(z) = \dfrac{1}{\sum a_i z^{-i}}</math>  
  
 +
dostajemy
  
 +
<math>
 +
X(z) = H(z) E(z) = \dfrac{E(z)}{a_0 + a_1 z^{-1} + a_2 z^{-2} + \ldots}
 +
</math>
  
  
 +
podstawiając <math>z=e^{i\omega t}</math>  przechodzimy z transformaty <math>\mathcal{Z}</math> do transformaty Fouriera <math>\mathcal{F}(x) = \hat{x}(\omega)</math>
  
  
 
+
:<math>
==Filtry==
+
\hat{x}(\omega) = H(\omega) E(\omega)
 
 
 
 
===Działanie filtru w dziedzinie czasu, typy filtrów===
 
Przypomnijmy definicję splotu:   <math>
 
(f * g)[n] = \sum_{m = -\infty}^{\infty} f[m] g[n - m]
 
 
</math>
 
</math>
  
  
==== FIR (MA) ====
+
widmo to kwadrat modułu transformaty Fouriera
Działanie filtru zadanego przez odpowiedź impulsową ''b'' o długości <math>n_b</math> na sygnał ''x'' można zapisać:
 
  
:<math>y(n) = (b*x)[n] =b[0]*x[n] + b[1]*x[n-1] + \dots + b[n_b]*x[n-n_b]</math>
 
  
Taki filtr nazywamy filtrem o skończonej odpowiedzi impulsowej (Finite Impulse Response, FIR), bo odpowiedź na impulsowe wzbudzenie kończy się po <math>n_b</math> próbkach. Inna nazwa to średnia biegnąca (Moving Average, MA).
 
 
Dla filtrów FIR współczynniki filtru i odpowiedź impulsowa są takie same.
 
 
Jeśli współczynniki tworzą sekwencję symetryczną bądź antysymetryczną, oparty na nich filtr FIR będzie liniowo przesuwał fazę filtrowanego sygnału ('''linear phase filter''') -- sygnał filtrowany jest przesunięty w czasie o ok. <math>n_b / 2</math>.
 
 
 
==== IIR (AR) ====
 
Operacja splotu działa tu na sekwencji wyjściowej:
 
 
:<math>
 
:<math>
y[n] = x[n] - a[1]*y[n-1] - \dots - a[n_a]*y[n-n_a]
+
\displaystyle
 +
\left| \hat{x}(\omega) \right| ^2 =
 +
\left| H(\omega) E(\omega)  \right|^2 = \\
 +
\,\;\;\;\;\;\;\;\;\;\; = \left| H(\omega) \right|^2 \sigma^2 =
 +
\dfrac{\sigma^2}{\left| {A(e^{-i\omega n})} \right|^2} =
 +
\dfrac{\sigma^2}{\left|a_0 + a_1 e^{-i\omega} + a_2 e^{- 2 i\omega} + \ldots \right|^2}
 
</math>
 
</math>
  
Filtr ten nazywany jest filtr rekursywnym lub autoregresyjnym (AR). W ogólności jego odpowiedź impulsowa może być nieskończona. Faza filtrowanego sygnału zaburzana jest nieliniowo ('''nonlinear phase filter''')
 
  
 +
gdzie <math>\sigma^2</math> to wariancja nieskorelowanego szumu <math>\epsilon</math>, którego widmo jest płaskie (nie zależy od częstości)
  
====IIR (ARMA) ====
 
Najbardziej ogólnym typem jest połączenie dwóch powyższych czyli:
 
::<math>
 
\begin{array}{ll}
 
y[n] = b[0]*x[n] &+ b[1]*x[n-1] + \dots + b[n_b]*x[n-n_b]\\
 
&- a[1]*y[n-1] - \dots - a[n_a]*y[n-n_a]
 
\end{array}
 
</math>
 
Tą wersję filtru nazywamy filtrem o nieskończonej odpowiedzi impulsowej (Infinite Impulse Response IIR) bo potencjalnie raz wzbudzony może dowolnie długo produkować niezerowe wyjście.
 
 
'''Rzędem filtru''' nazywamy maksymane opóźnienie w próbkach potrzebne do wytworzenia nowej próbki wyjściowej. Dla filtrów FIR jest on równy liczbie <math> n_b</math>. Dla filtrów IIR jest to większa z liczb <math>n_a, n_b</math>.
 
 
===Działanie filtru w dziedzinie częstości===
 
Stosując transformatę <math>Z</math> ([[%C4%86wiczenia_5#Jak_znale.C5.BA.C4.87_A_.E2.80.94_transformata_Z|analogicznie jak dla procesu AR]]) możemy równanie z dziedziny czasu przenieść do dziedziny częstości. Filtrowanie odpowiada przemnożeniu transformaty sygnału przez transformatę funkcji przenoszenia filtru:
 
 
::<math>Y[z]=H[z]X[z]=\frac{b[0]+b[1]z^{-1}+\dots +b[n_b]z^{-n_b}}{a[0]+a[1]z^{-1}+\dots +a[n_a]z^{-n_a}}X[z]</math>
 
  
Występująca tu funkcja ''H'' nosi nazwę transmitancja lub funkcja przenoszenia.
 
Znając funkcję <math>H</math>  łatwo możemy przewidzieć co się stanie z widmem sygnału po przefiltrowaniu. Weźmy <math> z = e^{i 2\pi  f}</math>. Wówczas transmitancja jest funkcją częstości ''f''. Dla każdej konkretnej częstości <math>f_k</math> przypisuje ona liczbę zespoloną, którą można wyrazić jako <math>A_k e^{i \phi_k}</math>. W dziedzinie częstości sygnał wyrażony jest przez współczynniki Fourierowskie. Dla konkretnej częstości współczynnik taki <math>X_k = |X_k| e^{i \theta_k}</math> (liczba zespolona) mówi z jaką amplitudą i jaką fazą exponens zespolony o danej częstości (<math>z_k = e^{i 2\pi  f_k}</math>) wchodzi w skład sygnału.
 
  
  
Zatem działanie filtru na sygnał w dziedzinie częstości polega na przemnożeniu składowej sygnału o częstości <math>f_k</math> przez liczbę <math>A_k e^{i \phi_k}</math>:
 
:<math>Y(f_k) = A_k e^{i \phi_k} |X_k| e^{i \theta_k} z_k = A_k |X_k| e^{i ( \phi_k +\theta_k)}  e^{i 2\pi  f_k} </math>
 
 
Zatem w wyniku filtrowania składowa sygnału o danej częstości może zmienić amplitudę i fazę ale co warto zauważyć nie zmienia częstości.
 
  
'''Zera i bieguny''' filtra to odpowiednio miejsca zerowe licznika i mianownika funkcji przenoszenia.
 
  
  
Linia 239: Linia 182:
 
<math>\vec{s}(t)</math>. Wielozmienny model AR (MVAR, multivariate
 
<math>\vec{s}(t)</math>. Wielozmienny model AR (MVAR, multivariate
 
autoregressive) można wówczas opisać wzorem:  
 
autoregressive) można wówczas opisać wzorem:  
 +
  
 
<math>
 
<math>
 +
\displaystyle
 
\vec{s}(t)=\sum_{i=1}^p A(i) \vec{s}(t-i) + \vec{\epsilon}(t) ,
 
\vec{s}(t)=\sum_{i=1}^p A(i) \vec{s}(t-i) + \vec{\epsilon}(t) ,
 
</math>  
 
</math>  
 +
  
 
gdzie <math>\vec{\epsilon}(t)</math> będzie wektorem
 
gdzie <math>\vec{\epsilon}(t)</math> będzie wektorem
 
szumów, zaś <math>A(i)</math> będą macierzami współczynników modelu.
 
szumów, zaś <math>A(i)</math> będą macierzami współczynników modelu.
 
Przechodząc do przestrzeni częstości otrzymamy:  
 
Przechodząc do przestrzeni częstości otrzymamy:  
 +
  
 
<math>
 
<math>
 +
\displaystyle
 
\vec{s}(\omega)=A^{-1}(\omega)\vec{\epsilon}(\omega)=H(\omega)\vec{\epsilon}(\omega),  
 
\vec{s}(\omega)=A^{-1}(\omega)\vec{\epsilon}(\omega)=H(\omega)\vec{\epsilon}(\omega),  
 
</math>  
 
</math>  
  
gdzie <math>H(\omega)</math> jest macierzą przejścia.  MVAR jest modelem typu "czarna skrzynka", gdzie na wejściu występują szumy, na wyjściu sygnały, a system jest opisany przez macierz przejścia. Zawiera on informacje o własnościach widmowych sygnałów i związkach między nimi.
+
 
 +
gdzie <math>H(\omega)</math> jest macierzą przejścia.  MVAR jest modelem typu "czarna skrzynka", gdzie na wejściu występują szumy, na wyjściu sygnały, a system jest opisany przez macierz przejścia. Zawiera ona informacje o własnościach widmowych sygnałów i związkach między nimi.
 +
 
  
 
Na podstawie macierzy <math>H(\omega)</math> można obliczyć macierz
 
Na podstawie macierzy <math>H(\omega)</math> można obliczyć macierz
Linia 267: Linia 217:
 
chociaż nie są one ze sobą bezpośrednio powiązane, natomiast
 
chociaż nie są one ze sobą bezpośrednio powiązane, natomiast
 
koherencja cząstkowa nie wykaże związku między nimi.
 
koherencja cząstkowa nie wykaże związku między nimi.
 +
  
 
Macierz <math>H(\omega)</math> jest niesymetryczna, a jej wyrazy
 
Macierz <math>H(\omega)</math> jest niesymetryczna, a jej wyrazy
Linia 276: Linia 227:
 
<math>H(\omega)</math>.  DTF opisuje kierunek propagacji i skład
 
<math>H(\omega)</math>.  DTF opisuje kierunek propagacji i skład
 
widmowy rozchodzących się sygnałów.
 
widmowy rozchodzących się sygnałów.
 +
  
 
Otrzymamy w ten sposób całościowy opis zmian wszystkich sygnałów
 
Otrzymamy w ten sposób całościowy opis zmian wszystkich sygnałów
Linia 286: Linia 238:
 
to informacji, w którym z sygnałów struktury odpowiadające danej
 
to informacji, w którym z sygnałów struktury odpowiadające danej
 
częstości pojawiają się wcześniej.
 
częstości pojawiają się wcześniej.
 +
 +
[[Plik:DTF.png|400px|thumb|center|MVAR, dzięki uprzejmości Macieja Kamińskiego]]
 +
 +
<references/>
  
  
  
<references/>
+
 
 +
<div align="right">
 +
[[Model_autoregresyjny_(AR)|⬅]] [[Analiza_sygnałów_-_wykład|⬆]] [[Filtry|⮕]]
 +
</div>

Aktualna wersja na dzień 08:01, 23 lip 2024

AS/ Transformata Z i widmo procesu AR

Transformata Z

Jednostronna transformata [math]\mathcal{Z}[/math] ciągu liczb [math]x[n][/math] definiowana jest jako funkcja zmiennej [math]z[/math] będąca sumą szeregu

[math] \displaystyle \mathcal{Z}\{x[n]\} = X(z)= \sum_{n=0}^{\infty} x[n] z^{-n} [/math]

czyli np. [math] \mathcal{Z}\{(2, 7, 3)\} = 2 z + 7 z^{-1} + 3 z^{-2} [/math]


Dla [math]z=e^{i \omega}[/math] dostajemy Dyskretną Transformatę Fouriera.

[math] \displaystyle X(z=e^{i \omega})= \sum_{n=0}^{\infty} x[n] e^{- i \omega n} [/math]


Transformata [math]\mathcal{Z}[/math] jest liniowa

[math] \displaystyle \mathcal{Z}\lbrace a x[n] + b y[n]\rbrace =a X[z] + b Y[z] [/math]


a dla przesunięcia w czasie

[math] \displaystyle \mathcal{Z}\lbrace x[n-k]\rbrace = z^{-k}X(z) [/math]


Dowód:

[math] \displaystyle \mathcal{Z}\lbrace x[n-k]\rbrace = \sum_{n=0}^{\infty} x[n-k] z^{-n} \;\; \stackrel{ j \rightarrow n-k }{=} \;\; \sum_{j=-k}^{\infty} x[j] z^{-(j+k)} = [/math]
[math] \displaystyle = \sum_{j=-k}^{\infty} x[j] z^{-j} z^{-k} = z^{-k} \sum_{j=-k}^{\infty} x[j] z^{-j} [/math]


dla systemów przyczynowych [math]x[j][/math] są niezerowe dla [math]j\gt 0[/math] (por. LTI/Splot i przyczynowość) więc


[math]\displaystyle \mathcal{Z}\lbrace x[n-k]\rbrace = z^{-k} \sum_{j=0}^{\infty} x[j] z^{-j} [/math]


Niech [math]x[n]=x_1[n]*x_2[n][/math]; wtedy transformata [math]\mathcal{Z}[/math] splotu to iloczyn transformat [math]\mathcal{Z}[/math]:


[math] \displaystyle \mathcal{Z}\{x[n]\} = X(z) = \mathcal{Z}\{x_1[n]\} \mathcal{Z}\{x_2[n]\} = X_1(z) X_2(z) [/math]


Dowód:

[math] \displaystyle \mathcal{Z}\{x_1(n)*x_2(n)\} = X(z) = [/math]
[math] \displaystyle \sum_{n=-\infty}^\infty\left[\sum_{k = -\infty}^\infty x_1(k)x_2(n-k)\right]z^{-n}[/math]
[math]= \displaystyle \sum_{k = -\infty}^\infty x_1(k)\left[\sum_{n=-\infty}^\infty x_2(n-k)z^{-n}\right][/math]
[math]= \displaystyle \sum_{k = -\infty}^\infty x_1(k)\left[\sum_{n = -\infty}^\infty x_2(n-k)z^{-(n-k)}z^{-k}\right] [/math]


niech [math]n-k = l[/math]
[math] \displaystyle X(z) = \sum_{k = -\infty}^\infty x_1(k)\left[z^{-k}\sum_{l=-\infty}^\infty x_2(l)z^{-l}\right][/math]
[math]= \displaystyle \sum_{k = -\infty}^\infty x_1(k) z^{-k} X_2(z)[/math]
[math]= \displaystyle X_1(z) X_2(z) [/math]



Widmo procesu AR

kładąc [math] a_0 = 1[/math], proces AR o znanych współczynnikach [math]a_i[/math]

[math] \displaystyle x[n] = \sum_{i=1}^M a_i x[n-i] + \epsilon[n] [/math]

możemy zapisać jako

[math] \displaystyle \sum_{i=0}^M a_i x[n-i] = \epsilon[n] [/math]

Biorąc transformatę Z obu stron

[math] \displaystyle \mathcal{Z}\left\{\sum_{i=0}^M a_i x[n-i] \right\} = \mathcal{Z}\left\{ \epsilon[n] \right\} [/math]


dostajemy

[math] A(z) X(z) = E(z) [/math]

[math] X(z) = \dfrac{E(z)}{A(z)} [/math]


oznaczając

[math]\displaystyle H(z) \stackrel{def}{=} A^{-1}(z) = \dfrac{1}{\sum a_i z^{-i}}[/math]

dostajemy

[math] X(z) = H(z) E(z) = \dfrac{E(z)}{a_0 + a_1 z^{-1} + a_2 z^{-2} + \ldots} [/math]


podstawiając [math]z=e^{i\omega t}[/math] przechodzimy z transformaty [math]\mathcal{Z}[/math] do transformaty Fouriera [math]\mathcal{F}(x) = \hat{x}(\omega)[/math]


[math] \hat{x}(\omega) = H(\omega) E(\omega) [/math]


widmo to kwadrat modułu transformaty Fouriera


[math] \displaystyle \left| \hat{x}(\omega) \right| ^2 = \left| H(\omega) E(\omega) \right|^2 = \\ \,\;\;\;\;\;\;\;\;\;\; = \left| H(\omega) \right|^2 \sigma^2 = \dfrac{\sigma^2}{\left| {A(e^{-i\omega n})} \right|^2} = \dfrac{\sigma^2}{\left|a_0 + a_1 e^{-i\omega} + a_2 e^{- 2 i\omega} + \ldots \right|^2} [/math]


gdzie [math]\sigma^2[/math] to wariancja nieskorelowanego szumu [math]\epsilon[/math], którego widmo jest płaskie (nie zależy od częstości)




Wielozmienny model AR

Model AR opisuje wartość sygnału w chwili [math]t[/math] jako kombinację liniową jego wartości w chwilach poprzednich (oraz szumu). W przypadku wielowymiarowym możemy włączyć do tego opisu wartości wszystkich sygnałów [math]s_i[/math], czyli wektora [math]\vec{s}(t)[/math]. Wielozmienny model AR (MVAR, multivariate autoregressive) można wówczas opisać wzorem:


[math] \displaystyle \vec{s}(t)=\sum_{i=1}^p A(i) \vec{s}(t-i) + \vec{\epsilon}(t) , [/math]


gdzie [math]\vec{\epsilon}(t)[/math] będzie wektorem szumów, zaś [math]A(i)[/math] będą macierzami współczynników modelu. Przechodząc do przestrzeni częstości otrzymamy:


[math] \displaystyle \vec{s}(\omega)=A^{-1}(\omega)\vec{\epsilon}(\omega)=H(\omega)\vec{\epsilon}(\omega), [/math]


gdzie [math]H(\omega)[/math] jest macierzą przejścia. MVAR jest modelem typu "czarna skrzynka", gdzie na wejściu występują szumy, na wyjściu sygnały, a system jest opisany przez macierz przejścia. Zawiera ona informacje o własnościach widmowych sygnałów i związkach między nimi.


Na podstawie macierzy [math]H(\omega)[/math] można obliczyć macierz gęstości widmowej zawierającą widma mocy dla pojedynczych kanałów jak również funkcje wzajemnej gęstości mocy pomiędzy kanałami. Stosując tego typu podejście, w którym wszystkie sygnały generowane przez pewien proces są rozpatrywane jednocześnie, można policzyć z macierzy spektralnej nie tylko koherencje zwykłe pomiędzy dwoma kanałami, ale również koherencje wielorakie opisujące związek danego kanału z pozostałymi i koherencje cząstkowe opisujące bezpośrednie związki między dwoma kanałami po usunięciu wpływu pozostałych kanałów. W przypadku gdy pewien kanał 1 będzie wpływał na kanały 2 i 3, obliczając koherencję zwykłą znajdziemy związek między 2 oraz 3, chociaż nie są one ze sobą bezpośrednio powiązane, natomiast koherencja cząstkowa nie wykaże związku między nimi.


Macierz [math]H(\omega)[/math] jest niesymetryczna, a jej wyrazy pozadiagonalne mają sens przyczynowości Grangera, co oznacza, że uwzględnienie wcześniejszej informacji zawartej w jednym z sygnałów zmniejsza błąd predykcji drugiego sygnału. Opierając się na tej własności zdefiniowano Kierunkową Funkcję Przejścia (DTF, directed transfer function) jako znormalizowany element pozadiagonalny [math]H(\omega)[/math]. DTF opisuje kierunek propagacji i skład widmowy rozchodzących się sygnałów.


Otrzymamy w ten sposób całościowy opis zmian wszystkich sygnałów jednocześnie. Co ciekawe, obliczona na tej podstawie funkcja charakteryzująca zależności między sygnałami [math]s_i[/math] (funkcja przejścia) nie jest symetryczna, w przeciwieństwie do np. korelacji. Dzięki temu może służyć wnioskowaniu nie tylko o sile zależności między poszczególnymi sygnałami składowymi, ale też o kierunku przepływu informacji między nimi. W przybliżeniu odpowiada to informacji, w którym z sygnałów struktury odpowiadające danej częstości pojawiają się wcześniej.

MVAR, dzięki uprzejmości Macieja Kamińskiego