Funkcja systemu: Różnice pomiędzy wersjami

Z Brain-wiki
 
(Nie pokazano 22 pośrednich wersji utworzonych przez tego samego użytkownika)
Linia 1: Linia 1:
=[[Analiza_sygnałów_-_lecture|AS/]] Funkcja systemu=
+
=[[Analiza_sygnałów_-_lecture|AS/]] Transformata Z i widmo procesu AR=
  
  
Linia 60: Linia 60:
 
więc
 
więc
  
:<math>\mathcal{Z}\lbrace x[n-k]\rbrace = z^{-k} \sum_{j=0}^{\infty} x[j] z^{-j}</math>
+
 
 +
:<math>\displaystyle
 +
\mathcal{Z}\lbrace x[n-k]\rbrace = z^{-k} \sum_{j=0}^{\infty} x[j] z^{-j}
 +
</math>
  
  
 
Niech <math>x[n]=x_1[n]*x_2[n]</math>; wtedy transformata <math>\mathcal{Z}</math> splotu to iloczyn transformat <math>\mathcal{Z}</math>:
 
Niech <math>x[n]=x_1[n]*x_2[n]</math>; wtedy transformata <math>\mathcal{Z}</math> splotu to iloczyn transformat <math>\mathcal{Z}</math>:
  
<math> \mathcal{Z}\{x[n]\} = X(z) = \mathcal{Z}\{x_1[n]\} \mathcal{Z}\{x_2[n]\} = X_1(z)  X_2(z) </math>  
+
 
 +
::<math>  
 +
\displaystyle
 +
\mathcal{Z}\{x[n]\} = X(z) = \mathcal{Z}\{x_1[n]\} \mathcal{Z}\{x_2[n]\} = X_1(z)  X_2(z)  
 +
</math>  
 +
 
  
 
Dowód:
 
Dowód:
Linia 86: Linia 94:
  
 
:::<math>=  \displaystyle X_1(z) X_2(z) </math>
 
:::<math>=  \displaystyle X_1(z) X_2(z) </math>
 +
 +
 +
 +
  
 
==Widmo procesu AR==
 
==Widmo procesu AR==
Proces AR o znanych współczynnikach <math>a_i</math>
+
kładąc <math> a_0 = 1</math>, proces AR o znanych współczynnikach <math>a_i</math>
 
:<math>
 
:<math>
 
\displaystyle
 
\displaystyle
Linia 94: Linia 106:
 
</math>
 
</math>
  
kładąc <math> a_0 = 1</math> możemy zapisać jako
+
możemy zapisać jako
  
 
:<math>
 
:<math>
Linia 101: Linia 113:
 
</math>
 
</math>
  
biorąc transformatę Z obu stron
+
Biorąc transformatę Z obu stron
  
 
:<math>
 
:<math>
Linia 116: Linia 128:
  
 
<math>
 
<math>
X(z) =  \frac{E(z)}{A(z)}
+
X(z) =  \dfrac{E(z)}{A(z)}
 
</math>
 
</math>
  
  
oznaczając <math>A^{-1}(z) = H(z)</math> dostajemy
+
oznaczając  
  
<math>
+
<math>\displaystyle
X(z) = H(z) E(z)
+
H(z) \stackrel{def}{=} A^{-1}(z) = \dfrac{1}{\sum a_i z^{-i}}</math>  
</math>
 
  
 
+
dostajemy
podstawiając <math>z=e^{i\omega t}</math>  przechodzimy z transformaty <math>\mathcal{Z}</math> do transformaty Fouriera:
 
 
 
<math>
 
\hat{x}(\omega) = H(\omega) E(\omega)
 
</math>
 
 
 
 
 
widmo to kwadrat modułu transformaty Fouriera
 
  
 
<math>
 
<math>
\left| \hat{x}(\omega) \right| ^2 =  
+
X(z) = H(z) E(z) = \dfrac{E(z)}{a_0 + a_1 z^{-1} + a_2 z^{-2} + \ldots}
\left| H(\omega) E(\omega) \right|^2 =
 
\left| H(\omega) \right|^2 \sigma^2 = 
 
\dfrac{\sigma^2}{\left| {A(e^{-i\omega n})} \right|^2}
 
 
</math>
 
</math>
  
gdzie <math>\sigma^2</math> to wariancja nieskorelowanego szumu <math>\epsilon</math>, którego widmo jest płaskie (nie zależy od częstości)
 
  
==Filtry LTI==
+
podstawiając <math>z=e^{i\omega t}</math>  przechodzimy z transformaty <math>\mathcal{Z}</math> do transformaty Fouriera <math>\mathcal{F}(x) = \hat{x}(\omega)</math>
  
Systemy LTI opisuje równanie różnicowe
 
  
 
:<math>
 
:<math>
\sum_{k=0}^K a_k y[n-k] = \sum_{l=0}^L b_l x[n-l]
+
\hat{x}(\omega) = H(\omega) E(\omega)
</math>
 
 
 
 
 
Jeśli w miejsce sygnału <math>x[n]</math> wstawimy szum <math>\epsilon[i]</math>, dostaniemy równanie opisujące proces ARMA — AutoRegressive Moving Average.
 
 
 
:<math>
 
\sum_{k=0}^K a_k y[n-k] = \sum_{l=0}^L b_l \epsilon[n-l]
 
 
</math>
 
</math>
  
  
 +
widmo to kwadrat modułu transformaty Fouriera
  
'''Dla <math>L=0</math> dostajemy proces AR''' (autoregressive), w którym sygnał na wyjściu <math>y</math> zależy tylko od <math>K</math> poprzednich próbek wyjścia <math>y</math>.
 
  
 
:<math>
 
:<math>
\epsilon[n] = \sum_{k=0}^K a_k y[n-k]
+
\displaystyle
</math>
+
\left| \hat{x}(\omega) \right| ^2 =
kładąc <math>a_0 = 1</math>
+
\left| H(\omega) E(\omega)  \right|^2 = \\
:<math>
+
\,\;\;\;\;\;\;\;\;\;\; = \left| H(\omega) \right|^2 \sigma^2 =
\epsilon[n] = y[n] + \sum_{k=1}^K a_k y[n-k]
+
\dfrac{\sigma^2}{\left| {A(e^{-i\omega n})} \right|^2} =  
</math>
+
\dfrac{\sigma^2}{\left|a_0 + a_1 e^{-i\omega} + a_2 e^{- 2 i\omega} + \ldots \right|^2}
:<math>
 
y[n] = \sum_{k=1}^K -a_k y[n-k] + \epsilon[n]
 
 
</math>
 
</math>
  
  
 +
gdzie <math>\sigma^2</math> to wariancja nieskorelowanego szumu <math>\epsilon</math>, którego widmo jest płaskie (nie zależy od częstości)
  
'''Dla <math>K=0</math> dostajemy proces MA''' (moving average), w którym sygnał na wyjściu <math>y</math> zależy tylko od <math>L</math> poprzednich próbek wejścia
 
 
:<math>
 
y[n] = \sum_{l=0}^L b_l \epsilon[n-l]
 
</math>
 
 
czyli splot szumu <math>\epsilon[n]</math> z sekwencją <math>b_l</math>
 
 
 
 
 
==Funkcja systemu==
 
 
Zastosujmy do obu stron powyższego równania transformatę <math>\mathcal{Z}</math>:
 
 
 
:<math>
 
\mathcal{Z}\left\{\sum_{k=0}^K a_k y[n-k] \right\}  = \mathcal{Z}\left\{ \sum_{l=0}^L b_l x[n-l] \right\}
 
</math>
 
 
 
:<math>
 
\sum_{k=0}^K a_k \mathcal{Z}\left\{ y[n-k]\right\} = \sum_{l=0}^L b_l \mathcal{Z} \left\{x[n-l]\right\}
 
</math>
 
 
 
:<math>
 
\sum_{k=0}^K a_k z^{-k} Y(z) = \sum_{l=0}^L b_l z^{-l} X(z)
 
</math>
 
 
 
:<math>
 
Y(z) \sum_{k=0}^K a_k z^{-k} = X(z) \sum_{l=0}^L b_l z^{-l}
 
</math>
 
 
 
Dla systemu przyczynowego dostajemy:
 
 
 
:<math>
 
\frac{Y(z)}{X(z)} \equiv H(z) = \frac{\sum_{l=0}^L b_l z^{-l}}{\sum_{k=0}^K a_k z^{-k}}
 
</math>
 
 
<!--
 
lub
 
 
:<math>
 
H(z) = \mathrm{const} \frac  {\prod_{l=0}^L \left(1-\frac{d_l}{z}\right) }      {\prod_{k=0}^K \left(1-\frac{c_k}{z}\right) } .
 
</math>
 
 
-->
 
 
<math>H(z)</math> &mdash; funkcja systemu ''(system function)'' pozwala spójnie przedstawić działanie filtra  LTI na sygnał <math>x</math> w przestrzeni transformaty <math>\mathcal{Z}</math>:
 
 
 
:<math>Y(z)=H(z) X(z)</math>
 
 
==Filtry==
 
 
 
===Działanie filtru w dziedzinie czasu, typy filtrów===
 
Przypomnijmy definicję splotu:    <math>
 
(f * g)[n] = \sum_{m = -\infty}^{\infty} f[m] g[n - m]
 
</math>
 
 
 
==== FIR (MA) ====
 
Działanie filtru zadanego przez odpowiedź impulsową ''b'' o długości <math>n_b</math> na sygnał ''x'' można zapisać:
 
 
:<math>y(n) = (b*x)[n] =b[0]*x[n] + b[1]*x[n-1] + \dots + b[n_b]*x[n-n_b]</math>
 
 
Taki filtr nazywamy filtrem o skończonej odpowiedzi impulsowej (Finite Impulse Response, FIR), bo odpowiedź na impulsowe wzbudzenie kończy się po <math>n_b</math> próbkach. Inna nazwa to średnia biegnąca (Moving Average, MA).
 
 
Dla filtrów FIR współczynniki filtru i odpowiedź impulsowa są takie same.
 
 
Jeśli współczynniki tworzą sekwencję symetryczną bądź antysymetryczną, oparty na nich filtr FIR będzie liniowo przesuwał fazę filtrowanego sygnału ('''linear phase filter''') -- sygnał filtrowany jest przesunięty w czasie o ok. <math>n_b / 2</math>.
 
 
 
==== IIR (AR) ====
 
Operacja splotu działa tu na sekwencji wyjściowej:
 
:<math>
 
y[n] = x[n] - a[1]*y[n-1] - \dots - a[n_a]*y[n-n_a]
 
</math>
 
 
Filtr ten nazywany jest filtr rekursywnym lub autoregresyjnym (AR). W ogólności jego odpowiedź impulsowa może być nieskończona. Faza filtrowanego sygnału zaburzana jest nieliniowo ('''nonlinear phase filter''')
 
 
 
====IIR (ARMA) ====
 
Najbardziej ogólnym typem jest połączenie dwóch powyższych czyli:
 
::<math>
 
\begin{array}{ll}
 
y[n] = b[0]*x[n] &+ b[1]*x[n-1] + \dots + b[n_b]*x[n-n_b]\\
 
&- a[1]*y[n-1] - \dots - a[n_a]*y[n-n_a]
 
\end{array}
 
</math>
 
Tą wersję filtru nazywamy filtrem o nieskończonej odpowiedzi impulsowej (Infinite Impulse Response IIR) bo potencjalnie raz wzbudzony może dowolnie długo produkować niezerowe wyjście.
 
 
'''Rzędem filtru''' nazywamy maksymane opóźnienie w próbkach potrzebne do wytworzenia nowej próbki wyjściowej. Dla filtrów FIR jest on równy liczbie <math> n_b</math>. Dla filtrów IIR jest to większa z liczb <math>n_a, n_b</math>.
 
 
===Działanie filtru w dziedzinie częstości===
 
Stosując transformatę <math>Z</math> ([[%C4%86wiczenia_5#Jak_znale.C5.BA.C4.87_A_.E2.80.94_transformata_Z|analogicznie jak dla procesu AR]]) możemy równanie z dziedziny czasu przenieść do dziedziny częstości. Filtrowanie odpowiada przemnożeniu transformaty sygnału przez transformatę funkcji przenoszenia filtru:
 
 
::<math>Y[z]=H[z]X[z]=\frac{b[0]+b[1]z^{-1}+\dots +b[n_b]z^{-n_b}}{a[0]+a[1]z^{-1}+\dots +a[n_a]z^{-n_a}}X[z]</math>
 
 
Występująca tu funkcja ''H'' nosi nazwę transmitancja lub funkcja przenoszenia.
 
Znając funkcję <math>H</math>  łatwo możemy przewidzieć co się stanie z widmem sygnału po przefiltrowaniu. Weźmy <math> z = e^{i 2\pi  f}</math>. Wówczas transmitancja jest funkcją częstości ''f''. Dla każdej konkretnej częstości <math>f_k</math> przypisuje ona liczbę zespoloną, którą można wyrazić jako <math>A_k e^{i \phi_k}</math>. W dziedzinie częstości sygnał wyrażony jest przez współczynniki Fourierowskie. Dla konkretnej częstości współczynnik taki <math>X_k = |X_k| e^{i \theta_k}</math> (liczba zespolona) mówi z jaką amplitudą i jaką fazą exponens zespolony o danej częstości (<math>z_k = e^{i 2\pi  f_k}</math>) wchodzi w skład sygnału.
 
  
  
Zatem działanie filtru na sygnał w dziedzinie częstości polega na przemnożeniu składowej sygnału o częstości <math>f_k</math> przez liczbę <math>A_k e^{i \phi_k}</math>:
 
:<math>Y(f_k) = A_k e^{i \phi_k} |X_k| e^{i \theta_k} z_k = A_k |X_k| e^{i ( \phi_k +\theta_k)}  e^{i 2\pi  f_k} </math>
 
 
Zatem w wyniku filtrowania składowa sygnału o danej częstości może zmienić amplitudę i fazę ale co warto zauważyć nie zmienia częstości.
 
  
'''Zera i bieguny''' filtra to odpowiednio miejsca zerowe licznika i mianownika funkcji przenoszenia.
 
  
  
Linia 303: Linia 182:
 
<math>\vec{s}(t)</math>. Wielozmienny model AR (MVAR, multivariate
 
<math>\vec{s}(t)</math>. Wielozmienny model AR (MVAR, multivariate
 
autoregressive) można wówczas opisać wzorem:  
 
autoregressive) można wówczas opisać wzorem:  
 +
  
 
<math>
 
<math>
 +
\displaystyle
 
\vec{s}(t)=\sum_{i=1}^p A(i) \vec{s}(t-i) + \vec{\epsilon}(t) ,
 
\vec{s}(t)=\sum_{i=1}^p A(i) \vec{s}(t-i) + \vec{\epsilon}(t) ,
 
</math>  
 
</math>  
 +
  
 
gdzie <math>\vec{\epsilon}(t)</math> będzie wektorem
 
gdzie <math>\vec{\epsilon}(t)</math> będzie wektorem
 
szumów, zaś <math>A(i)</math> będą macierzami współczynników modelu.
 
szumów, zaś <math>A(i)</math> będą macierzami współczynników modelu.
 
Przechodząc do przestrzeni częstości otrzymamy:  
 
Przechodząc do przestrzeni częstości otrzymamy:  
 +
  
 
<math>
 
<math>
 +
\displaystyle
 
\vec{s}(\omega)=A^{-1}(\omega)\vec{\epsilon}(\omega)=H(\omega)\vec{\epsilon}(\omega),  
 
\vec{s}(\omega)=A^{-1}(\omega)\vec{\epsilon}(\omega)=H(\omega)\vec{\epsilon}(\omega),  
 
</math>  
 
</math>  
  
gdzie <math>H(\omega)</math> jest macierzą przejścia.  MVAR jest modelem typu "czarna skrzynka", gdzie na wejściu występują szumy, na wyjściu sygnały, a system jest opisany przez macierz przejścia. Zawiera on informacje o własnościach widmowych sygnałów i związkach między nimi.
+
 
 +
gdzie <math>H(\omega)</math> jest macierzą przejścia.  MVAR jest modelem typu "czarna skrzynka", gdzie na wejściu występują szumy, na wyjściu sygnały, a system jest opisany przez macierz przejścia. Zawiera ona informacje o własnościach widmowych sygnałów i związkach między nimi.
 +
 
  
 
Na podstawie macierzy <math>H(\omega)</math> można obliczyć macierz
 
Na podstawie macierzy <math>H(\omega)</math> można obliczyć macierz
Linia 331: Linia 217:
 
chociaż nie są one ze sobą bezpośrednio powiązane, natomiast
 
chociaż nie są one ze sobą bezpośrednio powiązane, natomiast
 
koherencja cząstkowa nie wykaże związku między nimi.
 
koherencja cząstkowa nie wykaże związku między nimi.
 +
  
 
Macierz <math>H(\omega)</math> jest niesymetryczna, a jej wyrazy
 
Macierz <math>H(\omega)</math> jest niesymetryczna, a jej wyrazy
Linia 340: Linia 227:
 
<math>H(\omega)</math>.  DTF opisuje kierunek propagacji i skład
 
<math>H(\omega)</math>.  DTF opisuje kierunek propagacji i skład
 
widmowy rozchodzących się sygnałów.
 
widmowy rozchodzących się sygnałów.
 +
  
 
Otrzymamy w ten sposób całościowy opis zmian wszystkich sygnałów
 
Otrzymamy w ten sposób całościowy opis zmian wszystkich sygnałów
Linia 351: Linia 239:
 
częstości pojawiają się wcześniej.
 
częstości pojawiają się wcześniej.
  
 +
[[Plik:DTF.png|400px|thumb|center|MVAR, dzięki uprzejmości Macieja Kamińskiego]]
 +
 +
<references/>
  
  
<references/>
+
 
 +
 
 +
<div align="right">
 +
[[Model_autoregresyjny_(AR)|⬅]] [[Analiza_sygnałów_-_wykład|⬆]] [[Filtry|⮕]]
 +
</div>

Aktualna wersja na dzień 08:01, 23 lip 2024

AS/ Transformata Z i widmo procesu AR

Transformata Z

Jednostronna transformata [math]\mathcal{Z}[/math] ciągu liczb [math]x[n][/math] definiowana jest jako funkcja zmiennej [math]z[/math] będąca sumą szeregu

[math] \displaystyle \mathcal{Z}\{x[n]\} = X(z)= \sum_{n=0}^{\infty} x[n] z^{-n} [/math]

czyli np. [math] \mathcal{Z}\{(2, 7, 3)\} = 2 z + 7 z^{-1} + 3 z^{-2} [/math]


Dla [math]z=e^{i \omega}[/math] dostajemy Dyskretną Transformatę Fouriera.

[math] \displaystyle X(z=e^{i \omega})= \sum_{n=0}^{\infty} x[n] e^{- i \omega n} [/math]


Transformata [math]\mathcal{Z}[/math] jest liniowa

[math] \displaystyle \mathcal{Z}\lbrace a x[n] + b y[n]\rbrace =a X[z] + b Y[z] [/math]


a dla przesunięcia w czasie

[math] \displaystyle \mathcal{Z}\lbrace x[n-k]\rbrace = z^{-k}X(z) [/math]


Dowód:

[math] \displaystyle \mathcal{Z}\lbrace x[n-k]\rbrace = \sum_{n=0}^{\infty} x[n-k] z^{-n} \;\; \stackrel{ j \rightarrow n-k }{=} \;\; \sum_{j=-k}^{\infty} x[j] z^{-(j+k)} = [/math]
[math] \displaystyle = \sum_{j=-k}^{\infty} x[j] z^{-j} z^{-k} = z^{-k} \sum_{j=-k}^{\infty} x[j] z^{-j} [/math]


dla systemów przyczynowych [math]x[j][/math] są niezerowe dla [math]j\gt 0[/math] (por. LTI/Splot i przyczynowość) więc


[math]\displaystyle \mathcal{Z}\lbrace x[n-k]\rbrace = z^{-k} \sum_{j=0}^{\infty} x[j] z^{-j} [/math]


Niech [math]x[n]=x_1[n]*x_2[n][/math]; wtedy transformata [math]\mathcal{Z}[/math] splotu to iloczyn transformat [math]\mathcal{Z}[/math]:


[math] \displaystyle \mathcal{Z}\{x[n]\} = X(z) = \mathcal{Z}\{x_1[n]\} \mathcal{Z}\{x_2[n]\} = X_1(z) X_2(z) [/math]


Dowód:

[math] \displaystyle \mathcal{Z}\{x_1(n)*x_2(n)\} = X(z) = [/math]
[math] \displaystyle \sum_{n=-\infty}^\infty\left[\sum_{k = -\infty}^\infty x_1(k)x_2(n-k)\right]z^{-n}[/math]
[math]= \displaystyle \sum_{k = -\infty}^\infty x_1(k)\left[\sum_{n=-\infty}^\infty x_2(n-k)z^{-n}\right][/math]
[math]= \displaystyle \sum_{k = -\infty}^\infty x_1(k)\left[\sum_{n = -\infty}^\infty x_2(n-k)z^{-(n-k)}z^{-k}\right] [/math]


niech [math]n-k = l[/math]
[math] \displaystyle X(z) = \sum_{k = -\infty}^\infty x_1(k)\left[z^{-k}\sum_{l=-\infty}^\infty x_2(l)z^{-l}\right][/math]
[math]= \displaystyle \sum_{k = -\infty}^\infty x_1(k) z^{-k} X_2(z)[/math]
[math]= \displaystyle X_1(z) X_2(z) [/math]



Widmo procesu AR

kładąc [math] a_0 = 1[/math], proces AR o znanych współczynnikach [math]a_i[/math]

[math] \displaystyle x[n] = \sum_{i=1}^M a_i x[n-i] + \epsilon[n] [/math]

możemy zapisać jako

[math] \displaystyle \sum_{i=0}^M a_i x[n-i] = \epsilon[n] [/math]

Biorąc transformatę Z obu stron

[math] \displaystyle \mathcal{Z}\left\{\sum_{i=0}^M a_i x[n-i] \right\} = \mathcal{Z}\left\{ \epsilon[n] \right\} [/math]


dostajemy

[math] A(z) X(z) = E(z) [/math]

[math] X(z) = \dfrac{E(z)}{A(z)} [/math]


oznaczając

[math]\displaystyle H(z) \stackrel{def}{=} A^{-1}(z) = \dfrac{1}{\sum a_i z^{-i}}[/math]

dostajemy

[math] X(z) = H(z) E(z) = \dfrac{E(z)}{a_0 + a_1 z^{-1} + a_2 z^{-2} + \ldots} [/math]


podstawiając [math]z=e^{i\omega t}[/math] przechodzimy z transformaty [math]\mathcal{Z}[/math] do transformaty Fouriera [math]\mathcal{F}(x) = \hat{x}(\omega)[/math]


[math] \hat{x}(\omega) = H(\omega) E(\omega) [/math]


widmo to kwadrat modułu transformaty Fouriera


[math] \displaystyle \left| \hat{x}(\omega) \right| ^2 = \left| H(\omega) E(\omega) \right|^2 = \\ \,\;\;\;\;\;\;\;\;\;\; = \left| H(\omega) \right|^2 \sigma^2 = \dfrac{\sigma^2}{\left| {A(e^{-i\omega n})} \right|^2} = \dfrac{\sigma^2}{\left|a_0 + a_1 e^{-i\omega} + a_2 e^{- 2 i\omega} + \ldots \right|^2} [/math]


gdzie [math]\sigma^2[/math] to wariancja nieskorelowanego szumu [math]\epsilon[/math], którego widmo jest płaskie (nie zależy od częstości)




Wielozmienny model AR

Model AR opisuje wartość sygnału w chwili [math]t[/math] jako kombinację liniową jego wartości w chwilach poprzednich (oraz szumu). W przypadku wielowymiarowym możemy włączyć do tego opisu wartości wszystkich sygnałów [math]s_i[/math], czyli wektora [math]\vec{s}(t)[/math]. Wielozmienny model AR (MVAR, multivariate autoregressive) można wówczas opisać wzorem:


[math] \displaystyle \vec{s}(t)=\sum_{i=1}^p A(i) \vec{s}(t-i) + \vec{\epsilon}(t) , [/math]


gdzie [math]\vec{\epsilon}(t)[/math] będzie wektorem szumów, zaś [math]A(i)[/math] będą macierzami współczynników modelu. Przechodząc do przestrzeni częstości otrzymamy:


[math] \displaystyle \vec{s}(\omega)=A^{-1}(\omega)\vec{\epsilon}(\omega)=H(\omega)\vec{\epsilon}(\omega), [/math]


gdzie [math]H(\omega)[/math] jest macierzą przejścia. MVAR jest modelem typu "czarna skrzynka", gdzie na wejściu występują szumy, na wyjściu sygnały, a system jest opisany przez macierz przejścia. Zawiera ona informacje o własnościach widmowych sygnałów i związkach między nimi.


Na podstawie macierzy [math]H(\omega)[/math] można obliczyć macierz gęstości widmowej zawierającą widma mocy dla pojedynczych kanałów jak również funkcje wzajemnej gęstości mocy pomiędzy kanałami. Stosując tego typu podejście, w którym wszystkie sygnały generowane przez pewien proces są rozpatrywane jednocześnie, można policzyć z macierzy spektralnej nie tylko koherencje zwykłe pomiędzy dwoma kanałami, ale również koherencje wielorakie opisujące związek danego kanału z pozostałymi i koherencje cząstkowe opisujące bezpośrednie związki między dwoma kanałami po usunięciu wpływu pozostałych kanałów. W przypadku gdy pewien kanał 1 będzie wpływał na kanały 2 i 3, obliczając koherencję zwykłą znajdziemy związek między 2 oraz 3, chociaż nie są one ze sobą bezpośrednio powiązane, natomiast koherencja cząstkowa nie wykaże związku między nimi.


Macierz [math]H(\omega)[/math] jest niesymetryczna, a jej wyrazy pozadiagonalne mają sens przyczynowości Grangera, co oznacza, że uwzględnienie wcześniejszej informacji zawartej w jednym z sygnałów zmniejsza błąd predykcji drugiego sygnału. Opierając się na tej własności zdefiniowano Kierunkową Funkcję Przejścia (DTF, directed transfer function) jako znormalizowany element pozadiagonalny [math]H(\omega)[/math]. DTF opisuje kierunek propagacji i skład widmowy rozchodzących się sygnałów.


Otrzymamy w ten sposób całościowy opis zmian wszystkich sygnałów jednocześnie. Co ciekawe, obliczona na tej podstawie funkcja charakteryzująca zależności między sygnałami [math]s_i[/math] (funkcja przejścia) nie jest symetryczna, w przeciwieństwie do np. korelacji. Dzięki temu może służyć wnioskowaniu nie tylko o sile zależności między poszczególnymi sygnałami składowymi, ale też o kierunku przepływu informacji między nimi. W przybliżeniu odpowiada to informacji, w którym z sygnałów struktury odpowiadające danej częstości pojawiają się wcześniej.

MVAR, dzięki uprzejmości Macieja Kamińskiego