Model autoregresyjny (AR): Różnice pomiędzy wersjami

Z Brain-wiki
 
(Nie pokazano 45 pośrednich wersji utworzonych przez tego samego użytkownika)
Linia 4: Linia 4:
 
w których wartość sygnału w danej chwili jest sumą liniowej
 
w których wartość sygnału w danej chwili jest sumą liniowej
 
kombinacji <math>M</math> wartości poprzednich i nieskorelowanego szumu <math>\epsilon</math>
 
kombinacji <math>M</math> wartości poprzednich i nieskorelowanego szumu <math>\epsilon</math>
<equation id="eq:41">
+
 
 +
 
 +
::::::<equation id="eq:41">
 
<math>
 
<math>
 +
\displaystyle
 
s[n] = \sum_{i=1}^M a_i s[n-i] + \epsilon[n]
 
s[n] = \sum_{i=1}^M a_i s[n-i] + \epsilon[n]
 
</math>
 
</math>
 
</equation>
 
</equation>
 +
  
 
W każdej realizacji tego samego procesu  (dla tych samych
 
W każdej realizacji tego samego procesu  (dla tych samych
Linia 16: Linia 20:
 
prawdopodobieństwa.
 
prawdopodobieństwa.
  
[[Plik:klasyczna_rys_6.jpg|thumb|center|400px|Trzy przykładowe realizacje procesu AR 3-go rzędu (<math>M=3</math>) o tych samych współczynnikach i wartościach początkowych.]]
+
[[Plik:klasyczna_rys_6.jpg|thumb|668px|center|Trzy przykładowe realizacje procesu AR 3-go rzędu (<math>M=3</math>) o tych samych współczynnikach i wartościach początkowych.]]
  
 
Mimo tego, na podstawie współczynników AR możemy określić wiele
 
Mimo tego, na podstawie współczynników AR możemy określić wiele
Linia 28: Linia 32:
  
 
==AR(1)==
 
==AR(1)==
Najprostszym przykładem jest proces AR pierwszego rzędu (nazywany liniowym procesem Markowa), w którym wartość w danej chwili zależy wyłącznie od wartości w chwili poprzedniej i szumu:
+
Najprostszym przykładem jest proces AR pierwszego rzędu (nazywany łańcuchem Markowa), w którym wartość w danej chwili zależy wyłącznie od wartości w chwili poprzedniej i szumu:
 
<math>
 
<math>
 
s[n] = a s[n-1] + \epsilon_n
 
s[n] = a s[n-1] + \epsilon_n
</math>
+
</math>;
 +
podstawiając trzy kolejne wyrazy
  
podstawiając trzy kolejne wyrazy
 
  
 
<math>s[n] =  \epsilon_n + a s[n-1] </math>
 
<math>s[n] =  \epsilon_n + a s[n-1] </math>
 +
  
 
<math>s[n-1] =  \epsilon_{n-1} + a s[n-2] </math>
 
<math>s[n-1] =  \epsilon_{n-1} + a s[n-2] </math>
 +
  
 
<math>s[n-2] =  \epsilon_{n-2} + a s[n-3]</math>
 
<math>s[n-2] =  \epsilon_{n-2} + a s[n-3]</math>
 +
  
 
dostaniemy
 
dostaniemy
 +
  
 
<math>
 
<math>
 
s[n] =
 
s[n] =
 
</math>
 
</math>
 +
  
 
<math>
 
<math>
 
\epsilon_n + a s[n-1] =  
 
\epsilon_n + a s[n-1] =  
 
</math>
 
</math>
 +
  
 
<math>
 
<math>
 
\epsilon_n + a \left( \epsilon_{n-1} + a s[n-2] \right) =   
 
\epsilon_n + a \left( \epsilon_{n-1} + a s[n-2] \right) =   
 
</math>
 
</math>
 +
  
 
<math>
 
<math>
 
\epsilon_n + a \left( \epsilon_{n-1} + a (\epsilon_{n-2} + a s[n-3]) \right) =  
 
\epsilon_n + a \left( \epsilon_{n-1} + a (\epsilon_{n-2} + a s[n-3]) \right) =  
 
</math>
 
</math>
 +
  
 
<math>
 
<math>
Linia 65: Linia 77:
  
 
W ogólnym przypadku <math>N</math> wyrazów będzie to suma
 
W ogólnym przypadku <math>N</math> wyrazów będzie to suma
 +
  
 
<math>
 
<math>
 +
\displaystyle
 
s[n] = \sum_{i=0}^{N-1} a^i \epsilon_{n-i} + a^N s[n-N]
 
s[n] = \sum_{i=0}^{N-1} a^i \epsilon_{n-i} + a^N s[n-N]
 
</math>
 
</math>
  
Dla <math>N \rightarrow \infty</math> zależność od pierwszego elementu <math>s[n-N]</math> zanika i dostejemy asymptotyczną reprezentację
 
  
<math>  
+
Dla <math>N \rightarrow \infty</math> zależność od pierwszego elementu <math>s[n-N]</math> zanika i dostajemy asymptotyczną reprezentację
 +
 
 +
 
 +
<math> \displaystyle
 
s[n] = \epsilon_n + a\epsilon_{n-1} + a^2\epsilon_{n-2} +\ldots = \sum_{i=0}^{\infty} a^i \epsilon_{n-i}
 
s[n] = \epsilon_n + a\epsilon_{n-1} + a^2\epsilon_{n-2} +\ldots = \sum_{i=0}^{\infty} a^i \epsilon_{n-i}
 
</math>
 
</math>
 +
  
 
Jeśli wartość oczekiwana <math>\epsilon_i</math> wynosi 0 (<math>E(\epsilon_i)=0</math>) a wariancja
 
Jeśli wartość oczekiwana <math>\epsilon_i</math> wynosi 0 (<math>E(\epsilon_i)=0</math>) a wariancja
<math>\sigma^2(\epsilon_i)=\sigma_\epsilon^2</math>, to wariancja w punkcie <math>n</math>
+
<math>\sigma^2(\epsilon_i)=\sigma_\epsilon^2</math>, to wariancja <math>s[n]</math> w punkcie <math>n</math>
 +
 
  
<math>\begin{matrix}
+
<math>\displaystyle
 +
\begin{matrix}
 
\sigma^2_{s[n]} = E\left( (\epsilon_n + a\epsilon_{n-1} + a^2\epsilon_{n-2}+\ldots+a^{n-1}\epsilon_1)^2\right) =\\
 
\sigma^2_{s[n]} = E\left( (\epsilon_n + a\epsilon_{n-1} + a^2\epsilon_{n-2}+\ldots+a^{n-1}\epsilon_1)^2\right) =\\
 +
\\
 
= \sigma_\epsilon^2 \left(1+a^2+a^4+\ldots+a^{2n-2} \right)  =
 
= \sigma_\epsilon^2 \left(1+a^2+a^4+\ldots+a^{2n-2} \right)  =
 
\left\{
 
\left\{
Linia 89: Linia 109:
 
\right.
 
\right.
 
\end{matrix}</math>
 
\end{matrix}</math>
 +
 +
 +
bo
 +
 +
<math>
 +
\sum_{k=1}^n b q^{k-1} = \left\{ \begin{matrix}b \frac{1 - q^n}{1 - q} \;\;\;\; \textrm{ dla }\;\;\;q\ne 1,\\
 +
n b \;\;\;\;\;\;\;\;\; \textrm{ dla }\;\;\;\; q = 1.
 +
\end{matrix}
 +
\right.
 +
</math>
 +
 +
 +
  
 
Autokowariancja <math>E(s[n] s[n+\tau])</math>
 
Autokowariancja <math>E(s[n] s[n+\tau])</math>
  
<math>\begin{matrix}
+
 
 +
<math>
 +
\displaystyle
 +
\begin{matrix}
 
E\left( (\epsilon_n + a\epsilon_{n-1} + a^2\epsilon_{n-2}+\ldots+a^{n-1}\epsilon_1)
 
E\left( (\epsilon_n + a\epsilon_{n-1} + a^2\epsilon_{n-2}+\ldots+a^{n-1}\epsilon_1)
 
(\epsilon_{n+\tau} + a\epsilon_{n+\tau-1}  
 
(\epsilon_{n+\tau} + a\epsilon_{n+\tau-1}  
 
 
+\ldots+a^{n+\tau-1}\epsilon_1)\right) =\\
 
+\ldots+a^{n+\tau-1}\epsilon_1)\right) =\\
 +
\\
 
= \sigma_\epsilon^2 \left(a^\tau+a^{\tau+2}+\ldots+a^{\tau+2(n-1)} \right)  =
 
= \sigma_\epsilon^2 \left(a^\tau+a^{\tau+2}+\ldots+a^{\tau+2(n-1)} \right)  =
 
\left\{
 
\left\{
Linia 104: Linia 140:
 
\end{matrix}
 
\end{matrix}
 
\right.
 
\right.
\end{matrix}</math>
+
\end{matrix}
 +
</math>
 +
 
 +
 
 +
 
  
 
Dla <math>|a|\ne 1</math> przy <math>n\rightarrow\infty</math>
 
Dla <math>|a|\ne 1</math> przy <math>n\rightarrow\infty</math>
<math>
+
<math>\displaystyle
 
\sigma^2_{x[n]} \stackrel{n\rightarrow\infty}{\longrightarrow}  \frac{\sigma^2_\epsilon}{1-a^2} \;\;\; ; \;\;\;
 
\sigma^2_{x[n]} \stackrel{n\rightarrow\infty}{\longrightarrow}  \frac{\sigma^2_\epsilon}{1-a^2} \;\;\; ; \;\;\;
 
\sigma_{x[n], x[n+\tau]} \stackrel{n\rightarrow\infty}{\longrightarrow}  \frac{\sigma^2_\epsilon a^\tau}{1-a^2}
 
\sigma_{x[n], x[n+\tau]} \stackrel{n\rightarrow\infty}{\longrightarrow}  \frac{\sigma^2_\epsilon a^\tau}{1-a^2}
 
</math>
 
</math>
 +
  
 
Autokowariancja
 
Autokowariancja
 +
 +
 
<math>
 
<math>
 +
\displaystyle
 
\rho(\tau) = \frac{ \sigma_{x[n], x[n+\tau]} }{ \sigma^2_{x[n]} }  \stackrel{n\rightarrow\infty}{\longrightarrow} a^{|\tau|}
 
\rho(\tau) = \frac{ \sigma_{x[n], x[n+\tau]} }{ \sigma^2_{x[n]} }  \stackrel{n\rightarrow\infty}{\longrightarrow} a^{|\tau|}
 
</math>
 
</math>
  
Proces jest asymptotycznie stacjonarny do rzędu 2, czyli wariancja
+
 
i średnia nie zależą od czasu.
+
Proces jest '''asymptotycznie stacjonarny do rzędu 2''', czyli wariancja i średnia nie zależą od czasu.
  
 
Dla <math>a=1</math> proces ten obrazuje tzw. błądzenie przypadkowe.
 
Dla <math>a=1</math> proces ten obrazuje tzw. błądzenie przypadkowe.
Linia 152: Linia 196:
 
==Twierdzenie Wienera-Chinczyna==
 
==Twierdzenie Wienera-Chinczyna==
 
Transformata Fouriera funkcji autokorelacji jest równa kwadratowi modułu transformaty Fouriera.
 
Transformata Fouriera funkcji autokorelacji jest równa kwadratowi modułu transformaty Fouriera.
 +
  
 
''Dowód''
 
''Dowód''
Kładąc <math>f = g</math> [[Twierdzenia_o_splocie_i_o_próbkowaniu_(aliasing)#label-eq:29|we wzorze na funkcję korelacji sygnałów ''f'' i ''g'']], dostajemy
 
  
<math>
+
Kładąc <math>f = g</math> [[Twierdzenia_o_splocie_i_o_próbkowaniu_(aliasing)#label-eq:29|we wzorze na funkcję korelacji sygnałów ''f'' i ''g'']], dostajemy analogznie jak poprzednio
 +
 
 +
<math display="block">
 +
\displaystyle
 
  \mathcal{F} \left( \int_{-\infty}^{\infty} f(t) f(t+\tau) dt \right) =
 
  \mathcal{F} \left( \int_{-\infty}^{\infty} f(t) f(t+\tau) dt \right) =
 
</math>
 
</math>
 +
 +
 
<math>
 
<math>
 +
\displaystyle
 
  \int_{-\infty}^{\infty} e^{-i\omega \tau} \left( \int_{-\infty}^{\infty} f(t) f(t+\tau) dt \right) d\tau  =
 
  \int_{-\infty}^{\infty} e^{-i\omega \tau} \left( \int_{-\infty}^{\infty} f(t) f(t+\tau) dt \right) d\tau  =
 
</math>
 
</math>
 +
 +
 
<math>
 
<math>
 +
\displaystyle
 
  \int_{-\infty}^{\infty} e^{-i\omega(t+\tau)}  e^{i\omega t} \int_{-\infty}^{\infty} f(t) f(t+\tau) dt d\tau =
 
  \int_{-\infty}^{\infty} e^{-i\omega(t+\tau)}  e^{i\omega t} \int_{-\infty}^{\infty} f(t) f(t+\tau) dt d\tau =
 
</math>
 
</math>
 +
 +
 
<math>
 
<math>
 +
\displaystyle
 
  \int_{-\infty}^{\infty} e^{-i\omega(t+\tau)}  f(t+\tau) d\tau \int_{-\infty}^{\infty} e^{i\omega t} f(t)  dt =  
 
  \int_{-\infty}^{\infty} e^{-i\omega(t+\tau)}  f(t+\tau) d\tau \int_{-\infty}^{\infty} e^{i\omega t} f(t)  dt =  
 
</math>
 
</math>
 +
 +
 
<math>
 
<math>
\hat{f}(\omega) \overline{\hat{f}(\omega)} = |\hat{f}(\omega)|^2  
+
\displaystyle
 +
\hat{f}(\omega) \overline{\hat{f}(\omega)} = |\hat{f}(\omega)|^2  
 
</math>
 
</math>
  
  
=== Kryterium Akaike (AIC) ===
 
  
::<math>\mathrm{AIC}(M)= \frac{2M}{N} -\ln(\sigma^2_{\eps}) </math>
 
  
<math>N</math> - liczba próbek sygnału
 
  
Kryterium to karze za zwiększanie ilości parametrów i nagradza za zmniejszanie niewytłumaczonej wariancji.
+
 
 +
== Estymacja współczynników AR i kryterium Akaike'go==
 +
 
 +
Najtrudniejszym krokiem w estymacji współczynników modelu AR jest wybór rzędu <math>M</math>, czyli pamięci modelu. Pomagają w tym kryteria, których przykładem jest Akaike Information Criterion AIC:
 +
 
 +
 
 +
:::::<math>\displaystyle
 +
\mathrm{AIC}(M)= \frac{2M}{N} + \ln(\sigma^2_{\epsilon}) </math>
 +
 
 +
 
 +
gdzie <math>N</math> - liczba próbek sygnału. Kryterium to karze za zwiększanie liczby parametrów i nagradza za zmniejszanie niewytłumaczonej wariancji.
  
 
==Parametryczna estymacja widma mocy sygnałów==
 
==Parametryczna estymacja widma mocy sygnałów==
Linia 185: Linia 251:
 
Pokazaliśmy powyżej (na przykładzie błądzenia przypadkowego), że znając współczynniki (parametry) modelu AR możemy z nich wyliczyć funkcję autokorelacji odpowiadającego im procesu, bez znajomości konkretnej realizacji sygnału. Z kolei z funkcji autokorelacji możemy z pomocą powyższego twierdzenia '''obliczyć''' widmo. To widmo będzie wyliczone a nie estymowane, ale nie odnosi się bezpośrednio do sygnału, od którego zaczynaliśmy, tylko do procesu opisanego '''wyestymowanymi''' parametrami modelu AR.
 
Pokazaliśmy powyżej (na przykładzie błądzenia przypadkowego), że znając współczynniki (parametry) modelu AR możemy z nich wyliczyć funkcję autokorelacji odpowiadającego im procesu, bez znajomości konkretnej realizacji sygnału. Z kolei z funkcji autokorelacji możemy z pomocą powyższego twierdzenia '''obliczyć''' widmo. To widmo będzie wyliczone a nie estymowane, ale nie odnosi się bezpośrednio do sygnału, od którego zaczynaliśmy, tylko do procesu opisanego '''wyestymowanymi''' parametrami modelu AR.
  
 +
Ogólnie w statystyce mówimy o:
 +
* estymacji parametrycznej jako znajdowaniu nieznanych wartości parametrów rozkładu, oraz
 +
* estymacji nieparametrycznej jako metodzie znajdowania postaci rozkładu populacji (analogicznie do [https://brain.fuw.edu.pl/edu/index.php/WnioskowanieStatystyczne/Testy_nieprametryczne testów nieparametrycznych]).
 +
 +
Na przykład dla stu obserwacji, co do których zakładamy, że pochodzą z rozkładu normalnego, możemy znaleźć średnią i wariancję (parametry rozkładu) i na tej podstawie estymować prawdopodobieństwo w dowolnym przedziale. Jeśli nie chcemy zakładać postaci rozkładu, nieparametryczną estymatą ''n''-tego percentyla będzie największy z pierwszych ''n'' wyników (dla próby o liczności 100).
  
 
<references/>
 
<references/>

Aktualna wersja na dzień 18:36, 4 mar 2024

AS/ Model autoregresyjny (AR)

Model autoregresyjny (rzędu [math]M[/math]) opisuje procesy dyskretne, w których wartość sygnału w danej chwili jest sumą liniowej kombinacji [math]M[/math] wartości poprzednich i nieskorelowanego szumu [math]\epsilon[/math]


[math] \displaystyle s[n] = \sum_{i=1}^M a_i s[n-i] + \epsilon[n] [/math]


W każdej realizacji tego samego procesu (dla tych samych współczynników [math]a_i[/math] i wartości początkowych sygnału), [math]\epsilon_t[/math] są niezależnymi liczbami losowymi, więc o wartości [math]s(t)[/math] w konkretnej chwili [math]t[/math] możemy mówić tylko językiem prawdopodobieństwa.

Trzy przykładowe realizacje procesu AR 3-go rzędu ([math]M=3[/math]) o tych samych współczynnikach i wartościach początkowych.

Mimo tego, na podstawie współczynników AR możemy określić wiele ogólnych własności sygnału, np. wartość oczekiwaną [math]\bar{s}[/math] (w praktyce estymowaną przez wartość średnią) i wariancję (jej estymatorem jest suma kwadratów odchyleń wartości sygnału od wartości oczekiwanej), a nawet widmo mocy. Można również rozważać szersze klasy modeli tego typu, jak np. model MA (ruchomej średniej, ang. moving average), gdzie uśredniamy [math]\epsilon_t[/math] zamiast [math]s(t)[/math], czy proces mieszany ARMA, opisany między innymi w klasycznych pozycjach „Analizie szeregów czasowych”, autorstwa Boxa i Jenkinsa oraz w „Metodach analizy szeregów czasowych” autorstwa Piersola i Bendata.


AR(1)

Najprostszym przykładem jest proces AR pierwszego rzędu (nazywany łańcuchem Markowa), w którym wartość w danej chwili zależy wyłącznie od wartości w chwili poprzedniej i szumu: [math] s[n] = a s[n-1] + \epsilon_n [/math]; podstawiając trzy kolejne wyrazy


[math]s[n] = \epsilon_n + a s[n-1] [/math]


[math]s[n-1] = \epsilon_{n-1} + a s[n-2] [/math]


[math]s[n-2] = \epsilon_{n-2} + a s[n-3][/math]


dostaniemy


[math] s[n] = [/math]


[math] \epsilon_n + a s[n-1] = [/math]


[math] \epsilon_n + a \left( \epsilon_{n-1} + a s[n-2] \right) = [/math]


[math] \epsilon_n + a \left( \epsilon_{n-1} + a (\epsilon_{n-2} + a s[n-3]) \right) = [/math]


[math] \epsilon_n + a \epsilon_{n-1} + a^2 \epsilon_{n-2} + a^3 s[n-3] [/math]


W ogólnym przypadku [math]N[/math] wyrazów będzie to suma


[math] \displaystyle s[n] = \sum_{i=0}^{N-1} a^i \epsilon_{n-i} + a^N s[n-N] [/math]


Dla [math]N \rightarrow \infty[/math] zależność od pierwszego elementu [math]s[n-N][/math] zanika i dostajemy asymptotyczną reprezentację


[math] \displaystyle s[n] = \epsilon_n + a\epsilon_{n-1} + a^2\epsilon_{n-2} +\ldots = \sum_{i=0}^{\infty} a^i \epsilon_{n-i} [/math]


Jeśli wartość oczekiwana [math]\epsilon_i[/math] wynosi 0 ([math]E(\epsilon_i)=0[/math]) a wariancja [math]\sigma^2(\epsilon_i)=\sigma_\epsilon^2[/math], to wariancja [math]s[n][/math] w punkcie [math]n[/math]


[math]\displaystyle \begin{matrix} \sigma^2_{s[n]} = E\left( (\epsilon_n + a\epsilon_{n-1} + a^2\epsilon_{n-2}+\ldots+a^{n-1}\epsilon_1)^2\right) =\\ \\ = \sigma_\epsilon^2 \left(1+a^2+a^4+\ldots+a^{2n-2} \right) = \left\{ \begin{matrix} \sigma_\epsilon^2 \left(\frac{1-a^{2n}}{1-a^2} \right) & |a|\ne 1\\ n \sigma_\epsilon^2 & |a|=1 \end{matrix} \right. \end{matrix}[/math]


bo

[math] \sum_{k=1}^n b q^{k-1} = \left\{ \begin{matrix}b \frac{1 - q^n}{1 - q} \;\;\;\; \textrm{ dla }\;\;\;q\ne 1,\\ n b \;\;\;\;\;\;\;\;\; \textrm{ dla }\;\;\;\; q = 1. \end{matrix} \right. [/math]



Autokowariancja [math]E(s[n] s[n+\tau])[/math]


[math] \displaystyle \begin{matrix} E\left( (\epsilon_n + a\epsilon_{n-1} + a^2\epsilon_{n-2}+\ldots+a^{n-1}\epsilon_1) (\epsilon_{n+\tau} + a\epsilon_{n+\tau-1} +\ldots+a^{n+\tau-1}\epsilon_1)\right) =\\ \\ = \sigma_\epsilon^2 \left(a^\tau+a^{\tau+2}+\ldots+a^{\tau+2(n-1)} \right) = \left\{ \begin{matrix} \sigma_\epsilon^2 a^\tau \left(\frac{1-a^{2n}}{1-a^2} \right) & |a|\ne 1\\ n \sigma_\epsilon^2 & |a|=1 \end{matrix} \right. \end{matrix} [/math]



Dla [math]|a|\ne 1[/math] przy [math]n\rightarrow\infty[/math] [math]\displaystyle \sigma^2_{x[n]} \stackrel{n\rightarrow\infty}{\longrightarrow} \frac{\sigma^2_\epsilon}{1-a^2} \;\;\; ; \;\;\; \sigma_{x[n], x[n+\tau]} \stackrel{n\rightarrow\infty}{\longrightarrow} \frac{\sigma^2_\epsilon a^\tau}{1-a^2} [/math]


Autokowariancja


[math] \displaystyle \rho(\tau) = \frac{ \sigma_{x[n], x[n+\tau]} }{ \sigma^2_{x[n]} } \stackrel{n\rightarrow\infty}{\longrightarrow} a^{|\tau|} [/math]


Proces jest asymptotycznie stacjonarny do rzędu 2, czyli wariancja i średnia nie zależą od czasu.

Dla [math]a=1[/math] proces ten obrazuje tzw. błądzenie przypadkowe.

Na podstawie znajomości samego współczynnika [math]a[/math] modelu AR(1) policzyliśmy np. funkcję autokorelacji modelu, co daje już znajomość widma procesu (z przytoczonego poniżej twierdzenia Wienera-Chinczyna). Podobnie w procesach wyższych rzędów (1) znajomość współczynników [math]\{a_i\}_{i=1..M}[/math] daje nam dokładną wiedzę o własnościach generowanych przez nie procesów, bez znajomości sygnału [math]s[n][/math], którego wartości mogą różnić się w kolejnych realizacjach ze względu na element stochastyczny — szum [math]\epsilon[/math].

W praktyce analizy sygnału postępujemy odwrotnie — do konkretnej realizacji dopasowujemy model AR. Głównym problemem jest wybór rzędu modelu, estymacja współczynników [math]a_i[/math] najlepiej pasujących do danego sygnału posiada stabilne rozwiązania.


Twierdzenie Wienera-Chinczyna

Transformata Fouriera funkcji autokorelacji jest równa kwadratowi modułu transformaty Fouriera.


Dowód

Kładąc [math]f = g[/math] we wzorze na funkcję korelacji sygnałów f i g, dostajemy analogznie jak poprzednio

[math] \displaystyle \mathcal{F} \left( \int_{-\infty}^{\infty} f(t) f(t+\tau) dt \right) = [/math]


[math] \displaystyle \int_{-\infty}^{\infty} e^{-i\omega \tau} \left( \int_{-\infty}^{\infty} f(t) f(t+\tau) dt \right) d\tau = [/math]


[math] \displaystyle \int_{-\infty}^{\infty} e^{-i\omega(t+\tau)} e^{i\omega t} \int_{-\infty}^{\infty} f(t) f(t+\tau) dt d\tau = [/math]


[math] \displaystyle \int_{-\infty}^{\infty} e^{-i\omega(t+\tau)} f(t+\tau) d\tau \int_{-\infty}^{\infty} e^{i\omega t} f(t) dt = [/math]


[math] \displaystyle \hat{f}(\omega) \overline{\hat{f}(\omega)} = |\hat{f}(\omega)|^2 [/math]




Estymacja współczynników AR i kryterium Akaike'go

Najtrudniejszym krokiem w estymacji współczynników modelu AR jest wybór rzędu [math]M[/math], czyli pamięci modelu. Pomagają w tym kryteria, których przykładem jest Akaike Information Criterion AIC:


[math]\displaystyle \mathrm{AIC}(M)= \frac{2M}{N} + \ln(\sigma^2_{\epsilon}) [/math]


gdzie [math]N[/math] - liczba próbek sygnału. Kryterium to karze za zwiększanie liczby parametrów i nagradza za zmniejszanie niewytłumaczonej wariancji.

Parametryczna estymacja widma mocy sygnałów

Pokazaliśmy powyżej (na przykładzie błądzenia przypadkowego), że znając współczynniki (parametry) modelu AR możemy z nich wyliczyć funkcję autokorelacji odpowiadającego im procesu, bez znajomości konkretnej realizacji sygnału. Z kolei z funkcji autokorelacji możemy z pomocą powyższego twierdzenia obliczyć widmo. To widmo będzie wyliczone a nie estymowane, ale nie odnosi się bezpośrednio do sygnału, od którego zaczynaliśmy, tylko do procesu opisanego wyestymowanymi parametrami modelu AR.

Ogólnie w statystyce mówimy o:

  • estymacji parametrycznej jako znajdowaniu nieznanych wartości parametrów rozkładu, oraz
  • estymacji nieparametrycznej jako metodzie znajdowania postaci rozkładu populacji (analogicznie do testów nieparametrycznych).

Na przykład dla stu obserwacji, co do których zakładamy, że pochodzą z rozkładu normalnego, możemy znaleźć średnią i wariancję (parametry rozkładu) i na tej podstawie estymować prawdopodobieństwo w dowolnym przedziale. Jeśli nie chcemy zakładać postaci rozkładu, nieparametryczną estymatą n-tego percentyla będzie największy z pierwszych n wyników (dla próby o liczności 100).