<?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="pl">
	<id>http://brain.fuw.edu.pl/edu/index.php?action=history&amp;feed=atom&amp;title=STAT%3AModel_autoregresyjny_%28AR%29</id>
	<title>STAT:Model autoregresyjny (AR) - Historia wersji</title>
	<link rel="self" type="application/atom+xml" href="http://brain.fuw.edu.pl/edu/index.php?action=history&amp;feed=atom&amp;title=STAT%3AModel_autoregresyjny_%28AR%29"/>
	<link rel="alternate" type="text/html" href="http://brain.fuw.edu.pl/edu/index.php?title=STAT:Model_autoregresyjny_(AR)&amp;action=history"/>
	<updated>2026-04-22T12:33:24Z</updated>
	<subtitle>Historia wersji tej strony wiki</subtitle>
	<generator>MediaWiki 1.34.1</generator>
	<entry>
		<id>http://brain.fuw.edu.pl/edu/index.php?title=STAT:Model_autoregresyjny_(AR)&amp;diff=2974&amp;oldid=prev</id>
		<title>Jarekz: Utworzono nową stronę &quot;{{poprzedni|STAT:Funkcja_systemu}} ==Model autoregresyjny (AR)== Model autoregresyjny (rzędu &lt;math&gt;M&lt;/math&gt;) opisuje procesy dyskretne, w których wartość sygnału w...&quot;</title>
		<link rel="alternate" type="text/html" href="http://brain.fuw.edu.pl/edu/index.php?title=STAT:Model_autoregresyjny_(AR)&amp;diff=2974&amp;oldid=prev"/>
		<updated>2015-05-28T12:38:59Z</updated>

		<summary type="html">&lt;p&gt;Utworzono nową stronę &amp;quot;{{poprzedni|STAT:Funkcja_systemu}} ==Model autoregresyjny (AR)== Model autoregresyjny (rzędu &amp;lt;math&amp;gt;M&amp;lt;/math&amp;gt;) opisuje procesy dyskretne, w których wartość sygnału w...&amp;quot;&lt;/p&gt;
&lt;p&gt;&lt;b&gt;Nowa strona&lt;/b&gt;&lt;/p&gt;&lt;div&gt;{{poprzedni|STAT:Funkcja_systemu}}&lt;br /&gt;
==Model autoregresyjny (AR)==&lt;br /&gt;
Model autoregresyjny (rzędu &amp;lt;math&amp;gt;M&amp;lt;/math&amp;gt;) opisuje procesy dyskretne,&lt;br /&gt;
w których wartość sygnału w danej chwili jest sumą liniowej&lt;br /&gt;
kombinacji &amp;lt;math&amp;gt;M&amp;lt;/math&amp;gt; wartości poprzednich i nieskorelowanego szumu &amp;lt;math&amp;gt;\epsilon&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:41&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
s[n] = \sum_{i=1}^M a_i s[n-i] + \epsilon_n&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
W każdej realizacji tego samego procesu  (dla tych samych&lt;br /&gt;
współczynników &amp;lt;math&amp;gt;a_i&amp;lt;/math&amp;gt; i wartości początkowych sygnału),  &amp;lt;math&amp;gt;\epsilon_t&amp;lt;/math&amp;gt;&lt;br /&gt;
są niezależnymi liczbami losowymi, więc o  wartości &amp;lt;math&amp;gt;s(t)&amp;lt;/math&amp;gt; w&lt;br /&gt;
konkretnej chwili &amp;lt;math&amp;gt;t&amp;lt;/math&amp;gt;  możemy mówić tylko językiem&lt;br /&gt;
prawdopodobieństwa.&lt;br /&gt;
&lt;br /&gt;
[[Plik:klasyczna_rys_6.jpg|thumb|center|400px|Przykładowe realizacje procesu AR 3-go rzędu (&amp;lt;math&amp;gt;M=3&amp;lt;/math&amp;gt;) o tych samych współczynnikach i wartościach początkowych.]]&lt;br /&gt;
&lt;br /&gt;
Mimo tego, na podstawie współczynników AR możemy określić wiele&lt;br /&gt;
ogólnych własności sygnału, np. &lt;br /&gt;
wartość oczekiwaną &amp;lt;math&amp;gt;\bar{s}&amp;lt;/math&amp;gt; (w praktyce estymowaną przez wartość średnią) i wariancję (jej estymatorem jest kwadratów&lt;br /&gt;
odchyleń wartości sygnału od wartości oczekiwanej), &lt;br /&gt;
a nawet widmo mocy. Można również rozważać szersze klasy modeli tego typu,&lt;br /&gt;
jak np. model MA (ruchomej średniej, ang. ''moving average''),&lt;br /&gt;
gdzie uśredniamy &amp;lt;math&amp;gt;\epsilon_t&amp;lt;/math&amp;gt; zamiast &amp;lt;math&amp;gt;s(t)&amp;lt;/math&amp;gt;, czy proces mieszany ARMA, opisany między innymi w klasycznych pozycjach [http://eu.wiley.com/WileyCDA/WileyTitle/productCd-0470272848.html &amp;amp;bdquo;Analizie szeregów czasowych&amp;amp;rdquo;, autorstwa Boxa i Jenkinsa] oraz w [http://books.google.pl/books?id=iu7pq6_vo3QC&amp;amp;pg=PA527&amp;amp;lpg=PA527&amp;amp;dq=piersol+bendat+wiley&amp;amp;source=bl&amp;amp;ots=tBsERShrXL&amp;amp;sig=I078ZjLwiw8BBHqrnzhVfbm5H8I&amp;amp;hl=pl&amp;amp;ei=WWuqS9rEEKbSmgOs_82IAg&amp;amp;sa=X&amp;amp;oi=book_result&amp;amp;ct=result&amp;amp;resnum=10&amp;amp;ved=0CDwQ6AEwCQ#v=onepage&amp;amp;q=piersol%20bendat%20wiley&amp;amp;f=false &amp;amp;bdquo;Metodach analizy szeregów czasowych&amp;amp;rdquo; autorstwa Piersola i Bendata].&lt;br /&gt;
&lt;br /&gt;
Najprostszym przykładem jest proces AR pierwszego rzędu (nazywany liniowym procesem Markowa), czyli:&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
s[n] = a s[n-1] + \epsilon_n&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Inaczej &amp;lt;math&amp;gt;&lt;br /&gt;
s[n] = \epsilon_n + a (\epsilon_{n-1}+a \epsilon_{n-2}+\ldots) = \ldots =&lt;br /&gt;
\epsilon_n + a\epsilon_{n-1} + a^2\epsilon_{n-2} +\ldots&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Jeśli wartość oczekiwana &amp;lt;math&amp;gt;\epsilon_i&amp;lt;/math&amp;gt; wynosi 0 (&amp;lt;math&amp;gt;E(\epsilon_i)=0&amp;lt;/math&amp;gt;) a wariancja&lt;br /&gt;
&amp;lt;math&amp;gt;\sigma^2(\epsilon_i)=\sigma_\epsilon^2&amp;lt;/math&amp;gt;, to wariancja w punkcie &amp;lt;math&amp;gt;n&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\begin{matrix}&lt;br /&gt;
\sigma^2_{s[n]} = E\left( (\epsilon_n + a\epsilon_{n-1} + a^2\epsilon_{n-2}+\ldots+a^{n-1}\epsilon_1)^2\right) =\\&lt;br /&gt;
= \sigma_\epsilon^2 \left(1+a^2+a^4+\ldots+a^{2n-2} \right)   =&lt;br /&gt;
\left\{&lt;br /&gt;
\begin{matrix}&lt;br /&gt;
\sigma_\epsilon^2 \left(\frac{1-a^{2n}}{1-a^2} \right) &amp;amp; |a|\ne 1\\&lt;br /&gt;
n \sigma_\epsilon^2 &amp;amp; |a|=1&lt;br /&gt;
\end{matrix}&lt;br /&gt;
\right.&lt;br /&gt;
\end{matrix}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Autokowariancja &amp;lt;math&amp;gt;E(s[n] s[n+\tau])&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\begin{matrix}&lt;br /&gt;
E\left( (\epsilon_n + a\epsilon_{n-1} + a^2\epsilon_{n-2}+\ldots+a^{n-1}\epsilon_1)&lt;br /&gt;
(\epsilon_{n+\tau} + a\epsilon_{n+\tau-1} &lt;br /&gt;
&lt;br /&gt;
+\ldots+a^{n+\tau-1}\epsilon_1)\right) =\\&lt;br /&gt;
= \sigma_\epsilon^2 \left(a^\tau+a^{\tau+2}+\ldots+a^{\tau+2(n-1)} \right)   =&lt;br /&gt;
\left\{&lt;br /&gt;
\begin{matrix}&lt;br /&gt;
\sigma_\epsilon^2 a^\tau \left(\frac{1-a^{2n}}{1-a^2} \right) &amp;amp; |a|\ne 1\\&lt;br /&gt;
n \sigma_\epsilon^2  &amp;amp; |a|=1&lt;br /&gt;
\end{matrix}&lt;br /&gt;
\right.&lt;br /&gt;
\end{matrix}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Dla &amp;lt;math&amp;gt;|a|\ne 1&amp;lt;/math&amp;gt; przy &amp;lt;math&amp;gt;n\rightarrow\infty&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
\sigma^2_{x[n]} \stackrel{n\rightarrow\infty}{\longrightarrow}  \frac{\sigma^2_\epsilon}{1-a^2} \;\;\; ; \;\;\;&lt;br /&gt;
\sigma_{x[n], x[n+\tau]} \stackrel{n\rightarrow\infty}{\longrightarrow}  \frac{\sigma^2_\epsilon a^\tau}{1-a^2}&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Autokowariancja&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
\rho(\tau) = \frac{ \sigma_{x[n], x[n+\tau]} }{ \sigma^2_{x[n]} }  \stackrel{n\rightarrow\infty}{\longrightarrow} a^{|\tau|}&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Proces jest asymptotycznie stacjonarny do rzędu 2, czyli wariancja&lt;br /&gt;
i średnia nie zależą od czasu.&lt;br /&gt;
&lt;br /&gt;
Dla &amp;lt;math&amp;gt;a=1&amp;lt;/math&amp;gt; proces ten obrazuje tzw. błądzenie przypadkowe.&lt;br /&gt;
&lt;br /&gt;
Na podstawie znajomości samego współczynnika &amp;lt;math&amp;gt;a&amp;lt;/math&amp;gt; modelu&lt;br /&gt;
AR(1) policzyliśmy np. funkcję autokorelacji modelu, co daje już&lt;br /&gt;
znajomość widma procesu&lt;br /&gt;
[[STAT:Twierdzenie_Wienera-Chinczyna|(z&lt;br /&gt;
tw. Wienera-Chinczyna)]]. Podobnie w procesach wyższych rzędów &amp;lt;xr&lt;br /&gt;
id=&amp;quot;eq:41&amp;quot;&amp;gt;(%i)&amp;lt;/xr&amp;gt; znajomość współczynników&lt;br /&gt;
&amp;lt;math&amp;gt;\{a_i\}_{i=1..M}&amp;lt;/math&amp;gt; daje nam dokładną wiedzę o własnościach&lt;br /&gt;
generowanych przez nie procesów, bez znajomości sygnału&lt;br /&gt;
&amp;lt;math&amp;gt;s[n]&amp;lt;/math&amp;gt;, którego wartości mogą różnić się w kolejnych&lt;br /&gt;
realizacjach ze względu na element stochastyczny &amp;amp;mdash; szum&lt;br /&gt;
&amp;lt;math&amp;gt;\epsilon&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
W praktyce analizy sygnału postępujemy odwrotnie &amp;amp;mdash; do konkretnej&lt;br /&gt;
realizacji dopasowujemy model AR. Głównym problemem jest wybór rzędu&lt;br /&gt;
modelu, estymacja współczynników &amp;lt;math&amp;gt;a_i&amp;lt;/math&amp;gt; najlepiej pasujących&lt;br /&gt;
do danego sygnału posiada stabilne rozwiązania.&lt;br /&gt;
&lt;br /&gt;
Jeśli dozwolimy, aby sygnał zależał również bezpośrednio od&lt;br /&gt;
poprzednich wartości szumu &amp;lt;math&amp;gt;\epsilon&amp;lt;/math&amp;gt;, dostajemy pełną&lt;br /&gt;
postać procesu ARMA(''L'',''M'') (ang. ''auto-regressive moving average''):&lt;br /&gt;
&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:42&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
\sum_{i=1}^L b_i\epsilon_{n-i} = \sum_{j=1}^M a_j s[n-j]&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&amp;lt;references/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{następny|STAT:Twierdzenie Wienera-Chinczyna}}&lt;/div&gt;</summary>
		<author><name>Jarekz</name></author>
		
	</entry>
</feed>