<?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="pl">
	<id>http://brain.fuw.edu.pl/edu/index.php?action=history&amp;feed=atom&amp;title=STAT%3Awstep</id>
	<title>STAT:wstep - Historia wersji</title>
	<link rel="self" type="application/atom+xml" href="http://brain.fuw.edu.pl/edu/index.php?action=history&amp;feed=atom&amp;title=STAT%3Awstep"/>
	<link rel="alternate" type="text/html" href="http://brain.fuw.edu.pl/edu/index.php?title=STAT:wstep&amp;action=history"/>
	<updated>2026-04-16T15:52:23Z</updated>
	<subtitle>Historia wersji tej strony wiki</subtitle>
	<generator>MediaWiki 1.34.1</generator>
	<entry>
		<id>http://brain.fuw.edu.pl/edu/index.php?title=STAT:wstep&amp;diff=2968&amp;oldid=prev</id>
		<title>Jarekz: Utworzono nową stronę &quot;==Sygnał== W języku potocznym sygnał to [http://sjp.pwn.pl/lista.php?co=sygna%B3|''wszelki umowny znak o treści informacyjnej''].  Z kolei w ramach tego wykładu prz...&quot;</title>
		<link rel="alternate" type="text/html" href="http://brain.fuw.edu.pl/edu/index.php?title=STAT:wstep&amp;diff=2968&amp;oldid=prev"/>
		<updated>2015-05-28T11:02:07Z</updated>

		<summary type="html">&lt;p&gt;Utworzono nową stronę &amp;quot;==Sygnał== W języku potocznym sygnał to [http://sjp.pwn.pl/lista.php?co=sygna%B3|&amp;#039;&amp;#039;wszelki umowny znak o treści informacyjnej&amp;#039;&amp;#039;].  Z kolei w ramach tego wykładu prz...&amp;quot;&lt;/p&gt;
&lt;p&gt;&lt;b&gt;Nowa strona&lt;/b&gt;&lt;/p&gt;&lt;div&gt;==Sygnał==&lt;br /&gt;
W języku potocznym sygnał to [http://sjp.pwn.pl/lista.php?co=sygna%B3|''wszelki umowny znak o treści informacyjnej''].  Z kolei w ramach tego wykładu przez&lt;br /&gt;
''sygnał'' rozumieć będziemy funkcję (zależną zwykle od&lt;br /&gt;
czasu&amp;lt;ref&amp;gt;Uzyskane rezultaty nie zależą od fizycznej postaci&lt;br /&gt;
zmiennej zależnej (&amp;lt;math&amp;gt;t&amp;lt;/math&amp;gt;) i większość z nich stosowana jest np. w&lt;br /&gt;
analizie obrazów. &amp;lt;/ref&amp;gt;) &amp;lt;math&amp;gt;s(t)&amp;lt;/math&amp;gt;.  Czy mówimy o tym samym?&lt;br /&gt;
&lt;br /&gt;
Rozważmy przykładowe znaki umowne: czerwone światło na&lt;br /&gt;
skrzyżowaniu to docierająca do naszych oczu fala&lt;br /&gt;
elektromagnetyczna o długości ok. 0,0000007 metra;&lt;br /&gt;
znaczeniem tego sygnału jest &amp;quot;stój&amp;quot;.  Litery, które czytasz, to&lt;br /&gt;
pewien rozkład zaczernienia kartki, dający się niewątpliwie opisać&lt;br /&gt;
z pomocą funkcji matematycznych, gdyż w tej właśnie formie&lt;br /&gt;
przechodził kolejne etapy poprzedzające druk. Ich znaczenie...&lt;br /&gt;
&lt;br /&gt;
Wydaje się, że fizyczną postać informacji &amp;amp;mdash; umożliwiającą jej przekaz&lt;br /&gt;
czy przechowywanie &amp;amp;mdash; można nazwać sygnałem. A odwrotnie? Czy każdy&lt;br /&gt;
sygnał niesie ze sobą jakąś informację?  Owszem, tylko niekiedy może&lt;br /&gt;
ona być nieskończenie trudna do odczytania (dokładam wszelkich starań,&lt;br /&gt;
aby nie miało to miejsca w przypadku tego tekstu :-). A sygnały zupełnie&lt;br /&gt;
przypadkowe? Okazuje się, że nie są wcale powszechne ani łatwe do&lt;br /&gt;
wytworzenia &amp;lt;ref&amp;gt;Za sygnał przypadkowy możemy uznać sekwencję&lt;br /&gt;
liczb, przyjmującym wartości z określonego przedziału, np. od 0 do 1,&lt;br /&gt;
z jednakowym prawdopodobieństwem. Ponadto w takiej sekwencji nie&lt;br /&gt;
powinny występować ''żadne''  zależności między prawdopodobieństwem&lt;br /&gt;
&amp;quot;wylosowania&amp;quot; następnej liczby a wartościami poprzednich, gdyż w&lt;br /&gt;
nich właśnie może być zakodowana informacja. W przyrodzie znamiona&lt;br /&gt;
takiej przypadkowości noszą zjawiska związane z rozpadem&lt;br /&gt;
promieniotwórczym.&amp;lt;/ref&amp;gt;, więc właśnie całkowitą przypadkowość można uznać&lt;br /&gt;
za niesioną przez sygnał informację.&lt;br /&gt;
&lt;br /&gt;
==Analiza==&lt;br /&gt;
Informację niesioną przez milion liczb, wylosowanych niezależnie&lt;br /&gt;
spomiędzy 0 i 1, można przedstawić krócej niż przez wyliczenie ich&lt;br /&gt;
wszystkich &amp;amp;mdash; choćby tym właśnie zdaniem. Opis ten jest nie tylko&lt;br /&gt;
bardziej zwięzły niż przytaczanie miliona wartości, ale oddaje&lt;br /&gt;
jednocześnie najważniejsze ich cechy &amp;amp;mdash; ''istotę'' &lt;br /&gt;
sygnału. Zwięzłych, trafny i kompletny opis sygnałów występujących w&lt;br /&gt;
przyrodzie to właśnie Święty Graal analizy sygnałów.  Ta książka to&lt;br /&gt;
zaledwie zbiór wskazówek, które przy rozsądnym stosowaniu mogą nas&lt;br /&gt;
czasem doprowadzić w jego pobliże.&lt;br /&gt;
&lt;br /&gt;
Zastanówmy się więc, na czym właściwie ma polegać analiza czy opis&lt;br /&gt;
sygnału, w przypadku bardziej skomplikowanym niż przytoczony powyżej?&lt;br /&gt;
Sięgniemy raz jeszcze do [http://sjp.pwn.pl/|''Słownika języka polskiego'']:&lt;br /&gt;
&lt;br /&gt;
'''analiza''' 1. myślowe, pojęciowe wyodrębnienie cech,&lt;br /&gt;
części, lub składników badanego zjawiska lub przedmiotu; badanie cech&lt;br /&gt;
elementów lub struktury czegoś oraz zachodzących między nimi związków&lt;br /&gt;
(...)&lt;br /&gt;
&lt;br /&gt;
Skoncentrujmy się najpierw na &amp;quot;wyodrębnianiu części lub składników&amp;quot;.&lt;br /&gt;
Ilustrację tego podejścia stanowi rysunek &amp;lt;xr id=&amp;quot;fig:1&amp;quot;&amp;gt; %i&amp;lt;/xr&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
[[Plik:wstep_rys_1.jpg|thumb|center|600px|alt=Sumowanie sygnałów|&amp;lt;figure id=&amp;quot;fig:1&amp;quot;&amp;gt;&amp;lt;/figure&amp;gt; (a) = (b) + (c) + (d)&amp;lt;br/&amp;gt;(b)=&amp;lt;math&amp;gt;  0.3 \sin(2\pi 12 t)&amp;lt;/math&amp;gt; (sinus)&amp;lt;br/&amp;gt;(c)=&amp;lt;math&amp;gt; 0.7 e^{{-(t-0.8)^2}/{0.2}} \sin(2\pi 20 t)&amp;lt;/math&amp;gt; (funkcja Gabora)&amp;lt;br/&amp;gt; (d)=&amp;lt;math&amp;gt;0.5 \sin(2\pi\,2\, t\; t )&amp;lt;/math&amp;gt; (chirp)]]&lt;br /&gt;
&lt;br /&gt;
&amp;quot;Tajemnicę&amp;quot; konstrukcji sygnału z górnej części rysunku&lt;br /&gt;
&amp;lt;xr id=&amp;quot;fig:1&amp;quot;&amp;gt; %i&amp;lt;/xr&amp;gt; odkrywają wyrysowane pod nim funkcje składowe. Sygnał&lt;br /&gt;
(a) jest ich (liniową) sumą. Taki przypadek sygnału będącego liniową&lt;br /&gt;
kombinacją znanych funkcji możemy przedstawić ogólnie jako&lt;br /&gt;
&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:suma_syg&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
s(t) = \sum_{k} \alpha_k g_k&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
gdzie &amp;lt;math&amp;gt;\{g_i\}&amp;lt;/math&amp;gt; to zbiór &amp;quot;znanych&amp;quot; funkcji, a &amp;lt;math&amp;gt;\alpha_i&amp;lt;/math&amp;gt; to&lt;br /&gt;
współczynniki określające ich wkłady. W konkretnym przypadku sygnału z&lt;br /&gt;
rysunku &amp;lt;xr id=&amp;quot;fig:1&amp;quot;&amp;gt; %i&amp;lt;/xr&amp;gt; wyglądałyby one następująco:&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:zlozenie_sygnalow&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
\left \{&lt;br /&gt;
\begin{matrix}&lt;br /&gt;
\alpha_1 = 0.3, &amp;amp; g_1 = \sin(2 \pi 12 t)\\&lt;br /&gt;
\alpha_2 = 0.7,  &amp;amp;g_2 = e^{{-(t-0.8)^2}/{0.2}} \sin(2\pi 20 t)\\&lt;br /&gt;
\alpha_3 = 0.5, &amp;amp;g_3 =  \sin(2\pi\,2\, t\; t )&lt;br /&gt;
\end{matrix}&lt;br /&gt;
\right .&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Załóżmy, że interesująca nas w sygnale informacja została faktycznie&lt;br /&gt;
zakodowana według równania &amp;lt;xr id=&amp;quot;eq:suma_syg&amp;quot;&amp;gt;(%i)&amp;lt;/xr&amp;gt;. Niestety, dokładne&lt;br /&gt;
&amp;quot;odgadnięcie&amp;quot; reprezentacji typu równania &amp;lt;xr id=&amp;quot;eq:zlozenie_sygnalow&amp;quot;&amp;gt;(%i)&amp;lt;/xr&amp;gt; jest&lt;br /&gt;
w ogólnym przypadku &amp;amp;mdash; czyli w braku pewnej wiedzy a priori o sygnale&lt;br /&gt;
&amp;amp;mdash; niemożliwe. Już sam wybór ''rodzaju''  funkcji (np. sinusy i&lt;br /&gt;
kosinusy) jest nieskończenie trudny &amp;amp;mdash; wszak różnych funkcji jest&lt;br /&gt;
nieskończenie wiele! Nawet gdy już zdecydujemy, jakiego rodzaju&lt;br /&gt;
funkcje powinny najlepiej opisywać analizowany sygnał, to dobranie ich&lt;br /&gt;
parametrów wciąż pozostaje poważnym problemem (patrz np. rozdział [[STAT:Reprezentacje_przybliżone#Przybliżenia_adaptacyjne(adaptive_approximations)|o algorytmie Matching Pursuit]]).&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Ale analiza to również &amp;quot;badanie cech elementów lub struktury (...)&lt;br /&gt;
oraz zachodzących między nimi związków&amp;quot;.  Możemy pokusić się o&lt;br /&gt;
ustalenie związku między wartością sygnału w danej chwili i w chwilach&lt;br /&gt;
poprzednich, w postaci zależności liniowej -- takie założenie realizuje [[STAT:Klasyczna#Model_AR|opisany w jednym z następnych rozdziałów model AR]]:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:zal_lin&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
s(t) = \alpha_1 s(t - \Delta t) + \alpha_2 s(t -2\Delta t) + \alpha_3 s(t - 3 \Delta t) + ...&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Jeśli weźmiemy pod uwagę czynniki przypadkowe, jak np. niedokładność&lt;br /&gt;
pomiarów, do równań &amp;lt;xr id=&amp;quot;eq:suma_syg&amp;quot;&amp;gt;(%i)&amp;lt;/xr&amp;gt; i &amp;lt;xr&lt;br /&gt;
id=&amp;quot;eq:zal_lin&amp;quot;&amp;gt;(%i)&amp;lt;/xr&amp;gt; należy dodać element stochastyczny &amp;amp;mdash; nie&lt;br /&gt;
podlegający opisowi w ramach modelu szum &amp;lt;math&amp;gt;\epsilon&amp;lt;/math&amp;gt;&lt;br /&gt;
([[STAT:Reprezentacje przybliżone|patrz rozdział o reprezentacjach przybliżonych]]):&lt;br /&gt;
&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:suma_z_szumem&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\begin{matrix}&lt;br /&gt;
s(t) = \sum_{k=0}^{M} \alpha_k g_k + \epsilon_M \\&lt;br /&gt;
s(t) = \sum_{k=0}^{M} \alpha_k s (t - k \Delta t) + \epsilon_t&lt;br /&gt;
\end{matrix}&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Na koniec zauważmy, że zaproponowane dotychczas modele mają postać&lt;br /&gt;
liniowych sum.  Uwzględnienie nieliniowości otwiera nowe, nie&lt;br /&gt;
uwzględnione w tej książce rozdziały, jak np. chaos deterministyczny,&lt;br /&gt;
fraktale...&lt;br /&gt;
&lt;br /&gt;
==Sygnały ciągłe i dyskretne==&lt;br /&gt;
&lt;br /&gt;
Wartości akcji w chwilach zamknięcia kolejnych sesji giełdy tworzą&lt;br /&gt;
sygnał z natury dyskretny.  Jednak w przyrodzie większość stanowią&lt;br /&gt;
sygnały ciągłe, jak dźwięk (zmiany ciśnienia powietrza w czasie) czy&lt;br /&gt;
elektroencefalogram ([[EEG|EEG, potencjał elektryczny mózgu mierzony z&lt;br /&gt;
powierzchni czaszki]]). Niezależnie od tego, współczesna analiza&lt;br /&gt;
sygnałów odnosi się w praktyce głównie do sygnałów&lt;br /&gt;
dyskretnych. &amp;quot;Winne&amp;quot; są oczywiście komputery, urządzenia z natury&lt;br /&gt;
cyfrowe, czyli &amp;quot;rozumiejące&amp;quot; wyłącznie dyskretne wartości. Zastanówmy&lt;br /&gt;
się nad wynikającymi stąd korzyściami i stratami.&lt;br /&gt;
&lt;br /&gt;
Jeśli sygnał z natury ciągły (np. dźwięk) zdecydujemy się analizować&lt;br /&gt;
lub przechowywać w formie cyfrowej, to ciągłą funkcję (np. ciśnienia&lt;br /&gt;
powietrza) w czasie musimy zastąpić jej wartościami zmierzonymi w&lt;br /&gt;
określonych (najlepiej jednakowych) odstępach czasu, jak na&lt;br /&gt;
rys. &amp;lt;xr id=&amp;quot;fig:7&amp;quot;&amp;gt; %i&amp;lt;/xr&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
[[Plik:wstep_rys_2.jpg|thumb|center|600px|alt=próbkowanie zmienia ciągłys sygnał| &amp;lt;figure id=&amp;quot;fig:7&amp;quot;&amp;gt;&amp;lt;/figure&amp;gt; Próbkowanie zamienia ciągły sygnał&lt;br /&gt;
(a) na punkty (b) o współrzędnych w chwilach&lt;br /&gt;
próbkowania i odpowiadających im wartościach sygnału ciągłego. Jeśli dysponujemy tylko&lt;br /&gt;
sygnałem próbkowanym (b), to możemy &amp;quot;uzupełnić&amp;quot; wartości spomiędzy próbek&lt;br /&gt;
przyjmując, że sygnał pomiędzy nimi jest np. liniowy (c) lub&lt;br /&gt;
stały od poprzedniego punktu (d) &amp;amp;mdash; widzimy rozbieżności z sygnałem oryginalnym (a).&lt;br /&gt;
Faktyczną reprezentacją funkcji po próbkowaniu jest ciąg liczb (e) plus znajomość odstępu próbkowania &amp;lt;math&amp;gt;\Delta t&amp;lt;/math&amp;gt;. Optymalny sposób odzyskania wartości spomiędzy&lt;br /&gt;
próbek, jeśli próbkowanie przeprowadzono zgodnie z regułami sztuki, podaje [[STAT:Klasyczna#Twierdzenie_o_pr.C3.B3bkowaniu| rozdział o próbkowaniu]]]]&lt;br /&gt;
&lt;br /&gt;
Przy przejściu z reprezentacji ciągłej (rys. &amp;lt;xr id=&amp;quot;fig:7&amp;quot;&amp;gt; %i&amp;lt;/xr&amp;gt; a) do dyskretnej (b) tracimy informację o&lt;br /&gt;
wartościach sygnału pomiędzy próbkami, a naiwne próby ich rekonstrukcji (c i d)&lt;br /&gt;
znacznie odbiegają od oryginału (a).&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Plik:wstep_rys_3.jpg|thumb|center|600px|alt=próbkowanie zmienia ciągłys sygnał| &amp;lt;figure id=&amp;quot;fig:8&amp;quot;&amp;gt;&amp;lt;/figure&amp;gt; Próbkowane z częstością 1 oscylacje o częstościach ''f'', od góry: 1,3, 1, 0,5 i 0,3.&lt;br /&gt;
Sinusa o częstości 0,3 można odtworzyć dokładnie z samych wartości dyskretnych (kropki),&lt;br /&gt;
podobnie dla granicznej częstości 0,5. Natomiast próbkowane z tą samą częstością szybsze&lt;br /&gt;
oscylacje wprowadzają przekłamania &amp;amp;mdash; widoczna na samej górze oscylacja o częstości 1,3&lt;br /&gt;
daje w chwilach próbkowania wartości ''dokładnie takie same''  jak sygnał na dole.&lt;br /&gt;
Zjawisko to nosi nazwę ''aliasingu''  ([[STAT:Klasyczna#Przekszta.C5.82cenie_Fouriera_sygna.C5.82.C3.B3w_dyskretnych.2C_aliasing | porównaj)]].]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Pomimo tego, cyfrowy zapis dźwięku (płyty CD)&lt;br /&gt;
zastąpił całkowicie&lt;br /&gt;
analogowe &amp;quot;czarne płyty&amp;quot; z winylu &amp;amp;mdash; dlaczego?&lt;br /&gt;
&amp;lt;ref&amp;gt;&lt;br /&gt;
Odpowiedź nie kryje się (niestety) w niższej cenie nośnika. Pomimo, że&lt;br /&gt;
technologia cyfrowa faktycznie pozwala na znacznie tańszą produkcję (tj.&lt;br /&gt;
powielanie) przy zachowaniu wysokiej jakości &amp;amp;mdash; jak wyjaśnimy za chwilę &amp;amp;mdash; to&lt;br /&gt;
jednak cena średnio dwukrotnie wyższa niż cena odp. płyty winylowej, która w&lt;br /&gt;
pierwszym okresie była uzasadniona wysokimi kosztami  wprowadzania nowej&lt;br /&gt;
technologii, po jej rozpowszechnieniu pozostała na wywindowanym poziomie,&lt;br /&gt;
podwajając zyski wytwórni fonograficznych&amp;lt;/ref&amp;gt;&lt;br /&gt;
* Po pierwsze, przy pewnych dodatkowych założeniach o sygnale ciągłym  &amp;lt;math&amp;gt;s(t)&amp;lt;/math&amp;gt;, możliwe jest jego ''dokładne''  odtworzenie z dyskretnej sekwencji  próbek, jeśli odstęp próbkowania &amp;lt;math&amp;gt;\Delta t&amp;lt;/math&amp;gt; dobrano odpowiednio dla danego  sygnału. Mówi o tym twierdzenie Nyquista.&lt;br /&gt;
* Po drugie, zapis cyfrowy umożliwia korekcję błędów.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===Zapis cyfrowy i korekcja błędów===&lt;br /&gt;
Aby zrozumieć, dlaczego łatwość korekcji błędów związana jest z&lt;br /&gt;
zapisem cyfrowym, przyjrzyjmy się bliżej analogowym i cyfrowym zapisom&lt;br /&gt;
dźwięku.  Na płycie analogowej dźwięk kodowany jest w zmiennym&lt;br /&gt;
wyżłobieniu rowka, w którym przemieszcza się igła gramofonu. W&lt;br /&gt;
przybliżeniu możemy wyobrazić sobie, że &amp;quot;podskok&amp;quot; igły w większym&lt;br /&gt;
wgłębieniu rowka odwzorowywany jest jako większe wychylenie membrany&lt;br /&gt;
głośnika (po zamianie w impuls elektryczny i przejściu przez&lt;br /&gt;
wzmacniacz). Tak więc wyżłobienie rowka płyty oryginalnie odwzorowuje&lt;br /&gt;
dokładnie zapisany dźwięk. Jego zarysowanie lub zabrudzenie wprowadzi&lt;br /&gt;
przy odtwarzaniu zakłócenia (zwykle trzaski).  Jednoznaczne&lt;br /&gt;
rozróżnienie, które z wyżłobień rowka winylowej płyty odzwierciedlają&lt;br /&gt;
oryginalny zapis muzyki, a które powstały skutkiem uszkodzeń, jest&lt;br /&gt;
właściwie niemożliwe, dlatego też muzyka ze starych płyt kojarzy nam&lt;br /&gt;
się z obecnością trzasków i szumu.&amp;lt;ref&amp;gt;Tak naprawdę sprawa nie&lt;br /&gt;
jest beznadziejna:&lt;br /&gt;
* część zakłócen pochodzi z zanieczyszczeń; w tym przypadku zwykle  pomaga delikatne czyszczenie płyty.&lt;br /&gt;
* Do pozostałych zakłóceń, których nie da się usunąć mechanicznie, stosuje  się potężną metodologię analizy sygnałów (będącą przedmiotem następnych  rozdziałów), która pomaga zgadnąć, które dźwięki w zapisie mogą pochodzić z  zakłóceń. Zwykle jednak nie da się usunąć dokładnie wszystkich zakłóceń bez  naruszenia brzmienia oryginału.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
W przypadku zapisu cyfrowego możemy w prosty sposób ''wykryć''  fakt wystąpienie zakłóceń. Wyobraźmy sobie, że zapisujemy muzykę jako szereg liczb, opisujących amplitudę fali dźwiękowej mierzoną w ustalonych odstępach czasu (rys. &amp;lt;xr id=&amp;quot;fig:9&amp;quot;&amp;gt;&amp;lt;/xr&amp;gt;; dla płyty kompaktowej &amp;lt;math&amp;gt;\Delta t = 1/44 100&amp;lt;/math&amp;gt; sekundy).  Ponieważ urządzenie, które będzie zamieniać ten zapis z powrotem na muzykę, i tak musi być swego rodzaju specjalizowanym komputerem (odtwarzaczem&lt;br /&gt;
CD), to do programu odtwarzającego możemy wprowadzić pewną modyfikację. Umówmy się dla przykładu, że z każdych dziesięciu kolejnych liczb, do zapisu muzyki będziemy wykorzystywać tylko&lt;br /&gt;
dziewięć, a ostatnią będziemy dobierać tak, żeby suma kolejnych dziesięciu liczb zawsze wynosiła np. milion.&lt;br /&gt;
&lt;br /&gt;
[[Plik:wstep_rys_4.jpg|thumb|center|600px|alt=digitalizacja sygnału analogowego|&amp;lt;figure id=&amp;quot;fig:9&amp;quot;&amp;gt;&amp;lt;/figure&amp;gt; Od góry: ciągły (analogowy) zapis fali dźwiękowej, poniżej próbkowanie, czyli wybór chwil, w których ją mierzymy, dalej zamiana zmierzonych wartości na liczby i liczb na bity. Pasek na dole może być np. fragmentem ścieżki na płycie CD: białe pola (zera) odbijają światło lasera, a czarne (jedynki) nie.]]&lt;br /&gt;
&lt;br /&gt;
Taki sposób zapisu wprowadza redundancję, czyli&lt;br /&gt;
nadmiar informacji w zapisie, ponieważ przy prawidłowym odczycie&lt;br /&gt;
wystarczyłoby znać dziewięć kolejnych liczb, aby wyznaczyć dziesiątą&lt;br /&gt;
(jako milion minus suma pozostałych dziewięciu).  Jednak jeśli&lt;br /&gt;
wczytamy z takiego zapisu wszystkie liczby, i suma którejś dziesiątki&lt;br /&gt;
okaże się inna niz milion, to mamy pewność, że w tym miejscu wystąpił&lt;br /&gt;
błąd.&amp;lt;ref&amp;gt;Ale poprawna suma nie daje gwarancji, że błędu nie ma.&lt;br /&gt;
W jednej dziesiątce mogą wystąpić np. dwa jednakowe błędy o&lt;br /&gt;
przeciwnych znakach i suma pozostanie niezmieniona. Dlatego sumy&lt;br /&gt;
kontrolne liczy się w bardziej wyrafinowany sposób (np. CRC --&lt;br /&gt;
''Cyclic Redundancy Check'' ) &amp;lt;/ref&amp;gt; Taka informacja jest bardzo cenna:&lt;br /&gt;
* Jeśli ''jesteśmy pewni'' , że nagły skok amplitudy w kilku kolejnych  próbkach jest wynikiem błędu zapisu, a nie efektem zamierzonym przez muzyka, to  możemy ten skok &amp;quot;przemilczeć&amp;quot;, czyli np. zastąpić &amp;quot;popsute&amp;quot; próbki średnią  wartością poprzednich.&lt;br /&gt;
* Możemy zwiększyć redundancję i zapisać dwie jednakowe kopie;  jeśli uszkodzeniu ulegnie fragment pierwszej kopii, program może  automatycznie sięgnąć do odpowiedniego fragmentu drugiej  kopii&amp;lt;ref&amp;gt;Prawdopodobieństwo wystąpienia uszkodzeń w tych samych  fragmentach dwóch zapisów jest już bez porównania mniejsze niż  pojedynczego uszkodzenia. Sposobem wprowadzania nadmiarowości, który  minimalizuje prawdopodobieństwo wystąpienia takich pechowych  przypadków, rządzi dość złożona matematyka z pogranicza statystyki,  której nie będziemy tu omawiać. W każdym razie, dwie jednakowe kopie  umieszczone jedna za drugą zwykle nie okazują się rozwiązaniem  otymalnym.&amp;lt;/ref&amp;gt;.   &lt;br /&gt;
* W przypadku transmisji przez modem, program może zażądać powtórnego  przesłania uszkodzonego fragmentu.&lt;br /&gt;
&lt;br /&gt;
Niezależnie od tych korzyści, jeśli chcemy analizować sygnały z pomocą&lt;br /&gt;
komputera ''(maszyny cyfrowej)'', i tak jesteśmy &amp;quot;skazani&amp;quot; na&lt;br /&gt;
pracę z ich dyskretną formą.&lt;br /&gt;
&lt;br /&gt;
Mimo tego, większość ogólnych twierdzeń będziemy rozważać w&lt;br /&gt;
przestrzeni funkcji ciągłych &amp;amp;mdash; o ile nie tyczą się ''explicite'' &lt;br /&gt;
efektów próbkowania. Teoria funkcji ciągłych jest asymptotycznie&lt;br /&gt;
zgodna z wynikami dla sekwencji dyskretnych &amp;amp;mdash; dla odstępu próbkowania&lt;br /&gt;
dążącego do zera. Jej rezultaty, prostsze pojęciowo i łatwiejsze do&lt;br /&gt;
wyprowadzenia, są wystarczająco dokładne by wyjaśnić ogólne własności&lt;br /&gt;
dyskretnych obliczeń.&lt;br /&gt;
&lt;br /&gt;
W uzasadnionych przypadkach będziemy oczywiście dyskutować efekty&lt;br /&gt;
próbkowania; w takich sytuacjach będziemy rozróżniać sygnał ciągły&lt;br /&gt;
&amp;lt;math&amp;gt;s(t)&amp;lt;/math&amp;gt; od dyskretnej sekwencji &amp;lt;math&amp;gt;s[n]&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
[[TI:Technologia_Informacyjna/Cyfrowy_świat| Podobne tematy opisuje rozdział &amp;quot;Cyfrowy Świat&amp;quot;]] z podręcznika Technologii Informacyjnej.&lt;br /&gt;
&lt;br /&gt;
{{następny|STAT:Systemy_liniowe_niezmiennicze_w_czasie_(LTI)}}&lt;br /&gt;
&amp;lt;references/&amp;gt;&lt;/div&gt;</summary>
		<author><name>Jarekz</name></author>
		
	</entry>
</feed>