Szereg Fouriera: Różnice pomiędzy wersjami

Z Brain-wiki
Linia 36: Linia 36:
 
   
 
   
  
Całki po prawej stronie znikają dla <math>k \ne n</math>. Jedyny niezerowy  
+
Całki po prawej stronie znikają dla <math>k \ne n</math>.  
 +
 
 +
{| role="presentation" class="wikitable mw-collapsible mw-collapsed"
 +
| <strong>znikanie całki <math>\int_0^T e^{i{{2 \pi (k-n)}\over{T}} t}dt </math></strong>
 +
|- oznaczamy <math>m = k-n</math>
 +
lala
 +
 
 +
|
 +
|}
 +
 
 +
 
 +
 
 +
Jedyny niezerowy  
 
wyraz dla <math>k = n</math> wynosi <math>\int_0^T c_n dt</math>, czyli <math>c_n T</math> (bo <math>e^0=1</math>).  
 
wyraz dla <math>k = n</math> wynosi <math>\int_0^T c_n dt</math>, czyli <math>c_n T</math> (bo <math>e^0=1</math>).  
 
   
 
   

Wersja z 15:21, 9 paź 2024

AS/ Szereg Fouriera

Sygnał okresowy (o okresie [math]T[/math]) można przedstawić w postaci szeregu Fouriera:


[math] s(t) =\sum_{n=-\infty}^{+\infty} c_n e^{-i\frac{2\pi n}{T} t}, [/math]


gdzie

[math] c_{n} = \frac{1}{T}\int_{0}^{T} s(t) e^{i \frac{2\pi n}{T} t} d t [/math]


Dowód powyższego wzoru na współczynniki rozwinięcia Fouriera:


Mnożymy obie strony równania 1 przez [math]e^\frac{2\pi i k t}{T}[/math] i całkujemy po [math]dt[/math] od [math]0[/math] do [math]T[/math]:


[math] \int_0^T s(t) e^{{{2\pi i k t}\over{T}}} dt = \sum_{n=-\infty}^{+\infty} \int_0^T c_n e^{i{{2 \pi (k-n)}\over{T}} t}dt [/math]


Całki po prawej stronie znikają dla [math]k \ne n[/math].

lala


Jedyny niezerowy wyraz dla [math]k = n[/math] wynosi [math]\int_0^T c_n dt[/math], czyli [math]c_n T[/math] (bo [math]e^0=1[/math]).


Oznacza to, że każdą funkcję okresową możemy przedstawić w postaci sumy sinusów i kosinusów z odpowiednimi wagami — przypomnijmy [math]e^{i \phi} = \cos(\phi) + i \sin(\phi)[/math]. Wagi [math]c_n[/math] możemy traktować jako względny udział odpowiadających im częstości.


Tożsamość Parsevala dla szeregów Fouriera

[math] \frac{1}{T} \int_0^T \left| s(t) \right|^2 d t = \sum_{n=-\infty}^{\infty} \left| c_n \right|^2 [/math]


Dowód:

[math] \frac{1}{T} \int_0^T \left| s(t) \right|^2 d t =[/math]

[math] \frac{1}{T} \int_0^T s(t) \overline{s(t)} \,d t \; = [/math]

[math]\frac{1}{T} \int_0^T \left( \sum_{n=-\infty}^{+\infty} c_n e^{-i\frac{2\pi t}{T} n} \right) \left( \sum_{m=-\infty}^{+\infty} \overline{c_m} e^{i\frac{2\pi t}{T} m} \right) d t =[/math]


[math] \left\| \; \int_0^T e^{-i\frac{2\pi t}{T} n} e^{i\frac{2\pi t}{T} m}= \delta_{(m-n)} T \;\right\|\; =[/math]


[math]\sum_{n = -\infty}^{\infty} c_n \overline{c_n} \;\;= \sum_{n = -\infty}^{\infty} |c_n|^2 [/math]


Energia, moc, widmo

Jeśli sygnałem będzie np. prąd elektryczny, płynący w obwodzie o jednostkowej oporności w czasie od [math]0[/math] do [math]T[/math], to wytracona przez niego energia wyniesie [math]\int_0^T s(t)^2 d t[/math]. W ogólności, biorąc pod uwagę sygnały o wartościach zespolonych, całkowitą energię sygnału definiujemy jako [math]\int_{-\infty}^{\infty} | s(t) |^2 d t[/math]. Moc to oczywiście energia wytracana w jednostce czasu, czyli [math]\frac{1}{T}\int_{0}^{T} | s(t) |^2 d t[/math]. Jak widać z powyższego twierdzenia, dla sygnałów okresowych możemy ją również obliczać jako sumę kwadratów współczynników szeregu Fouriera [math]\sum c_n^2[/math]. Pozwala to interpretować [math]c_n^2[/math] jako moc, niesioną przez odpowiadającą mu częstość. Wykres tej wielkości w zależności od częstości nazywamy widmem mocy sygnału. Dla sygnału okresowego widmo mocy będzie dyskretne (patrz rysunek 1).

Wszystko to nie tyczy się li tylko sygnałów czysto okresowych; z sygnału nie-okresowego [math]s(t)[/math], określonego na skończonym przedziale [math][0, T][/math], możemy utworzyć sygnał okresowy [math]s_T(t)[/math]:

Klasyczna rys 1 5.jpg
[math]\begin{matrix} s_T(t)=s(t),\;t\in[0,T] \\ s_T(t+nT)=s(t),\;n=1,2,\ldots \end{matrix}[/math]

tożsamy z [math]s(t)[/math] w przedziale [math][0, T][/math], który można już przedstawić w postaci sumy 1.