Matematyka:Matematyka II NI/Równania różniczkowe

Z Brain-wiki

W. I. Arnold — wielkiej klasy matematyk — zauważył, że:

Główne odkrycie Newtona, to, którego zdecydował się nie ujawniać i opublikował

tylko w postaci anagramu, brzmi: Data aequatione quodcunque fluentes quantitiae involvente fluxiones invenire et vice versa. W tłumaczeniu [z łaciny i] na współczesny język matematyki oznacza

to, że Rozwiązywanie równań różniczkowych jest rzeczą pożyteczną.

Tak się składa, że ogromna większość praw fizyki sformułowana jest jako równania różniczkowe. Pierwsze z brzegu przykłady to: Prawo Newtona [math]f=ma[/math], równania Maxwella, równanie Schrödingera. Aby wydobyć fizyczną treść z równania, trzeba je umieć rozwiązać lub zbadać jego własności. Niniejszy rozdział jest wstępem do tego.


Ogólnikowa definicja

Niech [math]F[/math] będzie funkcją [math]n+1[/math] zmiennych, zaś [math]y[/math] niech będzie funkcją jednej zmiennej [math]x[/math]. Równanie

[math] F(x,y,y^{\prime },\dots , y^{(n)}=0 [/math]

(gdzie [math]y^{(k)} = \frac{{\sf d}^k y}{{\sf d}x^k}[/math]) nazywamy równaniem różniczkowym zwyczajnym. Każdą funkcję [math]y(x)[/math], która po wstawieniu do tego równania spełnia je tożsamościowo, nazywamy rozwiązaniem równania różniczkowego.

Tak sformułowany problem jest bardzo ogólny i bardzo trudny — w tej chwili dalecy jesteśmy od jego pełnego rozwiązania. Będziemy zaczynać od szczególnych przypadków, o których da się więcej powiedzieć.

Garść przykładów

Zanim podamy formalne definicje, podamy najsampierw garść przykładów, które Czytelnik najprawdopodobniej już zna, nie będąc może jedynie obeznajomionym z terminologią.

    1. Znaleźć funkcję [math]x(t)[/math], spełniającą równanie:
      [math]\frac{{\sf d}x}{{\sf d}t}=f(t), [/math]

      gdzie [math]f(t)[/math] jest zadaną funkcją. Rozwiązanie problemu każdy umie znaleźć (a przynajmniej powinien):

      [math]x(t)=\int f(t) {\sf d}t + C, \;\;\;\;\;C [/math] — dowolna stała. </math>

      W języku najbardziej chyba typowego przykładu z fizyki: Rozpatrujemy ruch punktu materialnego po prostej. Niech [math]f(t)[/math] jest prędkością punktu w chwili [math]t[/math]. Szukamy zależności drogi od czasu.

    2. Możemy też mieć do czynienia z nieco innym postawieniem problemu: Znaleźć rozwiązanie zagadnienia (%i 1) zakładając, że [math]x(t_0) = x_0[/math] — dane. (W języku fizyki, zakładamy, że w danej chwili czasu [math]t_0[/math] punkt materialny znajduje się w określonym położeniu [math]x_0=x(t_0)[/math]). Wtedy rozwiązanie (%i 2) jest już jednoznaczne — stała [math]C[/math] przybiera określoną wartość.
  1. Rozpad promieniotwórczy. Szybkość rozpadu promieniotwórczego próbki jest proporcjonalna do jej masy. Można więc zapisać:
    [math]\frac{{\sf d}m}{{\sf d}t} = - k m;[/math]

    (gdzie [math]k[/math] jest dodatnią stałą); chcemy znaleźć zależność masy próbki od czasu.

    Rozważmy ogólniejszy problem: Znaleźć funkcję [math]x(t)[/math], spełniającą równanie:

    [math]\frac{{\sf d}x}{{\sf d}t} = g(x). [/math]

    Tu wygodniej jest szukać nie [math]x(t)[/math], a funkcji odwrotnej [math]t(x)[/math]. Pamiętając, że pochodna funkcji odwrotnej [math]\frac{{\sf d}t}{{\sf d}x}[/math] wyraża się przez pochodną [math]\frac{{\sf d}x}{{\sf d}t}[/math] wzorem: [math]\frac{{\sf d}t}{{\sf d}x} = \frac{1}{\frac{{\sf d}x}{{\sf d}t}}[/math], mamy:

    [math]\frac{{\sf d}t}{{\sf d}x} = \frac{1}{g(x)}, [/math]

    co daje

    [math]t(x)= \int \frac{1}{g(x)} {\sf d}x + C,\;\;\;\;\;C [/math] — dowolna stała.

    (Powyższą procedurę można zapamiętać za pomocą sztuczki mnemotechnicznej, polegającej na potraktowaniu lewej strony równania (%i 4) jako ułamka i przekształceniu go do postaci: [math]{\sf d}t = \frac{{\sf d}x}{g(x)}[/math] i obłożeniu obu stron znakiem całki, co daje (%i 6). Ten sposób postępowania należy traktować WYłąCZNIE jako sztuczkę mnemotechniczną, bo pochodna nie jest ułamkiem, a całościowym wyrażeniem).

    Rozwiązując w ten sposób równanie (%i 3), mamy

    [math] t = -k \int \frac{1}{m}{\sf d}m = -k \ln m + C, [/math]

    co przekształcamy do postaci

    [math] m(t) = e^C e^{-kt} [/math]

    zatem masa próbki wykładniczo maleje w czasie. Jest to ogólne rozwiązanie problemu. Gdy mamy do czynienia z konkretnym warunkiem początkowym, tzn. warunkiem, że masa próbki w danej chwili czasu (powiedzmy [math]t=0[/math]) jest równa [math]m_0[/math], mamy

    [math] m(t)=m_0 e^{-kt} [/math]
  2. Omawiane dotąd przykłady miały jedną cechę wspólną: Istniało jednoznaczne rozwiązanie równania z zadanym warunkiem początkowym. Istnieją jednak sytuacje, w których jednoznaczność nie ma miejsca. Rozważmy równanie:
    [math]\frac{{\sf d}x}{{\sf d}t}=x^{\frac{1}{3}}[/math]

    z warunkiem początkowym [math]x(0)=0[/math].

    Rozwiązanie ogólne równania jest proste do uzyskania:

    [math] t=\int x^{-\frac{1}{3}} {\sf d}x = \frac{3}{2} x^\frac{2}{3} + C, [/math]

    skąd, uwzględniając warunek początkowy

    [math] x(t) = \left(\frac{2}{3} t \right)^\frac{3}{2}. [/math]

    Ale też! Funkcja [math]x(t)=0[/math] spełnia zarówno równanie (%i 7) jak i warunek początkowy [math]x(0)=0[/math]. Rozwiązanie zatem nie jest jednoznaczne. Niedługo zobaczymy, przy jakich warunkach istnienie i jednoznaczność rozwiązania mają miejsce.

Algorytmy rozwiązywania niektórych równań pierwszego rzędu

(Prawie) najogólniejsza postać równania pierwszego rzędu to

[math]y^{\prime }= F(x, y)[/math]

gdzie [math]F[/math] jest daną funkcją ciągłą. Szukamy funkcji [math]y(x)[/math], która spełnia równanie (%i 8).

  1. Rownanie o zmiennych rozdzielonych. Nazywamy tak sytuację, gdy [math]F(x,y)=\frac{f(x)}{g(y)}[/math], gdzie [math]f,g[/math] — funkcje ciągłe. Wtedy równanie (%i 8) przyjmuje postać
    [math] y^{\prime }(x)=\frac{f(x)}{g(y)} [/math]
    Zapiszmy je w postaci:
    [math] g(y(x))\cdot y^{\prime }(x)=f(x). [/math]
    Niech [math]F,G[/math] będą funkcjami pierwotnymi do [math]f[/math] i [math]g[/math] odpowiednio (tzn. [math]F^{\prime }(x)=f(x)[/math], [math]G^{\prime }(y)=g(y)[/math]). Wtedy powyższe równanie można zapisać
    [math] (G(y(x)))^{\prime }=F^{\prime }(x) [/math]
    co daje
    [math] G(y(x))=F(x) + C; [/math]
    rozwiązanie jest więc dane w postaci uwikłanej. Po odwróceniu [math]G[/math] (jeśli się to da zrobić) mamy
    [math] y^{\prime }(x)=G^{-1}(F(x)+C) [/math]
    Przykł. Podajmy ogólne rozwiązanie równania
    [math] y^{\prime }=\frac{e^{-x}}{y}; \;\;[/math] zakładamy, że [math]\;y\gt 0 [/math]
    Postępując jak powyżej, mamy
    [math] y\cdot y^{\prime }=e^{-x}\;\;\mathrm{ lub }\; y\frac{{\sf d}y}{{\sf d}x} = e^{-x},\;\;[/math] co daje
    [math] \int y {\sf d}y = \int e^{-x}{\sf d}x, [/math]
    [math] \frac{1}{2} y^2 = -e^{-x}+C, \;\;\mbox{ czyli }\;\; y^2(x)=-2e^{-x}+C [/math]
    i ostatecznie
    [math] y(x)=\sqrt{C-2e^{-x}}. [/math]
    Uwaga. Do klasy równań o zmiennych rozdzielonych należą dwa pierwsze przykłady z poprzedniej Subsection.
  2. Rownanie jednorodne. Nazywamy tak równanie (%i 8), gdzie prawa strona jest funkcją zależącą tylko od [math]\frac{y}{x}[/math]:
    [math]y^{\prime }=F(\frac{y}{x}) [/math]

    Rozwiązanie otrzymujemy podstawiając zamiast [math]y[/math] nową zmienną [math]u[/math], zdefiniowaną jako

    [math] u=\frac{y}{x} [/math]

    Mamy wtedy:

    [math] y(x)= u(x) x, \;\;\;\;\;y^{\prime }(x)=u^{\prime }(x) x + u(x) [/math]

    i wstawiając to do równania (%i 9), otrzymujemy

    [math] x u^{\prime } + u = F(u),\;\;\;\mbox{ co daje }\;\;\;u^{\prime }=\frac{F(u)-u}{x} [/math]

    co jest równaniem o zmiennych rozdzielonych. Całkując je otrzymamy

    [math]\int \frac{{\sf d}u}{F(u)-u} = \int \frac{{\sf d}x}{x} =\ln x +C [/math]

    Przykł. Rozwiążmy równanie:

    [math] y^{\prime }=\frac{y^2}{x^2}-2. [/math]

    Podstawiając standardowo [math]y = u x[/math], otrzymamy:

    [math] u+xu^{\prime }=u^2-2, \;\;\;\mbox{ tzn. }\;\;\;u^{\prime }=\frac{u^2-u-2}{x} [/math]

    i całkując, otrzymujemy:

    [math] \int \frac{{\sf d}x}{x} = \ln x + c = \int \frac{{\sf d}u}{u^2-u-2} = \frac{1}{3}\int \left( \frac{1}{u-2} - \frac{1}{u+1} \right){\sf d}u = \ln \left(\sqrt[3]{\frac{u-2}{u+1}}\right), [/math]

    i wracając do zmiennej [math]y[/math], dostajemy rozwiązanie w postaci

    [math] Cx^3=\frac{y-2x}{y+x}. [/math]

    bądź, gdybyśmy chcieli mieć rozwiązanie w postaci nieuwikłanej,

    [math] y=\frac{Cx^3+2}{1-Cx} x. [/math]


  3. Równanie liniowe. Nazywamy tak równanie
    [math]y^{\prime } - p(x) y = b(x) [/math]

    gdzie [math]p,b[/math] — zadane funkcje. Gdy [math]b(x)\equiv 0[/math], to równanie powyższe nazywamy jednorodnym; w przeciwnym wypadku mówimy o równaniu niejednorodnym.

    Uwaga. Sprawdza się natychmiastowo, że jeśli [math]y_1(t), y_2(t)[/math] — dwa rozwiązania równania jednorodnego, to ich suma też jest rozwiązaniem; ponadto, jeśli jakieś rozwiązanie pomnoży się przez stałą, to również otrzymuje się rozwiązanie. To pokazuje, że rozwiązania równania jednorodnego są przestrzenią wektorową. Jej wymiar jest równy 1 — co za chwilę zobaczymy.

    Ogólny przypadek równania (%i 11) — równania niejednorodnego — rozwiązuje się w dwóch etapach. Pierwszy z nich to rozwiązanie ogólne równania jednorodnego. Drugi, to uzyskanie jakiegoś (tzw. szczególnego) rozwiązania równania niejednorodnego. Ogólne rozwiązanie równania niejednorodnego będzie sumą powyższych dwu rozwiązań.

    1. Rozwiązanie ogólne równania jednorodnego (RORJ). Mamy
      [math] y^{\prime }-p(x)y=0, [/math]
      co jest równaniem o rozdzielonych zmiennych. Mamy
      [math] \int \frac{{\sf d}y}{y} = \ln y =\int p(x) {\sf d}x+c, [/math]
      i oznaczając: [math]\int p(x){\sf d}x = P(x)[/math] oraz [math]e^c=C[/math], mamy
      [math] y_{OJ}=C e^{P(x)}, [/math]
      gdzie [math]C[/math] — dowolna stała, a [math]OJ[/math] — 'Ogólne Jednorodne'.
    2. Rozwiązanie szczególne równania niejednorodnego (RSRN). Znajdowanie tego rozwiązania odbywa się za pomocą tzw. metody uzmienniania stałej. Polega ona na tym, iż zakładamy, że rozwiązanie równania niejednorodnego jest postaci [math]y_{SN} = C(x) e^{P(x)}[/math] Zakładając tę postać, wstawiamy ją do równania (%i 11) i mamy
      [math] C^{\prime }(x) e^{P(x)} + C(x) P^{\prime }(x) e^{P(x)} -p(x)C(x) e^{P(x)} =b(x), [/math]
      a że [math]P^{\prime }(x) = p(x)[/math], to drugi i trzeci wyraz z lewej strony się kasują i dostajemy
      [math] C^{\prime }(x) e^{P(x)} = b(x), [/math]
      skąd
      [math] C(x) = \int b(x) e^{-P(x)}{\sf d}x. [/math]
      Można zapytać, dlaczego przy całkowaniu nie dopisaliśmy kolejnej dowolnej stałej? Otóż dlatego, że dopisanie tej stałej prowadziłoby do dodania do [math]y_N[/math] wyrazu proporcjonalnego do równania jednorodnego, a więc nie prowadziłoby do rozwiązania ogólniejszego, niż już mamy. Ostatecznie mamy wzór na rozwiązanie równania (%i 11)
      [math]y(x) = y_{OJ}+y_{SN}=C e^{P(x)} + \int b(x) e^{-P(x)}{\sf d}x [/math]

      gdzie [math]C[/math] — dowolna stała.

    Przykł. Znajdźmy ogólne rozwiązanie równania

    [math]y^{\prime }+\frac{1}{x} y =\frac{e^x}{x}. [/math]

    [math]\bullet \;[/math]RORJ: Równanie jednorodne: [math]y^{\prime }+\frac{1}{x}y=0[/math] jest równaniem o zmiennych rozdzielonych. Mamy:

    [math] \int \frac{{\sf d}y}{y}= -\frac{{\sf d}x}{x}, \;\;\;[/math] skąd [math]\;\;\ln y = - \ln x + c\;\;\; \mbox{ co daje }\;\;\;y_{OJ}=\frac{C}{x}\;\;\;(\mbox{gdzie} \;\; C=e^c) [/math]

    [math]\bullet \;[/math][math]\bullet \;[/math]RSRN: Uzmienniamy stałą [math]C[/math] tzn. przyjmujemy, że jest ona funkcją [math]x[/math]. Mamy: [math]y_{SN}=\frac{C(x)}{x}[/math], co po wstawieniu do wyjściowego równania (%i 13) daje, po kilku skróceniach: [math]C^{\prime }(x)=e^x[/math], skąd [math]C(x)=e^x[/math]; tak więc

    [math]\bullet \;[/math][math]\bullet \;[/math][math]\bullet \;[/math]RORN:

    [math] y=\frac{C}{x} + \frac{e^x}{x}. [/math]

Równania 2. rzędu: Obniżenie rzędu równania — parę sztuczek

 

[math] y^{\prime \prime }=F(x) [/math]
Przykł.

Ruch ze stałym przyspieszeniem [math]a[/math]. Dwie stałe całkowania mają sens fizyczny prędkości oraz położenia początkowego: [math]x(t)=\frac{1}{2}at^2 + v_0 t + x_0[/math].

 

[math] y^{\prime \prime }=F(y^{\prime }) [/math]

 

[math] y^{\prime \prime }=F(y) [/math]
Przykł.

Obniżenie rzędu dla równania Newtona z siłą gradientową: [math]f= ma[/math], tzn.

[math] m x^{\prime \prime } = f(x) = - \frac{\partial U}{\partial x} [/math]

Po obustronnym pomnożeniu przez [math]x^{\prime }[/math] mamy:

[math] \frac{1}{2} m \left((x^{\prime })^2\right)^{\prime } = - (U(x))^{\prime }, \;\;\;\mbox{ a po scałkowaniu }\;\;\; \frac{1}{2} m (x^{\prime })^2 = E - U(x) [/math]

gdzie [math]E[/math] jest dowolną stałą. Jaki jest jej sens fizyczny? Po przeniesieniu [math]-U(x)[/math] na drugą stronę mamy

[math] \frac{1}{2} m (x^{\prime })^2 +U(x) = E [/math]

czyli stała [math]C[/math] ma sens fizyczny energii całkowitej.

Otrzymaliśmy w ten sposób równanie pierwszego rzędu. Stąd po przekształceniu mamy:

[math] x^{\prime }= \sqrt{\frac{2 (E-U(x))}{m}} [/math]

co jest równaniem o rozdzielonych zmiennych. Po scałkowaniu otrzymamy:

[math] \int {\sf d}t = t - t_0 = \int \sqrt{\frac{m}{2 (E-U(x))}}{\sf d}x. [/math]

[math]\bullet \;[/math]Oscylator harmoniczny

[math]\bullet \;[/math][math]\bullet \;[/math]Wahadło bez przybliżenia małych drgań i ELIPTYSIE.

Równania wyższych rzędów

Okazuje się, że równanie [math]n[/math]-tego rzędu

[math]y^{(n)}=F(x,y,y^{\prime },\dots , y^{(n-1)})[/math]

można sprowadzić do układu równań pierwszego rzędu.

Wprowadźmy bowiem pomocnicze funkcje:

[math] \begin{array}{ccl} z_1(x) & = & y(x)\\ z_2(x) & = & y^{\prime }(x)\\ \vdots &&\\ z_n(x) & = & y^{(n-1)}(x)\\ \end{array} [/math]

Wtedy równanie (%i 14) można zapisać w postaci układu równań:

[math]\frac{{\sf d}}{{\sf d}x}[/math][math]\left(\begin{array}{c}z_1\\ z_2\\ \vdots \\ z_{n-1}\\ z_n\end{array}\right)[/math][math]=\left(\begin{array}{c} z_2\\ z_3\\ \vdots \\ z_n\\ F(x,z_1,z_2,\dots , z_n) \end{array} \right).[/math]

Przykł.

Równanie ruchu oscylatora harmonicznego zapisane jako układ 2 równań I rzędu.

Twierdzenie o istnieniu i jednoznaczności

Wstęp ideowy

Rozważamy tu układy równań różniczkowych pierwszego rzędu; zgodnie z otrzymanym dopiero co wynikiem, dowolne równanie [math]n[/math]-tego stopnia możemy wyrazić jako układ [math]n[/math] równań pierwszego rzędu.

Zadamy określony warunek początkowy i zapytamy, kiedy układ ma jednoznaczne rozwiązanie.

Odpowiedź dana jest przez twierdzenie (Cauchy'ego)[1] o istnieniu i jednoznaczności dla takich układów.

Zanim sformułujemy to twierdzenie, podamy najsampierw wstęp ideowy, a potem przygarść niezbędnych definicji.

Będziemy rozważać układ równań różniczkowych:

[math]\frac{{\sf d}x}{{\sf d}t} = F(x,t) [/math]

Odwzorowanie Picarda

Def. Odwzorowaniem Picarda nazywamy odwzorowanie [math]A[/math], przeprowadzające funkcję [math]\varphi : { \mathbb R}\ni t\rightarrow x\in { \mathbb R}^n[/math] w funkcję [math]A\varphi : { \mathbb R}\ni t\rightarrow x\in { \mathbb R}^n[/math], gdzie

[math](A\varphi )(t)=x_0+\int _{t_0}^t F(\varphi (\tau ),\tau ){\sf d}\tau .[/math]

Okazuje się, że [math]\varphi [/math] jest rozwiązaniem układu z warunkiem początkowym [math]\varphi (t_0)=x_0[/math]

[math] \Longleftrightarrow [/math]

[math]\varphi [/math] jest punktem stałym odwzorowania [math]A[/math], tzn. [math]\varphi =A\varphi [/math].

Dowód

jest natychmiastowy, jeśli się nie przejmujemy 'drobiazgami', tzn. porządnym określeniem używanych obiektów oraz ich istnieniem. (Na razie się tym nie przejmujemy, ale zrobimy to później):

Jeśli zróżniczkujemy [math](A\varphi )(t)[/math], to dostaniemy [math]F(\varphi (t),t)[/math] (z podstawowego tw. rachunku różniczkowego i całkowego); mamy więc: [math]\frac{{\sf d}(A\varphi )}{{\sf d}t} = \frac{{\sf d}\varphi }{{\sf d}t} = F(\varphi (t),t)[/math]. Ponadto [math](A\varphi )(t_0)=x_0[/math], więc spełniony jest też warunek początkowy.

Przypominając sobie teraz, co to jest odwzorowanie zwężające i jakie ma własności, i mając nadzieję, że odwzorowanie Picarda będzie zwężające, możemy skonstruować rozwiązanie układu (%i 16) przez kolejne iteracje odwzorowania [math]A[/math].

Przykł.

Znajdźmy rozwiązanie równania różniczkowego z warunkiem początkowym:

[math]\frac{{\sf d}x}{{\sf d}t} = x+t,\;\;\;\;\;x_0=x(0)=1[/math]

metodą Picarda.

Musimy wziąć jakąś funkcję i następnie działać na nią kolejnymi potęgami odwzorowania Picarda. Weźmy dla prostoty:

[math] x_0(t)=1, \;\;\;x_n(t) = A x_{n-1}(t) = x_0+\int _0^t (t+x_{n-1}(t)){\sf d}t. [/math]

Liczymy kolejno:

[math] x_1(t)=1+\int _0^t(\tau +1){\sf d}\tau = 1+t+\frac{1}{2!} t^2; [/math]

[math] x_2(t)=1+\int _0^t(\tau +1+\tau +\frac{1}{2!} \tau ^2){\sf d}\tau = 1+t+\frac{2}{2!} t^2+\frac{1}{3!}t^3; [/math]

[math] x_3(t)=1+\int _0^t(\tau +1+\tau +\frac{2}{2!} \tau ^2+\frac{1}{3!}\tau ^3){\sf d}\tau = 1+t+\frac{2}{2!} t^2+\frac{2}{3!}t^3+\frac{1}{4!}t^4; [/math]
[math] x_4(t)=1+\int _0^t(\tau +1+\tau +\frac{2}{2!} \tau ^2+\frac{2}{3!}\tau ^3+\frac{1}{4!}t^4){\sf d}\tau = 1+t+\frac{2}{2!} t^2+\frac{2}{3!}t^3+\frac{2}{4!}t^4 +\frac{1}{5!}t^5; [/math]

itd. Z postaci kilku pierwszych wyrazów ciągu funkcji [math]x_(t)[/math] łatwo chyba już domyślić się postaci [math]n-[/math]tego elementu:

[math] x_n(t)=1+t+\frac{2}{3!}t^3+\frac{2}{4!}t^4 +\dots +\frac{2}{n!}t^n + \frac{1}{(n+1)!}t^{(n+1)} [/math]

w czym można rozpoznać rozwinięcie w szereg funkcji

[math] x(t)=e^t-1-t. [/math]

Czytelnik zechce się przekonać, że powyższa funkcja jest rozwiązaniem problemu (%i 18).

Definicje

Całka wektorowa

Będziemy potrzebować definicji całki z funkcji o wartościach wektorowych. Niech [math]f: [a,b]=\rightarrow { \mathbb R}^n[/math] będzie funkcją o wartościach wektorowych, ciągłą na [math][a,b][/math]. Całkę wektorową:

[math] I=\int _a^b f(t) {\sf d}t\in { \mathbb R}^n [/math]

definiujemy w zwykły sposób: Wartość [math]i-[/math]tej składowej wektora [math]I[/math] jest równa całce Riemanna z [math]i-[/math]tej składowej funkcji [math]f[/math].

W dalszym ciągu przydatne będzie następujące oszacowanie takiej całki:

Lemat[math]*[/math]

Zachodzi nierówność

[math]\left|\left| \int _a^b f(t){\sf d}t\right|\right| \le \left|\int _a^b ||f(t)||{\sf d}t\right|.[/math]
Dowód

Korzystając z nierówności trójkąta porównamy sumy całkowe. Mamy:

[math] \left|\left|\sum _i f(t_i)\Delta _i\right|\right| \le \sum _i ||f(t_i)\Delta _i|| = \sum _i ||f(t_i)||\cdot |\Delta _i| [/math]

i przechodząc do granicy, otrzymujemy nierówność (%i 19) dla całek.

CBDO

Warunek Lipschitza

Niech [math]F: { \mathbb R}^n\supset {\cal O}\rightarrow { \mathbb R}^n[/math]. Mówimy, że [math]F[/math] spełnia warunek Lipschitza, jeżeli istnieje taka stała [math]L[/math], że dla dowolnych [math]x,x^{\prime }\in {\cal O}[/math]

[math]||F(x)-F(x^{\prime })||\le L ||x-x^{\prime }||.[/math]
Przykł.

Niech [math]f: { \mathbb R}\supset [a,b]\rightarrow { \mathbb R}[/math] będzie funkcją klasy [math]C^1[/math]. Pokażemy, że taka funkcja spełnia warunek Lipschitza. Z tw. Lagrange'a o wartości średniej wiemy, że dla dowolnych [math]x,x^{\prime }\in [a,b][/math] istnieje takie [math]\xi \in [x,x^{\prime }][/math], że [math]f(x)-f(x^{\prime })=f(\xi )(x-x^{\prime })[/math]; zatem

[math] |f(x)-f(x^{\prime })|=|f^{\prime }(\xi ) (x-x^{\prime })|\le {\rm sup}\,_{z\in [a,b]} |f^{\prime }(z)|\cdot |x-x^{\prime }|; [/math]

Pochodna [math]f[/math] jest ciągła, bo [math]f[/math] jest klasy [math]C^1[/math], więc [math]f^{\prime }[/math] jest ograniczona (jako funkcja ciągła na zb. zwartym). Tak więc [math]f[/math] spełnia warunek Lipschitza.

Przykł.

Rozważmy funkcję określoną na [math] { \mathbb R}_+\cup \lbrace 0\rbrace [/math]: [math]f(x) = \sqrt[3]{x}[/math]. Pokażemy, że ta funkcja nie spełnia warunku Lipschitza. Mamy bowiem (powiedzmy, że [math]x\gt x^{\prime }\ge 0[/math]):

[math] \sqrt[3]{x}-\sqrt[3]{x^{\prime }}=\frac{1}{3(\sqrt[3]{\xi })^2}(x-x^{\prime }) \;\;\;\mbox{ dla pewnego }\;\;\xi \in [x^{\prime },x], [/math]

a w szczególności

[math] \sqrt[3]{x}-\sqrt[3]{0}=\frac{1}{3(\sqrt[3]{\xi })^2}(x) \;\;\;\mbox{ dla pewnego }\;\;\xi \le x, [/math]

co rośnie nieograniczenie, gdy [math]x\rightarrow 0[/math]. Zatem nie istnieje uniwersalna stała [math]L[/math] taka, by [math]|f(x) -f(x^{\prime })|\le L |x-x^{\prime }|[/math] dla dowolnych [math]x,x^{\prime }\in [0,\infty [[/math]. Będziemy rozważać układ równań różniczkowych (%i 16), gdzie [math]x\in { \mathbb R}^n[/math]. Niech funkcja [math]F[/math] będzie określona w pewnym otwartym obszarze [math] {\cal U}\subset { \mathbb R}^n\times { \mathbb R}[/math]. Zakładamy, że [math]F[/math] jest różniczkowalna w sposób ciągły, oraz że spełnia warunek Lipschitza względem pierwszego argumentu:

[math] \forall _{t} ||F(x,t)-F(x^{\prime },t)||\le L ||x-x^{\prime }||. [/math]

(dla wszystkich [math]t[/math] takich, że [math](x,t), (x^{\prime },t)\in {\cal U}[/math]).

Weźmy dowolny punkt [math](x_0,t_0)\in {\cal U}[/math]. RYS.

Wtedy walec

[math] {\cal W}= \lbrace (x,t):\;|t-t_0|\le a,\; ||x-x_0||\le b\rbrace [/math]

dla dostatecznie małych [math]a,b[/math] leży w obszarze [math] {\cal U}[/math].

Oznaczmy przez [math]C[/math] kres górny [math]||F(x,t)||[/math] na walcu [math] {\cal W}[/math]. [math]C[/math] jest osiągane, gdyż [math] {\cal W}[/math] jest zwarty.

Rozpatrzmy teraz stożek [math]K_0[/math] o wierzchołku [math]t_0,x_0[/math], rozwarciu [math]C[/math] i wysokości [math]a^{\prime }[/math]:

[math] K_0=\lbrace (x,t): \; |t-t_0|\le a^{\prime },\; ||x-x_0||\le C |t-t_0|\rbrace . [/math]

Jeśli liczba [math]a^{\prime }[/math] jest dostatecznie mała, to stożek [math]K_0[/math] leży wewnątrz walca [math] {\cal W}[/math]. Jeśli liczby [math]a^{\prime }, b^{\prime }[/math] są dostatecznie małe, to wewnątrz [math] {\cal W}[/math] leży również każdy stożek [math]K_x[/math], otrzymany z [math]K_0[/math] przez przesunięcie wierzchołka do punktu [math](t_0,x)[/math], gdzie [math]||x-x_0||\le b^{\prime }[/math]. RYS.

Będziemy przyjmować, że [math]a^{\prime }[/math] oraz [math]b^{\prime }[/math] są liczbami na tyle małymi, aby [math]K_x\subset {\cal W}[/math]. Oznaczmy rozwiązanie układu (%i 16) z warunkiem początkowym [math]\varphi (t_0)=x[/math] jako [math]\varphi (t)=x+h(x,t)[/math]. RYS2.

Odpowiadająca temu rozwiązaniu trajektoria (krzywa całkowa) leży wewnątrz stożka [math]K_x[/math].

Przestrzeń metryczna odwzorowań [math]M[/math]

Rozpatrzmy wszystkie możliwe odwzorowania ciągłe [math]h[/math] walca: [math]||x-x_0||\le b^{\prime }[/math], [math]|t-t_0|\le a^{\prime }[/math] w przestrzeń euklidesową [math] { \mathbb R}^n[/math]. Przez [math]M[/math] oznaczymy zbiór takich odwzorowań, spełniających ponadto warunek

[math]||h(x,t)||\le C |t-t_0|[/math]

(dla takich odwzorowań, w szczególności, jest spełnione: [math]h(x, t_0)=0[/math]).

Możemy uczynić z [math]M[/math] przestrzeń metryczną, jeśli wprowadzimy metrykę [math]\rho [/math]: Dla dwóch odwzorowań [math]h_1,h_2[/math] ich odległość definiujemy jako

[math] \rho (h_1, h_2) = ||h_1-h_2||= \mathop {{\rm sup}\,}_{|t-t_0|\le a^{\prime }, ||x-x_0||\le b^{\prime }}|h_1(x,t)-h_2(x,t)|. [/math]
Twierdzenie

Zbiór [math]M[/math] wyposażony w powyższą metrykę [math]\rho [/math] jest przestrzenią metryczną zupełną.

LUKA 0: Dowodu zupełności nie będzie.

Pokażemy tylko, że [math]M[/math] jest przestrzenią metryczną. Aksjomaty nieujemności metryki oraz symetrii są w oczywisty sposób spełnione. Nierówność trójkąta też jest wykazać dość prosto:

Nazwijmy najsampierw: [math](x,t)\equiv y[/math]; wtedy: [math]\rho (f,g) = ||f-g|| = \displaystyle \mathop {{\rm sup}\,}_y |f(y)-g(y)|[/math]. Chcemy pokazać, że dla dowolnych funkcji [math]f, g, h[/math] zachodzi:

[math]||f-g||\le ||f-h|| + ||h-g||.[/math]

Dla dowolnego punktu [math]y[/math] mamy:

[math] |f(y)-g(y)|=|f(y)-h(y)+h(y)-g(y)|\le |f(y)-h(y)|+|h(y)-g(y)|. [/math]

Niech [math]y^*[/math] będzie punktem, dla którego osiągane jest supremum [math]f(y)-g(y)[/math]: [math]|f(y^*)-g(y^*)| =\displaystyle \mathop {{\rm sup}\,}_y |f(y)-g(y)|[/math]. Mamy wtedy:

[math] \rho (f,g) = \displaystyle \mathop {{\rm sup}\,}_y |f(y)-g(y)| = |f(y^*)-g(y^*)|\le |f(y^*)-h(y^*)|+|h(y^*)-g(y^*)|. [/math]

Ponieważ dla dowolnego [math]y[/math] mamy: [math]f(y)-h(y)|\le \displaystyle \mathop {{\rm sup}\,}_y |f(y)-g(y)|[/math], [math]h(y)-g(y)|\le \displaystyle \mathop {{\rm sup}\,}_y |h(y)-g(y)|[/math], to też

[math] \displaystyle \mathop {{\rm sup}\,}_y |f(y)-g(y)| \le \displaystyle \mathop {{\rm sup}\,}_y |f(y)-h(y)|+\displaystyle \mathop {{\rm sup}\,}_y |h(y)-g(y)|, [/math]

czyli (%i 22).

Odwzorowanie zwężające [math]A:M\rightarrow M[/math]

Zdefiniujmy odwzorowanie [math]A: M\rightarrow M[/math] przyjmując

[math](Ah)(x,t)=\int _{t_0}^t F(x+h(x,\tau ),\tau ){\sf d}\tau .[/math]

Zauważmy, że dzięki nierówności (%i 21) punkt: [math](x+h(x,\tau ),\tau )[/math] należy do stożka [math]K_x[/math], a więc również do obszaru określoności odwzorowania [math]F[/math].

Twierdzenie

Jeśli wartość [math]a^{\prime }[/math] jest dostatecznie mała, to wzór (%i 23) określa odwzorowanie zwężające przestrzeni [math]M[/math] w siebie.

Dowód
  1. Wykażemy, że [math]A[/math] przeprowadza [math]M[/math] w siebie. Odwzorowanie [math]Ah[/math] jest ciągłe, bo LUKA 1: Całka z funkcji ciągłej, zależnej w sposób ciągły od parametru, także zależy w sposób ciągły od parametru i jest też ciągłą funkcją granic całkowania:
    [math] g(a)=\int _{\alpha (a)}^{\beta (a)} f(t, a) {\sf d}t [/math]
    Odwzorowanie [math]Ah[/math] spełnia nierówność (%i 21), ponieważ
    [math] ||(Ah)(x,t)|| = ||\int _{t_0}^t F(x+h(x,\tau ),\tau ){\sf d}\tau || \le \int _{t_0}^t ||F(x+h(x,\tau ),\tau )||{\sf d}\tau \le \int _{t_0}^t C {\sf d}\tau = C|t-t_0|. [/math]
    Zatem [math]AM\subset M[/math].
  2. Wykażemy, że przy dostatecznie małym [math]a^{\prime }[/math] odwzorowanie [math]A[/math] jest zwężające, tzn. dla dowolnych [math]h_1, h_2[/math] zachodzi:
    [math] ||Ah_1 - Ah_2||\le \lambda ||h_1-h_2||\;\;\;\mbox{dla pewnego }\;\lambda \in ]0,1[. [/math]
    Oszacujemy w tym celu wartość normy odwzorowania [math]Ah_1-Ah_2[/math] w jakimś punkcie [math]x,t[/math]. Mamy:
    [math] (Ah_1-Ah_2)(x,t)=\int _{t_0}^t (F_1-F_2){\sf d}\tau , [/math]
    gdzie [math]F_i(\tau ) = F(x+h_i(x,\tau ),\tau )[/math] dla [math]i=1,2[/math]. Ale odnośnie odwzorowania [math]F[/math] założyliśmy, że [math]F[/math] spełnia, przy ustalonym [math]\tau [/math], warunek Lipschitza ze względu na pierwszy argument, ze stałą [math]L[/math]. Mamy więc
    [math] ||F_1(\tau )-F_2(\tau )|| \le L||h_1(x,\tau ) - h_2(x,\tau )|| \le L||h_1-h_2||. [/math]
    A więc na podstawie Lematu [math]*[/math]
    [math] ||(Ah_1-Ah_2)(x,t)||\le |\int _{t_0}^t L ||h_1-h_2||{\sf d}\tau | \le La^{\prime }||h_1-h_2||. [/math]
    Tak więc!! Jeśli [math]La^{\prime }\lt 1[/math], to [math]A[/math] jest odwzorowaniem zwężającym.

CBDO

Twierdzenie Cauchy'ego o lokalnym istnieniu i jednoznacznościrozwiązania układu równań różniczkowych I. rzędu

(Zwane też tw. Picarda lub Picarda–Cauchy'ego)

Rozważmy układ równań różniczkowych z warunkiem początkowym:

[math]\left\lbrace \begin{matrix} \frac{{\sf d}x}{{\sf d}t} & = & F(t,x)\\ x(t_0) & = & x_0, \end{matrix} \right.[/math]

gdzie [math]x_0\in {\cal O}[/math]. Niech [math] {\cal O}\subset { \mathbb R}^n[/math], niech [math]F:[a,b]\times {\cal O}\ni (t,x)\rightarrow F(x,t)\in { \mathbb R}^n[/math] będzie funkcją spełniającą warunek Lipschitza, tzn. istnieje taka stała [math]L[/math], że:

[math]\displaystyle \mathop {\forall }_{t\in [a,b]} \mathop {\forall }_{x,x^{\prime }\in {\cal O}} ||F(t,x)-F(t,x^{\prime })||\le L ||x-x^{\prime }||.[/math]

Wtedy lokalnie istnieje jedyne rozwiązanie układu z warunkiem początkowym (%i 24). Dokładniej:

  1. Istnieje [math]\epsilon \gt 0[/math] takie, że zagadnienie (%i 24) ma jednoznaczne rozwiązanie, tzn. istnieje jedyna funkcja [math]x(t)[/math]:
    [math] [a,b]\supset [t_0-\epsilon , t_0+\epsilon ]\ni t\rightarrow x(t)\in { \mathbb R}^n [/math]
    która spełnia (%i 24).
  2. Ponadto, rozwiązanie zależy w sposób ciągły od warunków początkowych: Jeśli [math]x_1(t)[/math] jest rozwiązaniem z warunkiem początkowym [math]x_1(t_0)= x_{10}[/math]; jeśli [math]x_2(t)[/math] jest rozwiązaniem z warunkiem początkowym [math]x_2(t_0)= x_{20}[/math], to zachodzi oszacowanie
    [math] ||x_1(t) - x_2(t)||\le e^{L(t-t_0)} ||x_{10} - x_{20}||. [/math]

RYS.

Dowód

(z lukami, czyli właściwie szkic).

Równania i układy liniowe

Układ równań liniowych

Def. Układem równań liniowych nazywamy układ (%i 24) z prawą częścią zależącą liniowo od [math]x[/math]:

[math]\left\lbrace \begin{matrix} \frac{{\sf d}x}{{\sf d}t} & = & A(t) x(t) + b(t),\\ x(t_0) & = & x_0, \end{matrix} \right.[/math]

Tu [math]x(t)\in { \mathbb R}^n[/math], [math]b(t)\in { \mathbb R}^n[/math], [math]A(t)[/math] jest macierzą [math]n\times n[/math]. Zakładamy, że wszystkie elementy macierzy [math]A(t)[/math] oraz wektora niejednorodności [math]b(t)[/math] zależą w sposób ciągły od [math]t[/math] dla [math]t\in [a,b][/math] (jakiś odcinek).

Uwaga (terminologiczna)

Analogicznie jak w przypadku równania I rzędu, układ (%i 26) nazywamy niejednorodnym, gdy [math]b(t)\equiv 0[/math], oraz niejednorodnym, gdy [math]b(t)\lnot \equiv 0[/math].

I takoż podobnie jak w przypadku równania I rzędu: Jeśli [math]x_1(t), x_2(t)[/math] są dwoma rozwiązaniami układu jednorodnego, to ich suma i — ogólniej — ich dowolna liniowa kombinacja też jest rozwiązaniem. Tak więc rozwiązania układu jednorodnego mają strukturę przestrzeni wektorowej.

Istnienie i jednoznaczność rozwiązań dla układów równań liniowych

Zapytajmy teraz, jak wygląda sprawa istnienia i jednoznaczności rozwiązań dla układów równań liniowych. W celu zbadania tej sytuacji zauważmy najsampierw, że dla układów równań liniowych [[#warunek Lipschitza]] jest spełniony:

[math] ||F(t,x)-F(t,x^{\prime })||= ||A(t)x + b(t) -A(t)x^{\prime }-b(t)||= ||A(t)(x-x^{\prime })||\le ||A(t)||\cdot ||x-x^{\prime }||. [/math]

Funkcja [math]t\rightarrow ||A(t)|| [/math] jest ciągła. Oznaczając

[math] L=\displaystyle \mathop {{\rm sup}\,}_{t\in [a,b]}{||A(t)||} [/math]

widzimy, że jest spełniony warunek Lipschitza ze stałą [math]L[/math]. Ponieważ warunek Lipschitza jest spełniony, to istnieje lokalnie jednoznaczne rozwiązanie.

Ale dzięki temu, że układ (%i 26) jest liniowy, można o rozwiązaniu podać znacznie dokładniejsze informacje, niż w ogólnym przypadku.

Weźmy kulę domkniętą [math]\overline{K(x_0,R)}[/math], [math]R[/math] — dowolne. Niech

[math] M=\displaystyle \mathop {{\rm sup}\,}_{t\in [a,b],x\in K(x_0,R)}||F(t,x)|| = \mathop {{\rm sup}\,}_{t\in [a,b],x\in K(x_0,R)} ||A(t)x+b(t)|| [/math]
[math] \le \mathop {{\rm sup}\,}_{t\in [a,b],x\in K(x_0,R)} || A(t)(x-x_0) + A(t) x_0 + b(t)|| [/math]
[math] \le \mathop {{\rm sup}\,}_{t\in [a,b],x\in K(x_0,R)} || A(t)(x-x_0)|| +|| A(t) x_0|| +|| b(t)|| [/math]
[math] \le L(R+||x_0||) + C, [/math]

gdzie

[math] C= \mathop {{\rm sup}\,}_{t\in [a,b]} ||b(t)||. [/math]

Tak więc

[math] M\le L(R+||x_0||) + C, [/math]

skąd

[math] \frac{R}{M}\ge \frac{R}{L(R+||x_0||)+C } [/math]

Układy liniowe

Tu będą przykłady układów równań liniowych, najsampierw jednorodne.

  1. Weźmy układ [math]\dot{x}=Ax[/math], gdzie [math] A= \left[ \begin{array}{cc} 1 & 2\\ 2 & 1\\ \end{array} \right] [/math] z warunkiem początkowym [math] x_0\equiv x(0)\equiv \left[ \begin{array}{c} x_1(0)\\ x_2(0)\\ \end{array} \right] = \left[ \begin{array}{c} 2\\ 4\\ \end{array} \right] [/math]. Zgodnie z ogólną receptą, liczymy wielomian charakterystyczny macierzy: [math]w_A(\lambda ) = (1-\lambda )^2-4[/math], którego pierwiastki: [math]\lambda _1=-1, \lambda _2=3[/math] są wartościami własnymi [math]A[/math]. Będziemy też tu potrzebować wektorów własnych [math]A[/math]:
    [math] v_1= {\rm Ker\,} (A-\lambda _1 {\bf I} ) = {\rm Ker\,} \left[ \begin{matrix} 2 & 2\\ 2 & 2\\ \end{matrix} \right] = \left[ \begin{matrix} 1\\ -1\\ \end{matrix} \right] [/math]
    oraz
    [math] v_2= {\rm Ker\,} (A-\lambda _2 {\bf I} ) = {\rm Ker\,} \left[ \begin{matrix} -2 & 2\\ 2 & -2\\ \end{matrix} \right] = \left[ \begin{matrix} 1\\ 1\\ \end{matrix} \right] [/math]
    (Pamiętacie, co to jest [math]{\rm Ker\,} [/math], czyli jądro? Jądrem macierzy [math]M[/math] nazywamy zbiór wektorów [math]x[/math], takich, że [math]Mx={\bf 0} [/math]. Powiedzenie, że [math]i-[/math]ty wektor własny [math]v_i[/math] jest jądrem macierzy [math]A-\lambda _i {\bf I} [/math] to to samo, co powiedzieć, że [math]v_i[/math] jest rozwiązaniem układu równań [math](A-\lambda _i {\bf I} )v_i={\bf 0} [/math], tzn. [math]Av_i = \lambda _i v_i[/math]). Po znalezieniu wektorów własnych, rozkładamy wektor warunku początkowego w bazie wektorów własnych: [math]x_0 = c_1 v_1 + c_2 v_2[/math] i znajdujemy, że [math]c_1=3, c_2=-1[/math]. Mamy dalej
    [math] x(t) = e^{At} x_0 = e^{At} (c_1 v_1 + c_2 v_2) = c_1 e^{\lambda _1 t} v_1 + c_2 e^{\lambda _2 t} v_2 = 3 e^{-t} v_1 -1\cdot e^{3t} v_2 = \left[ \begin{array}{c} -e^{-t}+3e^{3t}\\ e^{-t}+3e^{3t}\\ \end{array} \right]. [/math]
  2. Weźmy teraz układ [math]\dot{x}=Ax[/math], gdzie [math] A= \left[ \begin{array}{cc} 2 & 1\\ -1 & 2\\ \end{array} \right] [/math] z warunkiem początkowym [math] x_0\equiv x(0)\equiv \left[ \begin{array}{c} x_1(0)\\ x_2(0)\\ \end{array} \right] = \left[ \begin{array}{c} 2\\ 6\\ \end{array} \right] [/math]. Postępujemy analogicznie jak uprzednio: liczymy wielomian charakterystyczny macierzy: [math]w_A(\lambda ) = (2-\lambda )^2+1[/math], którego pierwiastki, tzn. wartości własne [math]A[/math], są tym razem zespolone: [math]\lambda _1=2-i, \lambda _2=2+i[/math]. Liczb zespolonych bać się tu nie należy. Na pośrednich etapach rachunków (wartości własne, wektory własne) możemy mieć do czynienia z liczbami zespolonymi; ale pod koniec (jeśli się nie pomylimy) muszą one wystąpić w takiej kombinacji, aby końcowy wynik był liczbą rzeczywistą. Liczymy znów wektory własne [math]A[/math]:
    [math] v_1= {\rm Ker\,} (A-\lambda _1 {\bf I} ) = {\rm Ker\,} \left[ \begin{matrix} i & 1\\ -1 & i\\ \end{matrix} \right] = \left[ \begin{matrix} i\\ 1\\ \end{matrix} \right], [/math]
    [math] v_2= {\rm Ker\,} (A-\lambda _2 {\bf I} ) = {\rm Ker\,} \left[ \begin{matrix} -i & 1\\ -1 & -i\\ \end{matrix} \right] = \left[ \begin{matrix} -i\\ 1\\ \end{matrix} \right] [/math]
    (Układy równań z liczbami zespolonymi rozwiązujemy tak samo, jak znane nam układy z liczbami rzeczywistymi). Rozkładamy wektor warunku początkowego w bazie wektorów własnych:
    [math] x_0= \left[ \begin{array}{c} 2\\ 6\\ \end{array} \right] = c_1 v_1 + c_2 v_2 [/math]
    i otrzymujemy
    [math] c_1=3-i,\;\;\;c_2=3+i [/math]
    Stąd rozwiązanie w chwili [math]t[/math] jest
    [math] x(t) = e^{At} x_0 = e^{At} (c_1 v_1 + c_2 v_2) = c_1 e^{\lambda _1 t} v_1 + c_2 e^{\lambda _2 t} v_2 [/math]
    [math] = (3-i) e^{(2-i)t} \left[ \begin{array}{c} i\\ 1\\ \end{array} \right] +(3+i) e^{(2+i)t} \left[ \begin{array}{c} -i\\ 1\\ \end{array} \right] = e^{2t} \left[ \begin{array}{c} 3i e^{-it}+e^{-it}-3ie^{it}+e^{it}\\ 3e^{-it}-ie^{-it}+3e^{it}+ie^{it}\\ \end{array} \right]; [/math]
    i, przypominając sobie zależności między funkcją wykładniczą (od argumentu urojonego) a funkcjami trygonometrycznymi: [math]\cos t =\frac{e^{it}+e^{-it}}{2}, \sin t = \frac{e^{it}-e^{-it}}{2i}[/math], otrzymujemy ostatecznie rozwiązanie w postaci
    [math] x(t)= 2e^{2t} \left[ \begin{array}{c} \cos t+3\sin t \\ 3\cos t-\sin t \\ \end{array} \right]. [/math]



  1. Zwane też tw. Picarda lub Picarda—Cauchy'ego