Matematyka:Matematyka II NI/Rachunek różniczkowy

Z Brain-wiki
Wersja z dnia 13:40, 22 maj 2015 autorstwa Anula (dyskusja | edycje) (Utworzono nową stronę "__NOTOC__ <b>Rachunek różniczkowy</b> ==Pochodne cząstkowe, różniczkowalność funkcji, przyrosty== Niech <math> {\cal O}\subset { \mathbb R}^N</math> będzie...")
(różn.) ← poprzednia wersja | przejdź do aktualnej wersji (różn.) | następna wersja → (różn.)


Rachunek różniczkowy


Pochodne cząstkowe, różniczkowalność funkcji, przyrosty

Niech [math] {\cal O}\subset { \mathbb R}^N[/math] będzie zbiorem otwartym, zaś [math]f: {\cal O}\rightarrow { \mathbb R}[/math] — funkcją ciągłą.

Niech [math]x\in {\cal O}[/math]. Wypiszmy jawnie składowe [math]x[/math]:

[math] x=(x^1, x^2, \dots , x^N), \;\;\; f(x) = f(x^1, x^2, \dots , x^N). [/math]

Wybierzmy teraz [math]k\in \lbrace 1,2,\dots , N \rbrace [/math] i traktujmy zmienne [math]x^l[/math], gdzie [math]l\ne k[/math] jako stałe.

Pochodna cząstkowa

Rozważmy granicę:

[math]\frac{\partial }{\partial x^k}f(x^1, x^2, \dots , x^N) = {\displaystyle \mathop {\lim }_{{h}\rightarrow {0}} }\frac{f(x^1, \dots ,x^{k-1}, x^k+h,x^{k+1},\dots , x^N) - f(x^1, \dots , x^k,\dots , x^N) }{h} [/math]

Def. Powyższą granicę nazywamy pochodną cząstkową funkcji [math]f[/math] po zmiennej [math]x^k[/math] (liczoną w punkcie [math]x[/math]).

Funkcja jest różniczkowalna

Niech [math] {\cal O}\subset { \mathbb R}^N[/math] będzie zbiorem otwartym, zaś [math]f: {\cal O}\rightarrow { \mathbb R}[/math] — funkcją ciągłą. (Ten ostatni warunek piszemy też: [math]f\in C( {\cal O})[/math]).

Mówimy, że [math]f[/math] jest różniczkowalna [math]r[/math] razy w sposób ciągły, jeżeli istnieją wszystkie pochodne cząstkowe aż do rzędu [math]r[/math] i są one ciągłe.

Uwaga (terminologiczna)

Ten ostatni warunek zapisujemy krócej jako: [math]f\in C^r( {\cal O})[/math], gdzie przez [math]C^r( {\cal O})[/math] oznaczamy zbiór funkcji różniczkowalnych [math]r[/math] razy w sposób ciągły. Stosujemy też oznaczenie [math]C^\infty ( {\cal O})[/math] dla funkcji, które posiadają pochodne ciągłe dowolnie wysokiego rzędu. Funkcje takie nazywamy funkcjami gładkimi (należą do nich np. wielomiany).

Twierdzenie

Niech [math] {\cal O}[/math] — otwarty podzbiór [math] { \mathbb R}^N[/math], oraz [math]f\in C^1( {\cal O})[/math]. Niech [math]x_0\in {\cal O}[/math], i niech [math]h\in { \mathbb R}^N[/math] — dostatecznie małe, tzn. [math]||h||\lt \epsilon [/math] dla pewnego [math]\epsilon [/math] — tak, by [math]x_0+h\in {\cal O}[/math] RYS.

Zdefiniujmy [math]r(x_0,h)[/math] przez:

[math] f(x_0+h)-f(x_0) =\sum _{k=1}^N \frac{\partial f}{\partial x^k}(x_0) h^k + r(x_0,h). [/math]

Wtedy zachodzi:

[math]\lim_{h\rightarrow 0}\frac{r(x_0,h)}{||h||} \longrightarrow 0 [/math]

Uwaga

Znaczenie tego wzoru: Pozwala on wyznaczać przyrost funkcji: Im mniejsze [math]h[/math], tym lepiej przyrost jest przybliżany przez część liniową.

Dowód

Będzie dla (najważniejszego w zastosowaniach) przypadku [math]N=3[/math]; dla dowolnego [math]N[/math] jest analogiczny.

[math] f(x_0+h)-f(x_0) = f(x_0^1 + h^1,x_0^2 + h^2,x_0^3 + h^3)-f(x_0^1, x_0^2, x_0^3)= [/math]
[math] f(x_0^1 + h^1,x_0^2 + h^2,x_0^3 + h^3)-f(x_0^1,x_0^2 + h^2,x_0^3 + h^3)\;\;\;\;\; I [/math]
[math] +f(x_0^1,x_0^2 + h^2,x_0^3 + h^3)-f(x_0^1,x_0^2,x_0^3 + h^3)\;\;\;\;\;\;\;\;\;\; I I [/math]
[math] +f(x_0^1,x_0^2,x_0^3 + h^3)-f(x_0^1,x_0^2,x_0^3)\;\;\;\;\;\;\;\;\;\;\;\;\;\;\; I II [/math]

Z twierdzenia Lagrange'a o wartości średniej dla funkcji jednej zmiennej mamy

[math] III= \frac{\partial }{\partial x^3} f(x_0^1, x_0^2, y^3) h^3, [/math]

gdzie [math]y^3[/math] — punkt pomiędzy [math]x_0^3[/math] a [math]x_0^3 + h^3[/math];

[math] II= \frac{\partial }{\partial x^2} f(x_0^1, y^2, x_0^3+h^3) h^2,\;\;\;\;\;y^2\in ]x_0^2, x_0^2+h^2[; [/math]
[math] I= \frac{\partial }{\partial x^1} f(y^1, x_0^2+h^2, x_0^3+h^3) h^1,\;\;\;\;\;y^2\in ]x_0^1, x_0^1+h^1[. [/math]

Tak więc

[math]\begin{matrix} r(x_0,h) = f(x_0+h)-f(x_0) -\frac{\partial f}{\partial x^1}(x_0) h^1 -\frac{\partial f}{\partial x^2}(x_0) h^2-\frac{\partial f}{\partial x^3}(x_0) h^3 \\ = \left[ \frac{\partial }{\partial x^1}f(y^1,x_0^2 + h^2,x_0^3 + h^3)-\frac{\partial }{\partial x^1}f(x_0^1, x_0^2, x_0^3) \right]h^1 \\ +\left[ \frac{\partial }{\partial x^2}f(x_0^1,y^2,x_0^3 + h^3)-\frac{\partial }{\partial x^2}f(x_0^1,x_0^2 ,x_0^3) \right] h^2 \\ +\left[ \frac{\partial }{\partial x^3}f(x_0^1,x_0^2,y^3)-\frac{\partial }{\partial x^3}f(x_0^1,x_0^2,x_0^3) \right]h^3 \end{matrix}[/math]

Składowe wektora [math]h[/math] szacują się przez:

[math] \frac{|h^k|}{||h||}\le 1. [/math]

Ponadto, jeżeli [math]h\rightarrow 0[/math], to:

[math] y^1\rightarrow x^1;\;\;\;\;\; y^2\rightarrow x^2;\;\;\;\;\; y^3\rightarrow x^3. [/math]

Ponieważ pochodne cząstkowe są ciągłe, to różnice w (%i ???) dążą do zera i mamy

[math] \frac{r(x_0,h)}{||h||} \stackrel{h\rightarrow 0}{\longrightarrow }0. [/math]

CBDO

Pochodna funkcji złożonej

Oznaczenia

Usystematyzujmy oznaczenia, przydając im, jeśli trzeba, dodatkowe jeszcze wyjaśnienia:

  1. [math]h=\Delta x[/math] — przyrost zmiennej (-ych);
  2. [math]f(x+h)-f(x)=\Delta f[/math] — przyrost funkcji;
  3. [math]\displaystyle \mathop {\sum }_{k=1}^N \frac{\partial f}{\partial x^k}(x_0) h^k = {\sf d}f[/math] — różniczka funkcji;
  4. [math]r[/math] — reszta.

Pamiętajmy, że wszystkie powyższe obiekty: [math]\Delta x, \Delta f, {\sf d}f, r[/math] są funkcjami od [math]x[/math] i [math]h[/math].

Mamy też:

[math] \Delta f = {\sf d}f+r; [/math]

im mniejsze [math]h[/math], tym mniejsze [math]r[/math] i w wielu zastosowaniach fizycznych na ogół przyjmuje się, że dla małych [math]h[/math], [math]r[/math] jest zaniedbywalny.

Twierdzenie (Prototyp twierdzenia o pochodnej odwzorowania złożonego)

Niech [math]g: {\cal U}\rightarrow {\cal O}[/math], gdzie [math] {\cal U}\subset { \mathbb R}[/math], [math] {\cal O}\subset { \mathbb R}^N[/math], oraz [math]f: {\cal O}\rightarrow { \mathbb R}[/math]. (Pisząc jawnie argumenty, mamy: [math]f(y^1,y^2, \dots , y^N)[/math] oraz [math]g(x)=g^1(x), g^2(x), \dots , g^N(x)[/math]). Niech [math]k=f\circ g[/math], tzn. [math]k(x) = f(g(x))[/math] lub, pisząc bardziej jawnie, ale też bardziej rozwlekle argumenty: [math]k(x) = f(g^1(x), g^2(x), \dots , g^N(x))[/math].

Jeżeli [math]f\in C^1( {\cal O}), g\in C^1( {\cal U})[/math], to [math]k\in C^1( {\cal U})[/math] oraz

[math]\frac{{\sf d}}{{\sf d}x}k(x) = \sum _{i=1}^N \frac{\partial f}{\partial y^i}(g(x)) \frac{{\sf d}g^i}{{\sf d}x}(x). [/math]

Dowód

Liczymy iloraz różnicowy:

[math] \frac{k(x+h)-k(x)}{h} = \frac{f(g(x+h))-f(g(x))}{h}= \spadesuit [/math]

(tu [math]h\in { \mathbb R}[/math]). Oznaczmy: [math]\Delta y = g(x+h) - g(x)[/math] (tzn. [math]\Delta y^i = g^i(x+h) - g^i(x)[/math]).

[math] \spadesuit = \frac{f(g(x)+\Delta y))-f(g(x))}{h} = \frac{ \sum _{i=1}^N \frac{\partial f}{\partial y^i}(g(x))\Delta y^i + r( g(x),\Delta y) }{h} [/math]
[math]= \frac{ \sum _{i=1}^N \frac{\partial f}{\partial y^i}(g(x))\Delta y^i}{h} + \frac{r( g(x),\Delta y)}{h} [/math]

Pierwszy wyraz w powyższym wyrażeniu (%i 4) to jest to co trzeba, ponieważ

[math] \frac{\Delta y^i}{h} =\frac{g^i(x+h))-g^i(x)}{h} \stackrel{h\rightarrow 0}{\longrightarrow }\frac{\partial g^i}{\partial x} (x) [/math]

Natomiast drugi wyraz w wyrażeniu (%i 4) okazuje się ,że dąży do 0 gdy [math]h\rightarrow 0[/math]. Bowiem, gdy [math]\Delta y[/math] = 0, to [math]\frac{r( g(x),\Delta y)}{h}=0[/math]. Natomiast gdy [math]\Delta y\ne 0[/math], to mamy:

[math] \frac{r( g(x),\Delta y)}{h} = \frac{r( g(x),\Delta y)}{||\Delta y||}\cdot \frac{||\Delta y||}{h} [/math]

W pierwszym czynniku mamy: [math]\Delta y \stackrel{h\rightarrow 0}{\longrightarrow }[/math] i co za tym idzie, cały wyraz też dąży do zera (z własności reszty). Drugi czynnik, tzn. iloraz [math]\frac{||\Delta y||}{h}[/math], spełnia:

[math] \frac{||\Delta y||}{h} = \left|\left|\frac{\Delta y}{h}\right|\right| \stackrel{h\rightarrow 0}{\longrightarrow } [/math][math]\left|\left|\frac{{\sf d}g}{{\sf d}x}\right|\right|[/math]

CBDO Będziemy dalej potrzebować dwu prostych faktów dotyczących normy i odległości.

Stwierdzenie

Norma jest funkcją ciągłą swoich argumentów (tzn. składowych wektora).

Dowód

Przyjrzyjmy się wyrażeniu na normę wektora [math]x[/math]:

[math] ||x|| = \sqrt{(x^1)^2 + (x^2)^2 +\dots + (x^N)^2} [/math]

i mamy:

  1. podnoszenie do kwadratu jest funkcją ciągłą,
  2. sumowanie jest funkcją ciągłą,
  3. pierwiastek jest funkcją ciągłą.

Stwierdzenie

Odległość jest funkcją ciągłą, tzn. jeżeli [math]x_n\stackrel{n\rightarrow \infty }{\longrightarrow }x[/math], [math]y_n\stackrel{n\rightarrow \infty }{\longrightarrow }y[/math], to

[math]d(x_n,y_n)\stackrel{n\rightarrow \infty }{\longrightarrow }d(x,y). [/math]

Dowód

Najsampierw pokażemy następującą nierówność czworoboku:

[math] d(x,u)\le d(x,y)+d(y,z)+d(z,u); [/math]

bowiem, pisząc dwukrotnie nierówność trójkąta, mamy:

[math] d(x,u)\le d(x,z)+d(z,u)\le d(x,z) + d(z,y)+d(y,u) [/math]

(szkoda tu pisać CBDO) i teraz, korzystając dwukrotnie z nierówności czworoboku:

[math] d(x_n,y_n)\le d(x_n,x) + d(x,y) + d(y,y_n) \Longrightarrow d(x_n,y_n)- d(x,y)\le d(x_n,x) + d(y,y_n); [/math]
[math] d(x,y)\le d(x,x_n) + d(x_n,y_n) + d(y_n,y) \Longrightarrow d(x,y)- d(x_n,y_n)\le d(x,x_n) + d(y_n,y); [/math]

czyli mamy

[math] 0\le |d(x,y)- d(x_n,y_n)|\le d(x,x_n) + d(y_n,y); [/math]

Prawa strona powyższej nierówności z założenia dąży do zera, a z tego wynika (%i 5).

CBDO

Równość drugich pochodnych mieszanych

Twierdzenie (o równości drugich pochodnych mieszanych)

Niech [math] {\cal O}\subset { \mathbb R}^2[/math] — zbiór otwarty. Niech [math]f: {\cal O}\rightarrow { \mathbb R}[/math], [math]f\in C^2( {\cal O})[/math]. Wtedy:

[math]\frac{\partial }{\partial x^1} \frac{\partial f}{\partial x^2} =\frac{\partial }{\partial x^2}\frac{\partial f}{\partial x^1} [/math]

Dowód

Najsampierw oznaczmy [math]x[/math] zamiast [math]x^1[/math] oraz [math]y[/math] zamiast [math]x^2[/math].

Oznaczmy:

[math] \Delta x = h, \;\;\;\;\;\Delta y=k [/math]

oraz

[math] w=f(x+h, y+k) - f(x+h, y) -f(x,y+k)+f(x,y) [/math]

Ustalmy teraz [math]x[/math] i [math]h[/math] i zdefiniujmy

[math] \phi (y) = f(x+h, y) - f(x,y) [/math]

Możemy wyrazić [math]w[/math] przez [math]\phi [/math]:

[math] w = \phi (y+k) - \phi (y) = \phi ^{\prime }(\xi ) \cdot k [/math]

gdzie [math]\xi \in ]y,y+k[[/math]; jest to wniosek z tw. Lagrange'a o wartości średniej. Mamy dalej

[math] \phi ^{\prime }(\xi ) \cdot k = \left[ \frac{\partial f}{\partial y}(x+h,\xi ) - \frac{\partial f}{\partial y}(x,\xi ) \right] = \frac{\partial }{\partial x}\frac{\partial f}{\partial y}(\eta ,\xi )\cdot h \cdot k [/math]

gdzie [math]\eta \in ]x,x+h[[/math]; w ostatnim kroku znów skorzystaliśmy z tw. Lagrange'a o wartości średniej.

Zdefiniujmy teraz

[math] \psi (x) = f(x, y+k)- f(x,y) [/math]

i podobnie jak wyżej, możemy wyrazić [math]w[/math] przez [math]\psi [/math]. Mamy:

[math] w=\psi (x+h)-\psi (x) = \psi ^{\prime }(\tilde{\eta })\cdot h = \spadesuit [/math]

(tu [math]\tilde{\eta }\in ]x,x+h[[/math]; znów skorzystaliśmy z tw. Lagrange'a) i dalej

[math] \spadesuit = \left[ \frac{\partial f}{\partial x}(\tilde{\eta },y+k) - \frac{\partial f}{\partial x}(\tilde{\eta },y) \right] = \frac{\partial }{\partial y}\frac{\partial f}{\partial x}(\tilde{\eta },\tilde{\xi })\cdot h \cdot k [/math]

gdzie [math]\tilde{\xi }\in ]y,y+k[[/math].

W powyższych wyrażeniach liczyliśmy tę samą wielkość [math]w[/math] na dwa różne sposoby. Mamy więc:

[math] w= \frac{\partial }{\partial x}\frac{\partial f}{\partial y}(\eta ,\xi )\cdot h \cdot k =\frac{\partial }{\partial y}\frac{\partial f}{\partial x}(\tilde{\eta },\tilde{\xi })\cdot h \cdot k [/math]

Jeśli teraz [math]h\rightarrow 0[/math], to wtedy [math]\xi \rightarrow y[/math], [math]\eta \rightarrow x[/math], oraz [math]\tilde{\xi }\rightarrow y[/math], [math]\tilde{\eta }\rightarrow x[/math], zatem otrzymujemy równość pochodnych cząstkowych mieszanych w punkcie [math](x,y)[/math].

CBDO

Przykł.

Nie można opuścić założeń o ciągłości; Nierówność pochodnych mieszanych gdy f nie jest kl. [math]C^2[/math] .

Wyższe pochodne

Notacja pochodnych cząstkowych

Mówiąc o pochodnej cząstkowej trzeba podać nie tylko jej rząd (ilość różniczkowań), ale też powiedzieć, po jakich zmiennych się różniczkuje. Og/olnie pochodna [math]r[/math]-tego rzędu funkcji [math]N[/math] zmiennych ma postać:

[math] \frac{\partial ^2 f}{\partial x^2}, \;\;\; \frac{\partial ^2 f}{\partial x \partial y}, \;\;\;\frac{\partial ^2 f}{\partial y^2}, [/math]
[math] \frac{\partial ^r f}{(\partial x^1)^{r_1} (\partial x^2)^{r_2}\dots (\partial x^N)^{r_N}}, \;\;\;\mbox{ gdzie} \;\;\;r=r_1+r_2+\dots +r_N; [/math]

i tak wszystkie drugie pochodne funkcji dwóch zmiennych są

[math] \frac{\partial ^2 f}{\partial x^2}, \;\;\; \frac{\partial ^2 f}{\partial x \partial y}, \;\;\;\frac{\partial ^2 f}{\partial y^2}, [/math]

pochodne trzeciego rzędu:

[math] \frac{\partial ^3 f}{\partial x^3}, \;\;\; \frac{\partial ^3 f}{\partial x^2 \partial y}, \;\;\;\frac{\partial ^3 f}{\partial x \partial y^2}, \;\;\;\frac{\partial ^3 f}{\partial y^3}, [/math]

itd.

Różniczkowalność odwzorowań

Powyższe uwagi dotyczyły funkcji [math]N[/math] zmiennych. Gdy mamy odwzorowania, różniczkowalność tychże definiujemy analogicznie:

Niech [math]T[/math] odwzorowuje [math] {\cal O}\subset { \mathbb R}^N[/math] na [math] {\cal U}\subset { \mathbb R}^M[/math], [math] {\cal O}[/math] i [math] {\cal U}[/math] są otwarte. RYS.; niech [math]x\in {\cal O}[/math], [math]y\in {\cal U}[/math].

Niech [math]y=T(x)[/math]. Wypiszmy tę równość jawnie w składowych:

[math] y^k=T^k(x^1, x^2, \dots , x^N), \;\;\; k=1,2,\dots , M. [/math]

Odwzrorowanie klasy [math]C^r[/math]

Mówimy, że [math]T[/math] jest klasy [math]C^r[/math], jeżeli wszystkie funkcje [math]T^k\in C^r( {\cal O})[/math].

Można wypisywać wszystkie pochodne cząstkowe rzędu [math]r[/math] dla odwzorowania — wzory są podobne jak na pochodną funkcji, tylko nieco bardziej skomplikowane. Będziemy je wypisywać, gdy będzie to potrzebne, a na razie wypiszmy jawnie pierwszą pochodną odwzorowania:

[math]T^{\prime }(x)= \left[ \begin{array}{c} (T^1(x))^{\prime }\\ (T^2(x))^{\prime }\\ \vdots \\ (T^M(x))^{\prime }\\ \end{array} \right] = \left[ \begin{array}{cccc} \frac{\partial T^1}{\partial x^1} & \frac{\partial T^1}{\partial x^2} & \dots & \frac{\partial T^1}{\partial x^N}\\ \frac{\partial T^2}{\partial x^1} & \frac{\partial T^2}{\partial x^2} & \dots & \frac{\partial T^2}{\partial x^N}\\ \vdots & \vdots & \dots \vdots \\ \frac{\partial T^M}{\partial x^1} & \frac{\partial T^M}{\partial x^2} & \dots & \frac{\partial T^M}{\partial x^N}\\ \end{array} \right] [/math]

tzn. na skrzyżowaniu [math]i[/math]-tego wiersza i [math]j[/math]-tej kolumny mamy pochodną [math]\displaystyle \frac{\partial T^i}{\partial x^j}[/math]. Pamiętajmy, że każda z pochodnych [math]\displaystyle \frac{\partial T^i}{\partial x^j}[/math] jest funkcja [math]N[/math] zmiennych [math]x^1, \dots , x^N[/math].

Oznaczenia & terminologia

Macierz Jacobiego

Pochodną odwzorowania (%i 7) oznacza się też czasem [math]DT[/math]. Taka tablica liczb, jak pamiętamy z części algebraicznej wykładu, nazywa się macierzą; w tym konkretnym przypadku mamy macierz pochodnej odwzorowania albo macierz Jacobiego.

Przykł.

Macierz Jacobiego zamiany współrżednych kartezjańskich na biegunowe.

Pochodna odwzorowania złożonego

Złożenie odwzorowań (superopozycja)

Niech: [math]X\subset { \mathbb R}^N[/math], [math]Y\subset { \mathbb R}^M[/math], [math]Z\subset { \mathbb R}^k[/math] oraz [math]S: X\rightarrow Y[/math], [math]T: Y\rightarrow Z[/math]. Pamiętamy, że superpozycją (złożeniem odwzorowań [math]S[/math] i [math]T[/math] nazywamy odwzorowanie [math]T\circ S: X\rightarrow Z[/math], określone jako: [math](T\circ S) (x) = T(S(x))[/math].

RYS.

Pamiętamy też twierdzenie, że jeśli [math]S[/math] i [math]T[/math] są odwzorowaniami ciągłymi, to [math]T\circ S[/math] też jest odwzorowaniem ciągłym.

Wyprowadziliśmy niedawno wzór (%i 3) na pochodną odwzorowania złożonego w przypadku, gdy [math]X[/math] było podzbiorem [math] { \mathbb R}[/math], [math]Y[/math] podzbiorem [math] { \mathbb R}^n[/math], oraz [math]Z\subset { \mathbb R}[/math]:

RYS.

Zastosujmy teraz ten wzór w przypadku, gdy mamy pochodną [math]\displaystyle \frac{\partial (T\circ S)^k}{\partial x^l}(x)[/math].

RYS.

Mamy:

[math] \frac{\partial (T\circ S)^k}{\partial x^l}(x) = \frac{\partial T^k( S^1(x^1, x^2,\dots ,x^N), S^2(x^1, x^2,\dots ,x^N),\dots , S^M(x^1, x^2,\dots ,x^N) )}{\partial x^l}(x) [/math]
[math] = \frac{\partial T^k}{\partial y^1}(S(x))\cdot \frac{\partial S^1}{\partial x^l}(x) + \frac{\partial T^k}{\partial y^2}(S(x))\cdot \frac{\partial S^2}{\partial x^l}(x) +\dots +\frac{\partial T^k}{\partial y^M}(S(x))\cdot \frac{\partial S^M}{\partial x^l}(x) [/math]
[math]=\sum _{j=1}^M \frac{\partial T^k}{\partial y^j}(S(x))\cdot \frac{\partial S^j}{\partial x^l}(x). [/math]

To była konkretna składowa [math]\displaystyle \frac{\partial (T\circ S)^k}{\partial x^l}(x)[/math]. Dla całej macierzy Jacobiego można wypisać wzór, przypominający jako żywo pochodną funkcji złożonej — ale aby go prawidłowo rozczytać, trzeba pamiętać, co oznaczają poszczeg/olne symbole:

[math] (T\circ S)^{\prime }(x) = T^{\prime }(S(x))\cdot S^{\prime }(x) [/math]

gdzie kropka oznacza mnożenie macierzy pochodnych.

Jeśli zarówno [math]S[/math] jak i [math]T[/math] są odwzorowaniami różniczkowalnymi klasy [math]C^1[/math], to i ich złożenie też jest odwzorowaniem różniczkowalnym klasy [math]C^1[/math]. Wynika to od razu z faktu, że sumy i iloczyny odwzorowań różniczkowalnych typu (%i 3) też są różniczkowalne, a we wzorze (%i 8) są tylko sumy i iloczyny takich wyrażeń.

Analogicznie się argumentuje pokazując, że jeśli [math]S[/math] oraz [math]T[/math] są odwzorowaniami różniczkowalnymi klasy [math]C^r[/math], to i ich złożenie też jest odwzorowaniem różniczkowalnym klasy [math]C^r[/math].

Powyższe można podsumować w twierdzeniu:

Twierdzenie

Jeśli [math]S[/math] i [math]T[/math] są odwzorowaniami klasy [math]C^r[/math], to również ich złożenie [math]T\circ S[/math] jest klasy [math]C^r[/math]. Pierwsza pochodna odwzorowania złożonego dana jest wzorem

[math](T\circ S)^{\prime }(x) = T^{\prime }(S(x))\cdot S^{\prime }(x) [/math]

bądź bardziej dobitnie,

[math]\frac{\partial (T\circ S)^k}{\partial x^l}(x) = \sum _{j=1}^M \frac{\partial T^k}{\partial y^j}(S(x))\cdot \frac{\partial S^j}{\partial x^l}(x). [/math]
Przykł.

[math]S: { \mathbb R}^2\ni (r,\phi )\rightarrow (x=r\cos \phi ,y=r\sin \phi )\in { \mathbb R}^2[/math], [math]T: { \mathbb R}^2\ni (x,y)\rightarrow (u=exp(x+y), v=\exp (x-y)\in { \mathbb R}^2[/math]. Policzymy pochodną wprost oraz jako iloczyn macierzy pochodnych [math]S[/math] i [math]T[/math].