Teorema di esistenza e unicità per un problema di Cauchy: differenze tra le versioni

Contenuto cancellato Contenuto aggiunto
mNessun oggetto della modifica
Riga 50:
Sia <math>\delta < \min \left\{a, \tfrac{1}{L}, \tfrac{b}{M} \right\}</math> con <math>M = \max \{ |f(x,y)|: (x,y) \in I \times J\}</math>. Si noti che <math>M \in \mathbb{R}</math> per il [[teorema di Weierstrass]] (poiché <math>I \times J</math> è [[spazio compatto|compatto]]). Nel caso in cui <math>M=0</math>, ovvero qualora <math>f</math> sia identicamente nulla, il sistema ammette come unica soluzione la [[funzione costante]] <math>y(x)=y_0</math>, quindi si può supporre <math>M \ne 0</math>.
 
Sia <math>I_\delta =[x_0-\delta,x_0+ \delta]</math>. Si può considerare lo [[spazio metrico]] <math>(X,\| \cdot \|_{C^{0}})</math> delle funzioni <math>g: I_\delta \to \R^n</math> continue con la [[norma dell'estremo superiore]], ed una [[palla (matematica)|palla]] al suo interno, definita da :

:<math>B = \{g \in X: \|g - y_0\|_{C^{0}} \leq b\}</math>.
 
Essendo lo [[spazio (matematica)|spazio]] <math>X</math> [[Spazio completo|completo]], e <math>B \subseteq X</math> [[insieme chiuso|chiuso]], allora anche quest'ultimo risulta essere uno [[spazio completo]] rispetto alla [[metrica|metrica indotta]].
Line 80 ⟶ 82:
 
==== Seconda dimostrazione (Picard-Lindelöf) ====
Nel corso di questa [[dimostrazione]] alternativa giungeremo ad una [[stima]] generalmente più accurata del [[numero reale]] <math>\delta</math>. Inizialmente, poniamosi ponga <math>\delta = \min \{a, \tfrac b M\}</math>. Il passo successivo consiste nel definire per ricorrenza una [[successione di funzioni]] <math>y_k: I_\delta \to \R^n</math> come
 
Nel corso di questa [[dimostrazione]] alternativa giungeremo ad una [[stima]] generalmente più accurata del [[numero reale]] <math>\delta</math>. Inizialmente poniamo <math>\delta = \min \{a, \tfrac b M\}</math>. Il passo successivo consiste nel definire per ricorrenza una [[successione di funzioni]] <math>y_k: I_\delta \to \R^n</math> come
 
:<math>
Line 90 ⟶ 91:
 
È necessaria quindi una verifica della buona definizione della successione, più precisamente bisogna mostrare (ad esempio tramite
[[induzione]]) che <math>y_k(t) \in J \ \forall t \in I_\delta</math>; il passo base è immediato per come è stato definito <math>J</math>, mentre per il passo induttivo supponiamosi supponga <math>y_k \in J \forall t \in J</math>, da cui banalmente <math>(t,y_k(t)) \in I_\delta \times J</math>. Per le ipotesi preliminarmente fatte su <math>f</math> possiamosi può quindi maggiorare il valore assoluto di <math>f(t,y_k(t))</math> con <math>M</math>. È dunque di immediata verifica che
 
:<math>|y_{k+1}(x) - y_0|= \left|\int_{x_0}^x f(t,y_k(t))\mathrm{d}t\right| \le \left|\int_{x_0}^x |f(t,y_k(t))|\mathrm{d}t \right|
Line 106 ⟶ 107:
Per avere una migliore comprensione della formula generale per la stima che verrà data tra poco è consigliabile sviluppare almeno
un altro passo dell'induzione:
 
:<math>\begin{align}|y_3(x)-y_2(x)| &= \left|\int_{x_0}^x [f(t,y_2(t))-f(t,y_1(t))]\mathrm{d}t \right| \le \left| \int_{x_0}^x |f(t,y_2(t))-f(t,y_1(t))|\mathrm{d}t|\right| \\
& \le \left|\int_{x_0}^x L|y_2(t)-y_1(t)|\mathrm{d}t\right|\le \frac{M L^2}{2} \left|\int_{x_0}^x |t - x_0|^2 \mathrm{d}t \right| = \frac{M L^2}{3!} |x - x_0|^3\end{align}</math>
Line 112 ⟶ 114:
 
:<math>|y_{k+1}(x)-y_k(x)| \le \frac{ML^k}{(k+1)!} |x - x_0|^{k+1} \quad \forall x \in I_\delta</math>
da cui possiamo dedurre la [[convergenza uniforme]] di questa successione di funzioni nell'[[intervallo (matematica)|intervallo]] <math>I_\delta</math>, dato che maggiorando ulteriormente con <math>\frac{M}{L} \frac{L^{k+1} \delta^{k+1}}{(k+1)!}</math>
si ottiene chiaramente la ridotta della [[serie esponenziale]] numerica
:<math>\sum_{k=1}^\infty \frac{M}{L}\frac{L^{k+1} \delta^{k+1}}{(k+1)!}=\frac{M}{L} (e^{L \delta}- 1)</math>.
 
da cui possiamosi può dedurre la [[convergenza uniforme]] di questa successione di funzioni nell'[[intervallo (matematica)|intervallo]] <math>I_\delta</math>, dato che maggiorando ulteriormente con <math>\frac{M}{L} \frac{L^{k+1} \delta^{k+1}}{(k+1)!}</math> :
Passando al [[limite (matematica)|limite]] per <math>k \rightarrow + \infty</math> e sfruttando nuovamente la lipschitzianità di <math>f</math> rispetto a <math>y</math>, otteniamo la [[convergenza uniforme]] di <math>f(t,y_k(t))</math> a <math>f(t,y(t))</math>, ove <math>y(t)</math> indica il [[limite di una successione|limite]] della successione precedentemente analizzata.
 
:<math>\frac{M}{L} \frac{L^{k+1} \delta^{k+1}}{(k+1)!}</math>
 
si ottiene chiaramente la ridotta della [[serie esponenziale]] numerica:
 
:<math>\sum_{k=1}^\infty \frac{M}{L}\frac{L^{k+1} \delta^{k+1}}{(k+1)!}=\frac{M}{L} (e^{L \delta}- 1)</math>.
 
Passando al [[limite (matematica)|limite]] per <math>k \rightarrow + \infty</math> e sfruttando nuovamente la lipschitzianità di <math>f</math> rispetto a <math>y</math>, otteniamosi ottiene la [[convergenza uniforme]] di <math>f(t,y_k(t))</math> a <math>f(t,y(t))</math>, ove <math>y(t)</math> indica il [[limite di una successione|limite]] della successione precedentemente analizzata.
 
Si può a questo punto utilizzare il [[teorema di passaggio al limite sotto il segno di integrale]] per ottenere :
 
:<math> y(x) = y_0 + \int_{x_0}^x f(t,y(t)) \mathrm{d}t</math>.
 
Ma questa è la formulazione [[integrale]] (ed equivalente) del [[problema di Cauchy]], quindi per concludere la dimostrazione non resta altro che mostrare l'unicità di tale soluzione. Il modo migliore è procedere per [[Dimostrazione per assurdo|assurdo]]: supponiamosi esistasupponga che esiste un'altra [[Funzione (matematica)|funzione]] <math>g(x)</math> definita in un [[intorno]] <math>I_{\delta'}</math> (la [[notazione]] rimane coerente con quanto esposto in precedenza) della [[Condizioni iniziali|condizione iniziale]] <math>x_0</math> e tale che esiste <math>\tilde{x} \in I_{\delta'} </math> per cui <math>g(\tilde{x}) \neq y(\tilde{x})</math>. Detto <math>\tilde{\delta} = min \{\delta, \delta'\}</math> si consideri la relazione (valida per ipotesi di assurdo) :
 
Si può a questo punto utilizzare il [[teorema di passaggio al limite sotto il segno di integrale]] per ottenere
:<math> y(x) = y_0 + \int_{x_0}^x f(t,y(t)) \mathrm{d}t</math>.
Ma questa è la formulazione [[integrale]] (ed equivalente) del [[problema di Cauchy]], quindi per concludere la dimostrazione non resta altro che mostrare l'unicità di tale soluzione. Il modo migliore è procedere per [[Dimostrazione per assurdo|assurdo]]: supponiamo esista un'altra [[Funzione (matematica)|funzione]] <math>g(x)</math> definita in un [[intorno]] <math>I_{\delta'}</math> (la [[notazione]] rimane coerente con quanto esposto in precedenza) della [[Condizioni iniziali|condizione iniziale]] <math>x_0</math> e tale che esiste <math>\tilde{x} \in I_{\delta'} </math> per cui <math>g(\tilde{x}) \neq y(\tilde{x})</math>. Detto <math>\tilde{\delta} = min \{\delta, \delta'\}</math> si consideri la relazione (valida per ipotesi di assurdo)
:<math>|g(x) - y_0| = \left| \int_{x_0}^x f(t,g(t)) \mathrm{d}t \right| \le M |x - x_0| \quad \forall x \in I_{\tilde{\delta}}</math>
 
Con un procedimento completamente analogo al precedente si giunge però alla [[stima]]:
 
:<math>|g(x) - y_k(x)| \le \frac{ML^k}{(k+1)!} |x - x_0|^{k+1} \quad \forall x \in I_\delta</math>
 
Dato che il secondo membro della [[disuguaglianza]] tende a 0 al tendere di <math>k</math> all'[[infinito (matematica)|infinito]], possiamosi può dedurre che:
 
:<math>g(x) = y(x) = \lim_{k\to +\infty} y_k \quad \forall x \in I_{\tilde{\delta}}</math>
 
chee ciò contraddice l'[[ipotesi]].
 
== Risolubilità globale e prolungabilità delle soluzioni ==
 
Il teorema è un valido strumento nello studio delle [[equazioni differenziali]], ma [[a priori]] garantisce unicamente l'esistenza della soluzione localmente, ossia in un [[intorno]] delle [[condizioni iniziali]]. Il [[teorema di esistenza e unicità globale]] assicura invece l'esistenza di un'unica funzione risolvente <math>\theta</math> in un [[intervallo (matematica)|intervallo]] arbitrario (eventualmente tutto <math>\R</math>), sotto ipotesi più strette (ad esempio la [[sublinearità]] rispetto a <math>y</math> di <math>f</math>) rispetto a quelle richieste per la versione locale.
 
Line 140 ⟶ 152:
 
== Esempi ==
* Sia dato il problema di Cauchy:
 
Sia dato il problema di Cauchy
 
:<math>\left\{ \begin{array}{ll}
Line 148 ⟶ 159:
\end{array} \right.</math>
:La funzione <math>f</math> soddisfa tutte le ipotesi, quindi localmente la soluzione è unica (in realtà si potrebbe osservare che poiché <math>|f| \le K|y|</math> per una certa costante reale <math>K</math> la soluzione è globalmente unica al variare di <math>\lambda \in \R</math>). La soluzione è quindi (tenendo conto della condizione iniziale <math>y(0) = 1</math>) la funzione <math>y = e^{\lambda x}</math>
poiché <math>|f| \le K|y|</math> per una certa costante reale <math>K</math> la soluzione è globalmente unica
al variare di <math>\lambda \in \R</math>).
 
Vediamo* invece unUn tipico esempio di un problema che non rispetta le ipotesi è:
La soluzione è quindi (tenendo conto della condizione iniziale <math>y(0) = 1</math>) la funzione <math>y = e^{\lambda x}</math>
----
Vediamo invece un tipico esempio di un problema che non rispetta le ipotesi:
 
:<math>\left\{ \begin{array}{ll}
Line 160 ⟶ 167:
y(0) = 0
\end{array} \right.</math>
 
:La funzione <math>f</math> non è localmente lipschitziana rispetto a <math>y</math> in nessun [[intorno]] dell'origine e infatti non si ha un'unica soluzione con questa condizione iniziale (anzi, se ne possono trovare infinite: è il fenomeno del [[pennello di Peano]]), quali ad esempio <math>y(x) = x^3</math> o <math>y(x) = 0</math>.
----
 
* Si consideri l'[[equazione differenziale]] del secondo ordine che descrive il [[moto armonico]]:
 
:<math> y'' + \omega^2 y= 0, \quad \omega \in \R</math>
 
:riconducibile mediante sostituzione al sistema:
 
:<math>\left\{ \begin{array}{ll}
y' =z\\
z'=-\omega^2 y
\end{array} \right.</math>
 
:Aggiungendo le condizioni iniziali (la scelta <math>x_0 = 0</math> è arbitraria) <math>y(0) = y_0</math> e <math>z(0) = z_0</math> si ottiene come unica soluzione:
:<math>y(x) = y_0\cos(\omega x)+\frac{z_0}{\omega} \sin(\omega x)</math>.
 
:<math>y(x) = y_0\cos(\omega x)+\frac{z_0}{\omega} \sin(\omega x)</math>.
 
==Note==
Line 184 ⟶ 197:
==Voci correlate==
*[[Equazione differenziale ordinaria]]
*[[Funzione continua]]
*[[Funzione liscia]]
*[[Problema di Cauchy]]
*[[Augustin Cauchy]]
*[[Rudolph Otto Sigismund Lipschitz]]
*[[Émile Picard]]
*[[Ernst Leonard Lindelöf]]
 
== Collegamenti esterni ==