Differenze tra le versioni di "Teoremi centrali del limite"

nessun oggetto della modifica
 
dove <math>\ \bar{x}=\frac{\sum_{j=1}^{n}x_{j}}{n}</math> è la [[media aritmetica]] degli <math>\ x_{j}</math>,
si ha che <math>\ S_{n}</math> [[convergenza in distribuzione|converge in distribuzione]] a una [[variabile casualedistribuzione normalegaussiana]] avente [[valore atteso]] 0 e [[varianza]] 1, ossia la distribuzione di <math>\ S_{n}</math>, al limite per <math>\ n</math> che tende a infinito, coincide con quella di una tale variabile casualedistribuzione normalegaussiana.
 
{{cassetto|Dimostrazione|testo=
::<math>\ \lim_{n\rightarrow\infty}\varphi_{S_{n}}(t)=\lim_{n\rightarrow\infty}\left(1+\frac{1}{n}\left(-\frac{t^{2}}{2}\right)\right)^{n}=\exp\left\{-\frac{t^{2}}{2}\right\}</math>
 
Nell'espressione sopra si riconosce la [[funzione caratteristica (teoria della probabilità)|funzione caratteristica]] di una [[variabile casuale normale]]distribuzione standardgaussiana, così che la [[funzione di densità]], e dunque la [[funzione di ripartizione]], della <math>\ S_{n}</math>, converge a quella di una normaledistribuzione standardgaussiana al tendere di <math>\ n</math> a infinito, [[come volevasi dimostrare]].
}}
 
<math>Y=N(np,np(1-p)),</math>
 
ovvero una normalegaussiana con media <math>np</math> e varianza <math>np(1-p)</math>.
 
Se standardizziamo:
: <math>{n \choose k}p^k(1-p)^{n-k}\simeq \frac{1}{\sqrt{2{\mathbf \pi }np(1-p)}}e^{{-{\left(k-np\right)}^2}/{2np(1-p)}}</math>
 
che è esattamente l'asserto che volevamo provare - il termine a destra è una distribuzione normalegaussiana con media <math> np </math> e varianza <math> np(1-p) </math>.
}}
== Note ==
* [[Probabilità]]
* [[Variabile casuale]]
* [[Distribuzione gaussiana]]
* [[Variabile casuale normale]]
* [[Jarl Waldemar Lindeberg]]
* [[Alan Turing]]
Utente anonimo