Distribuzione Gamma: differenze tra le versioni

Contenuto cancellato Contenuto aggiunto
Boehm (discussione | contributi)
m typog
Riga 70:
* <math>\mathrm{Gamma}(1,{\lambda})=\mathcal{E}({\lambda})</math> è la [[distribuzione esponenziale]];
* <math>\mathrm{Gamma}(\tfrac{n}{2},1/2)=\chi^2(n)</math> è la [[distribuzione chi quadrato]];
* Se <math>\mathrm{Gamma}(\tfrac{3}{2},2a^2)X</math> èsegue launa [[distribuzione di Maxwell-Boltzmann]] di parametro <math>a</math>allora <math>X^2</math>è distribuito secondo <math>\mathrm{Gamma}(\tfrac{3}{2},2a^2)</math>.
 
Nell'[[inferenza bayesiana]] la distribuzione Gamma può descrivere sia ''a priori'' che ''a posteriori'' di un'osservazione il parametro <math>X</math> di diverse distribuzioni di probabilità, ad esempio della [[distribuzione esponenziale]] e della [[distribuzione di Poisson]].
Riga 125:
Anche qui la funzione di verosimiglianza si annulla per il limite di <math>k\rightarrow 0^+</math> e <math>k\rightarrow +\infty</math>, pertanto procediamo con il calcolo della derivata.
 
<math>\left(\frac{\partial \mathcal{L}}{\partial k}\right)_{k=\hat{k}}\!\!\!\!\!=
e^{-\frac{1}{\theta}\sum x_i} \left(\prod x_i\right)^{\hat{k}-1}\left[
\frac{\ln\left(\prod x_i\right)}{\theta^{n\hat{k}}\Gamma^{n}(\hat{k})} - n\frac{\ln(\theta)+\psi_0(\hat{k})}{\theta^{n\hat{k}}\Gamma^{n}(\hat{k})}\right]=
\frac{e^{-\frac{1}{\theta}\sum x_i} \left(\prod x_i\right)^{\hat{k}-1}}{\theta^{n\hat{k}}\Gamma^n(\hat{k})}
\left[\ln\left(\prod \frac{x_i}{\theta}\right)-n\psi_0(\hat{k})\right]
Riga 143:
Eguagliando a zero la nostra funzione di verosimiglianza otteniamo il nostro punto di massimo
 
<math>\left(\frac{\partial \mathcal{L}}{\partial k}\right)_{k=\hat{k}}\!\!\!\!\!=0\,\Rightarrow\,
\ln\left(\prod \frac{x_i}{\theta}\right)-n\psi_0(\hat{k})=0\,\Rightarrow\,
\psi_0(\hat{k})=\ln\left(\sqrt[n]{\prod \frac{x_i}{\theta}}\right)
Riga 153:
</math>
 
Questo stimatore ottenuto è asintoticamente corretto (ovvero per una popolazione con <math>n</math>molto grande), ma per valori finiti andrebbe verificato il suo valore atteso che, se risultasse essere k, allora sarebbe un corretto stimatore.
 
Calcoliamo quindi