Legge di Boltzmann: differenze tra le versioni

Contenuto cancellato Contenuto aggiunto
m rb totale
Etichetta: Nuovo reindirizzamento
Riga 1:
{{nota#REDIRECT disambigua|la legge sull'emissione di un corpo nero|[[Legge di Stefan-Boltzmann}}]]
[[File:Zentralfriedhof Vienna - Boltzmann.JPG|thumb|La legge di Boltzmann per l'entropia, riportata sopra il busto dello scienziato nella sua tomba a [[Vienna]].]]
 
La '''legge di [[Ludwig Boltzmann|Boltzmann]]''' afferma che l'[[entropia]] di per un [[insieme microcanonico]] è il [[logaritmo]] del volume nello [[spazio delle fasi]]:
 
:<math>S= \ln W</math>
 
 
==Enunciazione==
{{vedi anche|distribuzione di Boltzmann}}
In [[meccanica statistica]] lo studio sull'entropia è un tramite per ottenere informazioni macroscopiche a partire dalle configurazioni microscopiche. Intuitivamente si immagina che a una certa condizione macroscopica di equilibrio del sistema (macrostato o stato termodinamico del sistema, definito da precisi valori di grandezze come pressione e temperatura) corrispondano diverse configurazioni microscopiche (stati dinamici o microstati, definiti solo se si conoscono posizione e velocità di tutte le molecole del sistema).
 
Tali configurazioni microscopiche occupano un volume nello spazio delle fasi il quale viene indicato con W. Allora possiamo definire l'entropia secondo il principio di Boltzmann come:<ref>{{en}} {{cita libro|J. M.|Smith|Introduction to Chemical Engineering Thermodynamics|ed=4|1987|McGraw-Hill|pp=159-163|coautori=H.C.Van Ness; M. M. Abbot}} ISBN 0-07-100303-7</ref>
 
Possiamo definire W come la misura dell'insieme di tutte le possibili disposizioni (o probabilità a livello macroscopico) dei livelli molecolari: W rappresenta quindi il numero di stati totali accessibili al sistema alla temperatura ''T''. Questa misura tiene conto dell'indistinguibilità tra le particelle introducendo il fattore correttivo di Gibbs.
 
Per capire il significato fisico di W prendiamo in esempio un caso di ''entropia per miscelamento'' riferendoci a un cristallo di atomi A. Supponiamo di inserire atomi B (simili in dimensione e dal punto di vista elettronico) nei siti di A per semplice sostituzione: in questo modo abbiamo un numero di atomi A <math>N_A</math> e un numero di atomi B <math>N_B</math> che si distribuiscono nei siti ''N'' del cristallo. Man mano che introduciamo gli atomi B nei siti di A aumenta il numero delle configurazioni possibili tra gli atomi A e B, cioè aumenta la possibilità di ottenere distribuzioni diverse: questo fatto coincide con un aumento del grado di disordine del sistema, e quindi con un aumento di entropia. Il numero massimo di configurazioni W corrisponde al numero di modi possibili di distribuire a caso <math>N_A</math> e <math>N_B</math> oggetti su <math>N</math> <math>(= N_A + N_B)</math> siti e vale:
 
:<math>W= \frac{\left ( N_A + N_B \right )!} { N_A! ~ N_B!}</math>
 
In generale, se nel cristallo di A vengono introdotti diversi tipi di atomi ''simili'' (B, C, ecc.), il numero massimo di configurazioni possibili vale:
 
:<math> W= \frac{\left (N_A + N_B + N_C + ... \right )!} {N_A! \cdot N_B! \cdot N_C! \cdot ...} = \frac{\left ( \sum_i N_i \right )!} {\prod_i N_i ! }</math>
 
A temperature ordinarie, nei gas, queste disposizioni seguono la [[distribuzione di Maxwell-Boltzmann]], ma l'approccio può opportunamente estendersi, in maniera più complessa, a liquidi e solidi dove ad esempio non vige l'indistinguibilità delle singole particelle (poiché spazialmente vincolate ad esempio al reticolo cristallino). A basse temperature, prossime allo [[zero assoluto]], le distribuzioni, in virtù del fatto che le particelle si concentrano nei livelli di energia più bassi, seguiranno differenti distribuzioni, come quella di [[Statistica di Fermi-Dirac|Fermi-Dirac]] o di [[Statistica di Bose-Einstein|Bose-Einstein]] (a seconda del fatto che ricadano o meno sotto il [[principio di esclusione di Pauli]]).
 
La definizione statistico-molecolare è considerata la fondamentale definizione di entropia, dato che tutte le altre possono esserne matematicamente derivate, ma non viceversa. Nelle lezioni di teoria del gas di Boltzmann, del [[1896]], si è dimostrata l'espressione della misura entropica per i sistemi di atomi e molecole in fase gassosa, fornendo quindi una misura per l'entropia in termodinamica classica.
 
Si può dimostrare che l'entropia così definita possiede tutte le caratteristiche dell'entropia termodinamica e in modo particolare si dimostra che è estensiva, ovvero gode della proprietà di additività (e differenza: per cui è calcolabile la variazione d'entropia e la funzione entropia è differenziabile, ovvero ha senso parlare di entropia in termini microscopici). La formula mostra che è estremamente improbabile, anche se non impossibile, che un sistema ritorni da una configurazione finale a una identica allo stato iniziale. La differenza fisica di significato tra entropia e temperatura è che la prima misura lo stato di disordine (fisico) del sistema, la seconda lo stato (energetico) di [[temperatura|agitazione molecolare]].
 
==Deduzioni==
Dalla legge di Boltzmann con alcune considerazioni combinatorie sulla W e dalla [[distribuzione di Maxwell-Boltzmann|distribuzione di Boltzmann]] degli stati possibili, si giunge alla:
:<math>S=\frac{E-E_0}{T} + \ln Z + 1</math>
dove ''T'' è la [[temperatura assoluta]] (in unità energetiche), <math>E-E_0</math> [[energia termica]], ''Z'' la [[Funzione di partizione (meccanica statistica)|funzione di partizione]].<br />
La formula torna utile per il calcolo dell'entropia dei gas.
 
Volendo informazioni macroscopiche del sistema basta derivare l'entropia rispetto a una delle sue variabili naturali ''E'', ''N'' e ''V'' (energia, numero di particelle e volume) tenendo costanti le altre. È necessario tenere conto che questa trattazione riposa sull'[[teoria ergodica|ipotesi ergodica]] che postula di poter sostituire la media temporale sulle configurazioni microscopiche con la media sulle configurazioni stesse (propriamente sostituire le medie temporali con quelle sull'ensemble -Gibbs- ).
 
=== Legge di Gibbs per l'entropia ===
Lo stato macroscopico di un sistema è descrivibile dalla distribuzione di una serie di [[Microstato (fisica)|microstati]]. L'entropia di questo sistema è calcolata con la formula di [[Willard Gibbs]]. <br>
Per un sistema della ''[[fisica classica]]'' (es. una collezione di particelle) avente un numero ''discreto'' di microstati, se indichiamo con <math>E_i</math> l'energia dell'i-esimo microstato, e con <math>p_i</math> la relativa probabilità che si verifichi durante le fluttuazioni del sistema, allora l'entropia di tale sistema è data da:<br>
 
: <math>S = - \,\sum_i p_i \ln \,p_i</math>,
dove:<br>
 
Questa entropia è chiamata indifferentemente anche ''entropia statistica'', oppure ''entropia termodinamica''. Tale formula è la versione [[Matematica discreta|discreta]] dell'[[Entropia (teoria dell'informazione)|Entropia di Shannon]]. L'Entropia di von Neumann è a sua volta una [[Estensione di campi|estensione]] dell'Entropia di Gibbs al fenomeno [[Meccanica quantistica|quanto-meccanico]].<br>
È stato dimostrato<ref>E.T. Jaynes; Gibbs vs Boltzmann Entropies; American Journal of Physics, 391, 1965</ref> che l'Entropia di Gibbs è del tutto equivalente alla definizione classica di entropia:
:<math>dS = \frac{\delta Q}{T} \!</math>
 
== Storia ==
[[Ludwig Boltzmann|Boltzmann]] fu il primo a mettere in relazione entropia e probabilità nel [[1877]], ma sembra che tale relazione non sia mai stata espressa con una specifica costante. Prima del [[1900]], le equazioni in cui ora è presente la costante di Boltzmann non erano scritte utilizzando l'energia delle singole molecole, ma presentavano la [[costante universale dei gas]] (''R'') e l'energia macroscopica del sistema.
 
In effetti la Legge di Boltzmann '''''S'' = log ''W''''' è stata formulata in realtà da [[Max Planck|Planck]] nel [[1900]]<ref name="Planck01">{{Cita pubblicazione|nome= Max |cognome= Planck |wkautore= Max Planck |titolo= Ueber das Gesetz der Energieverteilung im Normalspectrum |url= http://www.physik.uni-augsburg.de/annalen/history/historic-papers/1901_309_553-563.pdf |rivista= Annalen der Physik |anno= 1901 |volume= 309 |numero= 3 |pp= 553–63 | doi = 10.1002/andp.19013090310|bibcode = 1901AnP...309..553P }}.".</ref>, nello stesso articolo in cui introdusse il [[costante di Planck|quanto d'azione ''h'']].<ref>[http://www.bourbaphy.fr/duplantier2.pdf Duplantier, Bertrand (2005). "Le mouvement brownien, 'divers et ondoyant'" Brownian motion, 'diverse and undulating' (PDF). Séminaire Poincaré 1 : 155–212]</ref>
 
== Note==
<references/>
 
== Voci correlate==
* [[Distribuzione di Boltzmann]]
* [[Entropia]]
* [[Insieme microcanonico]]
* [[Teorema di equipartizione dell'energia]]
* [[Statistica di Maxwell-Boltzmann]]
* [[Equazione di Arrhenius]]
 
[[Categoria:Meccanica statistica]]
{{Meccanica statistica}}
{{Controllo di autorità}}
{{Portale|termodinamica}}
 
[[Categoria:Teoremi della termodinamica|Teorema di Boltzmann]]