Neghentropia: differenze tra le versioni

Contenuto cancellato Contenuto aggiunto
Nessun oggetto della modifica
Riga 4:
 
== Origine del nome ==
L'espressione "entropia negativa" e il relativo concetto furono introdotti da [[Erwin Schrödinger]] nel suo libro divulgativo del 1943 ''[[Che cos'è la vita?|What is Life?]]''<ref>[[Erwin Schrödinger]], ''What is Life - the Physical Aspect of the Living Cell'', [[Cambridge University Press]], 1944</ref>. Fu [[Léon Brillouin]], successivamente, ad abbreviare l'espressione in ''negentropy''<ref>[[Leon Brillouin]]: (1953) "Negentropy Principle of Information", ''J. of Applied Physics'', v. '''24(9)''', pp. 1152-1163</ref><ref>Léon Brillouin, ''La science et la théorie de l'information'', [[Masson]], 1959</ref> (da ''neg''(''ative'') ''entropy''<ref>[http://www.treccani.it/vocabolario/negentropia/ neġentropìa], dal ''[[Vocabolario Treccani]] on line'', [[Istituto dell'Enciclopedia italiana]]</ref>) per esprimerla in un modo più "positivo": per un sistema vivente, anziché dire che esporta entropia, si potrà equivalentemente dire che importa e accumula negentropia<ref>Mae-Wan Ho, [http://www.i-sis.org.uk/negentr.php What is (Schrödinger's) Negentropy?], Bioelectrodynamics Laboratory, Open university Walton Hall, Milton Keynes</ref>. Nel 1974, [[Albert Szent-Györgyi]] propose di sostituire ''negentropy'' con ''syntropy'' sintropia (''syn''=convergente, ''tropos''=tendenza), un termine coniato nel 1942 dal matematico [[Luigi Fantappiè|Luigi Fantappié]] nella ''[[Teoria unitaria del mondo fisico e biologico]]'' sulla base di un'analisi delle soluzioni delle equazioni ondulatorie che rappresentano le principali leggi fisiche. Egli cercò così di costruire una teoria unificata della [[fisica]] e della [[biologia]].
 
In un'annotazione a ''What is Life?'', Schrödinger spiegò cosa intendesse con l'espressione "entropia negativa".
Riga 24:
 
=== Negli esseri viventi ===
Il principio di sintropia afferma che l’[[entropia]] è strettamente relativa'' all’interno di ogni singolo [[sistema]]'', e che l’[[universo]], e ogni [[sistema]] vivente, non possono morire di [[morte termica]] in quanto, a fronte dell’[[entropia]] che opera in quel sistema, vi è un processo opposto sintropico di reintegrazione dell'ordine. Un esempio è dato dal [[metabolismo]] degli organismi viventi nei quali a fronte del [[catabolismo]] che porta al consumo e alla distruzione di tessuti organici da parte dell’organismo per poter vivere vi è l’[[anabolismo]], che ricostituisce questi tessuti attraverso l’assunzione di energia, in varie forme. Ovviamente per la termodinamica classica questo fatto non vìola alcuna legge della termodinamica, e a fronte di ogni diminuzione d'entropia in un sistema non isolato, ve ne è un aumento altrove, portando l'intero universo ada un aumento netto della stessa. Come è stato fatto notare dai fratelli Salvatore e Giuseppe Arcidiacono non esistono fenomeni entropici e sintropici puri, ma questi sono sempre associati.
 
Negli esseri viventi la sintropia agirebbe come una tendenza propria degli esseri viventi nel proiettarsi verso il futuro essendo essa stessa una caratteristica proveniente dal futuro verso il passato. Un tentativo di spiegazione di questa caratteristica rientra negli studi sulle reazioni prestimolo che si riscontrano nell'uomo e negli animali. Si è riscontrato che sia la frequenza cardiaca, chesia la conduttanza cutanea e altri parametri biologici variano in maniera anticipata rispetto a fenomeni emotivi. Ciò dimostrerebbe la tendenza istintiva dell'uomo a prevenire gli atti futuri secondo il principio della sintropia (King, 1989).<ref>{{Cita web|autore = Antonella Vannini|url = http://www.lifeenergyscience.it/tesi.pdf|titolo = Un modello sintropico della coscienza|accesso = |data = }}</ref><ref>{{Cita web|autore = |url = http://www.metafisicadelcolore.it/index.php?option=com_k2&view=item&id=261:sintropia-la-supercasualit%C3%A0&lang=it|titolo = La Supercausalità|accesso = |data = }}</ref>
 
==Teoria dell'informazione==
Riga 32:
In informatica e statistica, la negentropia è un'[[unità di misura]] per la quantificazione di non-[[gaussiana|gaussianità]]. La misura è anche nota con il termine ''[[entropia]] differenziale''.
 
La negentropia (solitamente indicata con '''N''') rappresenta la variazione dell'entropia, in modo da essere nulla nel caso in cui venga applicata ada una variabile con [[Funzione di densità di probabilità|densità di probabilità]] gaussiana, e sempre non negativa, altrimenti.
 
La sua definizione è : <math> \textbf{N}(y)=H(y_{gauss}) - H(y) </math> , dove <math>y_{gauss}</math> rappresenta una [[variabile aleatoria]] con distribuzione gaussiana e matrice di [[Covarianza (probabilità)|covarianza]] della variabile oggetto di studio <math>y</math>. La negentropia è quindi sempre non negativa.