Informazione

notizia, dato o elemento che consente di avere conoscenza più o meno esatta di fatti, situazioni, modi di essere
(Reindirizzamento da Informazioni)
Disambiguazione – Se stai cercando il quotidiano, vedi Informazione (quotidiano).

In generale può essere descritta come informazione qualsiasi notizia, dato o elemento che consente di avere conoscenza più o meno esatta di fatti, situazioni, modi di essere. Nella pratica il concetto di informazione non è ben definito e tende ad assumere sfumature diverse in base al contesto di applicazione.[1]

Il semaforo è un classico esempio di dato.
In questo caso di tipo colore, cardinalità 3 e valore rosso. L'informazione codificata è quella relativa allo stato della viabilità locale.

In biblioteconomia è comune definire l'informazione come l'insieme di dati, correlati tra loro, con cui un'idea (o un fatto) prende forma ed è comunicata.[2]

In ingegneria ed informatica si è invece consolidata una teoria quantitativa dell'informazione, che pur essendo costruita con rigore e formalismo matematico poggia comunque su una definizione assiomatica e circolare del concetto.[3][4]

In ogni caso l'informazione è un concetto trascendente, il cui studio risulta di notevole interesse in numerosi ambiti: ad esempio in campo tecnico è oggetto di studio dell'ingegneria dell'informazione, sul fronte delle scienze sociali è oggetto d'indagine delle scienze della comunicazione e in generale della sociologia, con particolare riguardo agli aspetti legati alla diffusione dei mezzi di comunicazione di massa nell'attuale società dell'informazione (o era dell'informazione).

Etimologia modifica

La parola informazione deriva dal sostantivo latino informatio(-nis) (dal verbo informare, nel significato di "dare forma alla mente", "disciplinare", "istruire", "insegnare"). Già in latino la parola veniva usata per indicare un "concetto" o un'"idea", ma non è chiaro se questa parola possa avere influenzato lo sviluppo della parola informazione.

Inoltre la parola greca corrispondente era "μορφή" (morfè, da cui il latino forma per metatesi), oppure "εἶδος" (éidos, da cui il latino idea), cioè "idea", "concetto" o "forma", "immagine"; la seconda parola fu notoriamente usata tecnicamente in ambito filosofico da Platone e Aristotele per indicare l'identità ideale o essenza di qualcosa (vedi Teoria delle forme). Eidos si può anche associare a "pensiero", "asserzione" o "concetto".[5]

Descrizione modifica

In generale un'informazione ha valore in quanto potenzialmente utile al fruitore per i suoi molteplici scopi: nell'informazione, infatti, è spesso contenuta conoscenza o esperienza di fatti reali vissuti da altri soggetti e che possono risultare utili senza dover necessariamente attendere di sperimentare ognuno ogni determinata situazione. Sotto questo punto di vista il concetto utile di informazione e la parallela necessità di comunicare o scambiare informazione tra individui nasce, nella storia dell'umanità, con l'elaborazione del linguaggio da parte della mente umana e si sviluppa con la successiva invenzione della scrittura come mezzo per tramandare l'informazione ai posteri. Secondo quest'ottica la storia e l'evoluzione della società umana sono frutto dell'accumulazione di conoscenza sotto forma di informazione. Nell'informazione ad esempio è contenuto know how utile per eseguire una determinata attività o compito, cosa che la rende ad esempio una risorsa strategica in ambito economico dell'economia aziendale.

L'informazione e la sua elaborazione attraverso i computer hanno avuto certamente un impatto notevole nella nostra attuale vita quotidiana. L'importanza è testimoniata, ad esempio, dai sistemi di protezione escogitati mediante la crittografia e dal valore commerciale della borsa tecnologica. L'uso appropriato dell'informazione pone anche problemi etici di rilievo, come nel caso della riservatezza riguardo alle informazioni cliniche che potrebbero altrimenti avvantaggiare le compagnie di assicurazioni mediche e danneggiare i pazienti.

L'importanza e la diffusione dell'informazione nella società moderna è tale che a questa spesso ci si riferisce come la Società dell'Informazione.

Nei vari contesti modifica

  Lo stesso argomento in dettaglio: Ingegneria dell'informazione.

Col progredire delle conoscenze umane l'ingegneria dell'informazione ha trovato applicazioni sempre più vaste e differenziate.

I dati in un archivio sono informazioni, ma anche la configurazione degli atomi di un gas può venire considerata informazione. L'informazione può essere quindi misurata come le altre entità fisiche ed è sempre esistita, anche se la sua importanza è stata riconosciuta solo nel XX secolo.

Per esempio, la fondamentale scoperta della “doppia elica” del DNA nel 1953 da parte di James Watson e Francis Crick ha posto le basi biologiche per la comprensione della struttura degli esseri viventi da un punto di vista informativo. La doppia elica è costituita da due filamenti accoppiati e avvolti su se stessi, a formare una struttura elicoidale tridimensionale. Ciascun filamento può essere ricondotto a una sequenza di acidi nucleici (adenina, citosina, guanina, timina). Per rappresentarlo, si usa un alfabeto finito come nei calcolatori, quaternario invece che binario, dove le lettere sono scelte tra A, C, G e T, le iniziali delle quattro componenti fondamentali. Il DNA rappresenta quindi il contenuto informativo delle funzionalità e della struttura degli esseri viventi.

Altre definizioni provengono dall'informatica e dalla telematica:

  • Nel modello di Shannon e Weaver, l'informazione è considerata parte integrante del processo comunicativo;
  • La teoria dell'informazione ha come scopo quello di fornire metodi per comprimere al massimo l'informazione prodotta da una sorgente eliminando tutta la ridondanza.

Informatica modifica

  Lo stesso argomento in dettaglio: Informatica.

I computer, nati come semplici calcolatori, sono diventati col tempo dei potenti strumenti per memorizzare, elaborare, trovare e trasmettere informazioni. La diffusione di Internet come rete globale ha d'altro canto messo a disposizione una mole di informazioni mai prima d'ora a disposizione dell'umanità. Alla base di ogni informazione in un computer c'è il concetto di dato: sebbene all'interno del calcolatore elettronico tutti i dati siano digitali, cioè memorizzati come semplici numeri, dal punto di vista umano, invece, si può attribuire un significato anche ai numeri. Per questo motivo, nei linguaggi di programmazione, spesso esistono alcuni formati specifici per indicare in modo esplicito quale significato dare ai dati. Fermandosi ai tipi di base abbiamo essenzialmente numeri, caratteri e stringhe (successioni finite di caratteri). Tali dati devono essere messi in relazione tra di loro per avere un significato; se invece le relazioni valide possibili sono più di una, si può generare ambiguità.[non chiaro]

Ad esempio, 1492 è un numero che da solo non significa niente: potrebbe essere una quantità di mele (se correlato mediante la relazione di quantità con l'oggetto mela), il costo di un anello o l'anno in cui Cristoforo Colombo si imbarcò e scoprì l'America. La parola "calcio" può essere uno sport, un elemento chimico o un colpo dato col piede. In genere le basi di dati che contengono informazioni relative ad un determinato campo del sapere non risentono molto del problema dell'ambiguità: in una base dati di chimica la parola calcio indicherà certamente l'elemento chimico. Nelle basi di dati relazionali, sistemi di tabelle e relazioni permettono di organizzare i dati per poter ottenere delle informazioni senza ambiguità: se la tabella "elementi_chimici" contiene la parola calcio, questo sarà senza dubbio l'elemento chimico. La semplice immissione del dato nella tabella "elementi_chimici" ha implicitamente classificato la parola "calcio", conferendole un significato, dato dalla scelta della tabella in cui inserire un dato (la scelta della tabella rappresenta il trasferimento di conoscenza da una persona alla base dati). Inoltre, le basi di dati relazionali permettono la creazione di relazioni tra dati di diverse tabelle.

Oltre alle relazioni esplicite, ci possono essere delle relazioni dedotte. Supponiamo di avere la tabella "figlio_di": se abbiamo che Antonio è figlio di Luigi (informazione 1), e che Luigi è figlio di Nicola (informazione 2), allora possiamo dedurre che Nicola è il nonno di Antonio (informazione 3). È quindi possibile formalizzare la relazione e inserirla nella base di dati, ottenendo la tabella nonno_di senza dover immettere altri dati:

se A è figlio di B e B è figlio di C, allora C è nonno di A

oppure, ogni volta che si ha bisogno di conoscere eventuali nipoti/nonni di qualcuno, analizzare la relazione figlio_di. E le informazioni possono essere maggiori: analizzando il sesso di B, si potrà sapere se C è nonno paterno o materno.

Le basi di conoscenza pensate per la deduzione sono più elastiche delle tradizionali basi di dati relazionali. Un esempio sono le ontologie.

Analisi particolarmente ricercate per il loro valore economico ai fini commerciali sono quelle che analizzano grandi flussi di informazioni per scoprire tendenze che permettono dedurre delle informazioni che hanno una buona probabilità di essere vere riguardo utenti singoli o categorie di utenti. Supponendo che Antonio abbia sempre acquistato in internet dei libri di fantascienza, allora la pubblicità che gli si mostrerà potrà mostrare dei libri di fantascienza o simili, che molto probabilmente lo interesseranno. Questi tipi di analisi possono fornire informazioni talvolta sorprendenti: una catena di supermercati in un paese anglosassone avrebbe scoperto, analizzando gli scontrini, qualcosa altrimenti difficilmente immaginabile: le persone che acquistavano pannolini spesso compravano più birra delle altre, per cui mettendo la birra più costosa non lontano dai pannolini, poteva incrementarne le vendite. Infatti le persone che avevano figli piccoli passavano più serate in casa a guardare la TV bevendo birra, non potendo andare nei locali con gli amici. L'esempio dell'associazione tra pannolini e birra è usato spesso nei corsi universitari di data mining; tuttavia c'è da precisare che non è chiaro quale sia la catena di supermercati in questione, e l'esempio, seppur valido a scopi didattici, potrebbe essere inventato.

Aspetti tecnici modifica

  Lo stesso argomento in dettaglio: Teoria dell'informazione, Bit e Dato.

L'informazione è generalmente associata a segnali, trasmissibili da un sistema di telecomunicazioni e memorizzabili su supporti di memorizzazione.

La misurazione modifica

Secondo la Teoria dell'Informazione in una comunicazione, che avviene attraverso un dato alfabeto di simboli, l'informazione viene associata a ciascun simbolo trasmesso e viene definita come la riduzione di incertezza che si poteva avere a priori sul simbolo trasmesso.

In particolare, la quantità di informazione collegata a un simbolo è definita come

 


dove   è la probabilità di trasmissione di quel simbolo. La quantità di informazione associata a un simbolo è misurata in bit. La quantità di informazione così definita è una variabile aleatoria discreta, il cui valor medio, tipicamente riferito alla sorgente di simboli, è detto entropia della sorgente, misurata in bit/simbolo. La velocità di informazione di una sorgente, che non coincide con la frequenza di emissione dei simboli, dato che non è detto che ogni simbolo trasporti un bit di informazione "utile", è il prodotto dell'entropia dei simboli emessi dalla sorgente per la frequenza di emissione di tali simboli (velocità di segnalazione). Quanto sopra può essere generalizzato considerando che non è assolutamente obbligatorio che ogni simbolo sia codificato in maniera binaria (anche se questo è ciò che accade più spesso). Quindi l'informazione collegata a un simbolo codificato in base   è per definizione pari a

 


con   pari alla probabilità di trasmissione associata a quel simbolo. L'entropia della sorgente è per definizione pari alla sommatoria, estesa a tutti i simboli della sorgente, dei prodotti tra la probabilità di ciascun simbolo e il suo contenuto informativo. Nei casi particolari in cui   sia 10 l'entropia della sorgente è misurata in hartley, se invece   è pari al Numero di Eulero   si misura in nat. Dalla formula si evince che se la probabilità   di trasmettere il simbolo è pari a uno, la quantità di informazione associata è nulla; viceversa se nel caso limite ideale di   la quantità di informazione sarebbe infinita. Ciò vuol dire in sostanza che tanto più un simbolo è probabile tanto meno informazione esso trasporta e viceversa: un segnale costante o uguale a se stesso non porta con sé alcuna nuova informazione essendo sempre il medesimo: si dice allora che l'informazione viaggia sotto forma di Innovazione. I segnali che trasportano informazione non sono dunque segnali deterministici, ma processi stocastici. Nella teoria dei segnali e della trasmissione questa informazione affidata a processi aleatori è la modulante (in ampiezza, fase o frequenza) di portanti fisiche tipicamente sinusoidali che traslano poi in banda il segnale informativo.

La portata dei flussi modifica

Il concetto di informazione trasportato su un canale di comunicazione può essere messo in analogia con quello della portata in idrodinamica, mentre la velocità del flusso rappresenta la velocità di propagazione del segnale che trasporta l'informazione sulla linea. Al riguardo ogni linea di trasmissione o mezzo trasmissivo ha un suo quantitativo massimo di informazione trasportabile, espresso dalla velocità di trasmissione della linea stessa secondo il Teorema di Shannon.

Note modifica

  1. ^ Informazione, in Treccani.it – Enciclopedie on line, Roma, Istituto dell'Enciclopedia Italiana.
  2. ^ Giuliano Vigini, Glossario di biblioteconomia e scienza dell'informazione, Editrice Bibliografica, Milano 1985, p. 62.
  3. ^ L. Martignon, Information Theory, in International Encyclopedia of the Social & Behavioral Sciences, Elsevier, 2001, DOI:10.1016/B0-08-043076-7/00608-2, ISBN 978-0-08-043076-8.
  4. ^ (EN) Claude Elwood Shannon, A mathematical theory of communication, in ACM SIGMOBILE Mobile Computing and Communications Review, vol. 5, n. 1, New York (NY, USA), Association for Computing Machinery, 1º gennaio 2001 [prima pubblicazione 1948], DOI:10.1145/584091.584093, ISSN 1559-1662 (WC · ACNP).
  5. ^ Il termine indicava originariamente "ciò che appare alla vista", derivando dalla radice indoeuropea *weid-/wid-/woid-, "vedere" (confronta il latino video). Esso venne però ad assumere in seguito una grande molteplicità di significati (per esempio, in Isocrate esso indica il "modello teorico" di un'orazione).

Bibliografia modifica

Voci correlate modifica

Altri progetti modifica

Collegamenti esterni modifica

Controllo di autoritàThesaurus BNCF 7988 · GND (DE4026899-8 · BNE (ESXX526504 (data)