Rete neurale: differenze tra le versioni

Il concetto di rete neurale si pone perché una [[Funzione (matematica)|funzione]] <math>f(x)</math> è definita come una [[Composizione_di_funzioni|composizione]] di altre funzioni <math>G(x)</math>, che possono a loro volta essere ulteriormente definite come composizione di altre funzioni. Questo può essere convenientemente rappresentato come una struttura di reti, con le frecce raffiguranti le dipendenze tra variabili. Una rappresentazione ampiamente utilizzata è la somma ponderata non lineare, dove <math>f(x) = k \left (\sum_i w_i g_i(x) \right)</math>, dove <math>k</math> è una funzione predefinita, come ad esempio la [[Tangente (matematica)|tangente]] [[Funzioni iperboliche|iperbolica]]. Sarà conveniente per le seguenti far riferimento ad un insieme di funzioni come un vettore <math>g = (g_1, g_2, \ldots, g_n)</math>.
 
[[File:Ann dependency (graph).svg|thumb|200px|Fig.Figura 1: Grafico di dipendenza di una rete neurale ''"feedforward"'']]
 
La Fig.Figura 1 esemplifica una decomposizione della funzione <math>f</math>, con dipendenze tra le variabili indicate dalle frecce. Queste possono essere interpretate in due modi:
 
# Il primo punto di vista è la vista funzionale: l'ingresso <math>x</math> è trasformato in un vettore a 3-dimensioni, che viene poi trasformato in un vettore bi-dimensionale <math>g</math>, che è poi finalmente trasformato in <math>f</math>. Questo punto di vista è più comunemente riscontrato nel contesto dell'ottimizzazione.
I due punti di vista sono in gran parte equivalenti. In entrambi i casi, per questa particolare architettura di rete, i componenti dei singoli strati sono indipendenti l'uno dall'altro (ad esempio, le componenti di <math>g</math> sono indipendenti l'uno dall'altro, dato il loro ingresso <math>h</math>). Questo, naturalmente, permette un certo grado di parallelismo nella costruzione del sistema.
 
[[File:Recurrent ann dependency graph.png|thumb|150px|Fig.Figura 2: Grafico di dipendenza di reti neurali ricorrenti]]
 
Reti, come ad esempio quelle precedenti vengono comunemente chiamate ''"feedforward"'', perché il loro è un grafico aciclico diretto. Reti con cicli al loro interno sono comunemente chiamati reti ricorrenti. Tali reti sono comunemente raffigurate nel modo indicato nella parte superiore della figuraFigura 2, dove la funzione <math>f</math> è mostrata come dipendente su se stessa. Tuttavia, vi è una dipendenza temporale implicita che non è possibile dimostrare. Questo significa in pratica che il valore di <math>f</math> ad un certo punto nel tempo <math>t</math> dipende dai valori di <math>f</math> al tempo zero o su uno o più altri punti temporali. Il modello del grafico nella parte inferiore della figuraFigura 2 illustra il caso in cui il valore di <math>f</math> al tempo <math>t</math> dipende solo dal suo valore finale.
 
Tuttavia la funzionalità più interessante di queste funzioni, ciò che ha attirato l'interesse e lo studio per la maggior parte delle reti neurali, è la possibilità di apprendimento, che in pratica significa la seguente:
5 015

contributi