Rete neurale: differenze tra le versioni

Il concetto di rete neurale si pone perché una [[Funzione (matematica)|funzione]] <math>f(x)</math> è definita come una [[Composizione_di_funzioni|composizione]] di altre funzioni <math>G(x)</math>, che possono a loro volta essere ulteriormente definite come composizione di altre funzioni. Questo può essere convenientemente rappresentato come una struttura di reti, con le frecce raffiguranti le dipendenze tra variabili. Una rappresentazione ampiamente utilizzata è la somma ponderata non lineare, dove <math>f(x) = k \left (\sum_i w_i g_i(x) \right)</math>, dove <math>k</math> è una funzione predefinita, come ad esempio la [[Tangente (matematica)|tangente]] [[Funzioni iperboliche|iperbolica]]. Sarà conveniente per le seguenti far riferimento ad un insieme di funzioni come un vettore <math>g = (g_1, g_2, \ldots, g_n)</math>.
 
[[File:Ann dependency (graph).svg|thumb|150px|Grafico di dipendenza di una rete neurale ''"feedforward"'']]
 
La figura esemplifica una decomposizione della funzione <math>f</math>, con dipendenze tra le variabili indicate dalle frecce. Queste possono essere interpretate in due modi:
[[File:Recurrent ann dependency graph.png|thumb|120px|Grafico di dipendenza di reti neurali ricorrenti]]
 
Reti, come ad esempio quelle precedenti vengono comunemente chiamate ''"feedforward"'', perché il loro è un grafico aciclico diretto. Reti con cicli al loro interno sono comunemente chiamati reti ricorrenti. Tali reti sono comunemente raffigurate nel modo indicato nella parte superiore della figura, dove la funzione <math>f</math> è mostrata come dipendente su se stessa. Tuttavia, vi è una dipendenza temporale implicita che non è possibile dimostrare. Questo significa in pratica che il valore di <math>f</math> ad un certo punto nel tempo <math>t</math> dipende dai valori di <math>f</math> al tempo zero o su uno o più altri punti temporali. Il modello del grafico nella parte inferiore della figura illustra il caso in cui il valore di <math>f</math> al tempo <math>t</math> dipende solo dal suo valore finale.
 
Tuttavia la funzionalità più interessante di queste funzioni, ciò che ha attirato l'interesse e lo studio per la maggior parte delle reti neurali, è la possibilità di apprendimento, che in pratica significa la seguente:
5 014

contributi