Geoffrey Hinton: differenze tra le versioni

Contenuto cancellato Contenuto aggiunto
t-SNE
Riga 32:
Durante il suo periodo presso l'[[Università Carnegie Mellon]] (1982–1987) Hinton, insieme a [[David E. Rumelhart]] e [[Ronald J. Williams]], applicò la [[retropropagazione dell'errore]] alle [[reti neurali artificiali]] a più livelli, mostrandone la capacità di imparare utili [[rappresentazione della conoscenza|rappresentazioni]].<ref name="backprop"/> In un'intervista tenuta nel 2018,<ref name="ford"/> Hinton attribuì a [[David E. Rumelhart]] l'idea originale di usare la retropropagazione dell'errore. Il metodo era stato usato in precedenza in tecniche di apprendimento automatico, grazie all'introduzione della [[differenziazione automatica]] (che è comunemente usata nell'implementazione dell'algoritmo di retropropagazione) da parte di [[Seppo Linnainmaa]] nel 1970, e della sua applicazione all'allenamento di reti neurali da parte di [[Paul Werbos]] nel 1974.<ref name="schmidhuber"/>
 
Nello stesso periodo Hinton introdusse, insieme a David Ackley e [[Terry Sejnowski]], le [[Macchina di Boltzmann|macchine di Boltzmann]].<ref name="note16"/> Produsse inoltre risultati significativi nello sviluppo di rappresentazione distribuita, [[reti neurali a ritardo]], macchine di Helmholts, misture e prodotto di esperti. Nel 2007 contribuì a un articolo sull'[[apprendimento non supervisionato]] di trasformazioni delle immagini.<ref name="note17"/> Nel 2008 introdusse insieme a van der Maaten l'algoritmo [[t-distributed stochastic neighbor embedding|t-SNE]],<ref name=MaatenHinton/> basato sull'algoritmo ''stochastic neighbour embedding'' introdotto dallo stesso Hinton nel 2002.<ref name=SNE/> I suoi contributi di ricerca sono stati oggetto di articoli [[divulgazione scientifica|divulgativi]] su ''[[Scientific American]]'' nel settembre 1992 e ottobre 1993.<ref name="note18"/>
 
Nel 2012 Hinton produsse uno dei risultati più noti della sua carriera, introducendo [[AlexNet]], una rete neurale profonda progettata in collaborazione con i suoi studenti [[Alex Krizhevsky]]<ref name="quartz"/> e [[Ilya Sutskever]]. Tale modello ottenne risultati senza precedenti nel problema di classificazione delle immagini, migliorando significativamente rispetto a tecniche tradizionali allora dominanti e ottenendo il primo posto con un largo margine nell{{'}}''[[ImageNet]] challenge'' nel 2012.<ref name="note8"/> Tale risultato fu una pietra miliare nello sviluppo della [[visione artificiale]], aprendo la strada all'applicazione delle reti neurali profonde in una varietà di problemi.<ref name="note9"/>
Riga 309:
{{Cita web|titolo= 2016 IEEE Medals and Recognitions Recipients and Citations
|url= https://www.ieee.org/about/awards/2016_ieee_medal_and_recognition_recipients_and_citations_list.pdf
|editore= [[IEEE]]|accesso=
| accesso=7 luglio 2016
{{Format date|2016|07|07
}}
}}</ref>
 
Line 413 ⟶ 412:
| editore = Oxford University Press
| doi = 10.1093/ww/9780199540884.013.20261
}}</ref>
 
<ref name=MaatenHinton>
{{cite journal
| last = van der Maaten
| first = L.J.P.
| author2 = Hinton, G.E.
| title = Visualizing Data Using t-SNE
| journal = Journal of Machine Learning Research
| volume = 9
| date = Nov 2008
| pages = 2579–2605
| url = http://jmlr.org/papers/volume9/vandermaaten08a/vandermaaten08a.pdf
}}</ref>
 
<ref name=SNE>
{{cite conference
| author1-last = Roweis
| author1-first = Sam
| author2-last = Hinton
| author2-first = Geoffrey
| conference = [[Neural Information Processing Systems]]
| title = Stochastic neighbor embedding
| date = January 2002
| url = https://cs.nyu.edu/~roweis/papers/sne_final.pdf
}}</ref>