Scacchi: differenze tra le versioni

Contenuto cancellato Contenuto aggiunto
Riga 559:
Il match sulla lunghezza delle sei partite ha visto la vittoria del computer con un risultato di 4 a 2 (quattro patte e due vittorie del computer).<ref>{{cita web|url=https://www.chessbase.com/newsdetail.asp?newsid=3524|titolo=Kramnik vs Deep Fritz: Computer wins match by 4:2|editore=[[ChessBase|ChessBase News]]|lingua =en|accesso=13 febbraio 2011}}</ref> Insolito l'epilogo della seconda partita, in cui il campione del mondo non si è accorto di un'elementare minaccia di matto in una mossa da parte del computer, evento rarissimo a questi livelli.
 
A partire dalla seconda decademetà degli [[anni 2000]], i [[motore scacchistico|motori scacchistici]] hanno superato definitivamente le capacità umane, riuscendo a sconfiggere sistematicamente i giocatori più forti, e sono divenuti uno strumento importante nell'analisi e nell'allenamento dei giocatori umani.
 
Verso la fine degli [[anni 2010]] sono stati sviluppati nuovi approcci nel design di algoritmi per il gioco degli scacchi. Mentre in passato la tecnica dominante nello sviluppo dei motori scacchistici fu per lungo tempo l'uso di [[minimax]] con [[potatura alfa-beta]] e relative varianti, algoritmi alternativi come la [[ricerca ad albero Monte Carlo]] (che in passato forniva risultati non competitivi nel problema degli scacchi) hanno visto una rinascita, in combinazione con [[rete neurale|reti neurali]] [[apprendimento profondo|profonde]] allenate tramite [[apprendimento per rinforzo]] per stimare la funzione euristica senza usare alcuna conoscenza del gioco a priori. Uno dei principali vantaggi di tale approccio è la creazione di motori scacchistici dallo stile di gioco più creativo rispetto alla tradizionale ricerca minimax. La prima dimostrazione di fattibilità di queste tecniche venne presentata nel 2017 da [[DeepMind]] con lo sviluppo di [[AlphaZero]],<ref>{{Cita pubblicazione | lingua = en | autore = David Silver, Thomas Hubert, Julian Schrittwieser, Ioannis Antonoglou, Matthew Lai, Arthur Guez, Marc Lanctot, Laurent Sifre, Dharshan Kumaran, Thore Graepel, Timothy Lillicrap, Karen Simonyan, Demis Hassabis | titolo = A general reinforcement learning algorithm that masters chess, shogi, and Go through self-play | data = 7 dicembre 2018 | rivista = Science | volume = 362 | numero = 6419 | pp = 1140-1144 | url = http://science.sciencemag.org/content/362/6419/1140 | doi = 10.1126/science.aar6404}}</ref> e i risultati sono stati in seguito riprodotti da progetti open source, come [[Leela Chess Zero]], e da prodotti commerciali.