Eliezer Yudkowsky

Scrittore e teorico statunitense

Eliezer Shlomo Yudkowsky (Chicago, 11 settembre 1979) è uno scrittore, teorico dell'intelligenza artificiale e teorico delle decisioni statunitense, noto per aver divulgato l'idea dell'intelligenza artificiale amichevole,[1][2] rendendola popolare.

Eliezer Shlomo Yudkowsky

È co-fondatore[3] e ricercatore presso il Machine Intelligence Research Institute (MIRI), un'organizzazione di ricerca privata senza scopo di lucro con sede a Berkeley, in California.[4] Il suo lavoro sulla prospettiva di un'esplosione di intelligenza incontrollata ha avuto un'influenza su Superintelligence: Paths, Dangers, Strategies di Nick Bostrom.[5]

Lavoro sulla sicurezza dell'intelligenza artificiale modifica

Apprendimento degli obiettivi e incentivi nei sistemi software modifica

Il punto di vista di Yudkowsky sulle sfide alla sicurezza poste dalle future generazioni di sistemi di IA è discusso nel libro di testo universitario di Stuart Russell e Peter Norvig, Artificial Intelligence: A Modern Approach. Notando la difficoltà di specificare formalmente gli obiettivi generali a mano, Russell e Norvig citano la proposta di Yudkowsky che i sistemi autonomi e adattivi siano progettati per imparare un comportamento corretto nel tempo:

«Yudkowsky (2008) entra più in dettaglio su come progettare una IA amichevole. Egli afferma che la gentilezza (un desiderio di non nuocere agli umani) dovrebbe essere progettata fin dall'inizio, ma che i progettisti dovrebbero riconoscere sia che i loro progetti possono essere difettosi, sia che il robot imparerà ed evolverà nel tempo. Quindi la sfida è quella della progettazione dei meccanismi: progettare un meccanismo per l'evoluzione dell'IA sotto un sistema di controlli ed equilibri, e dare ai sistemi funzioni di utilità che rimarranno amichevoli di fronte a tali cambiamenti. In risposta alla preoccupazione della convergenza strumentale, in cui i sistemi decisionali autonomi con obiettivi mal progettati avrebbero incentivi predefiniti a maltrattare gli esseri umani, Yudkowsky e altri ricercatori MIRI hanno raccomandato di lavorare per specificare gli agenti software che convergono su comportamenti predefiniti sicuri anche quando i loro obiettivi sono mal specificati.[2][6]»

Previsione delle capacità modifica

Nello scenario di esplosione dell'intelligenza ipotizzato da I.J. Good, i sistemi di IA che si auto-migliorano ricorsivamente passano rapidamente da un'intelligenza generale subumana a una superintelligente. Il libro di Nick Bostrom del 2014, Superintelligence: Paths, Dangers, Strategies, delinea in dettaglio l'argomento di Good, mentre cita gli scritti di Yudkowsky sul rischio che l'antropomorfizzazione dei sistemi avanzati di IA porti le persone a fraintendere la natura di un'esplosione di intelligenza: ''IA potrebbe fare un salto apparentemente brusco nell'intelligenza puramente come risultato dell'antropomorfismo, la tendenza umana a pensare allo 'scemo del villaggio' e a 'Einstein' come gli estremi della scala dell'intelligenza, invece di punti quasi indistinguibili sulla scala delle menti in generale".[1][3][7]

In Artificial Intelligence: A Modern Approach, gli autori Stuart Russell e Peter Norvig sollevano l'obiezione che esistono limiti noti alla risoluzione intelligente dei problemi dalla teoria della complessità computazionale; se ci sono forti limiti all'efficienza con cui gli algoritmi possono risolvere vari compiti di informatica, allora l'esplosione dell'intelligenza potrebbe non essere possibile.[1]

Scrittura razionale modifica

Tra il 2006 e il 2009, Yudkowsky e Robin Hanson sono stati i principali collaboratori di Overcoming Bias, un blog di scienze cognitive e sociali sponsorizzato dal Future of Humanity Institute dell'Università di Oxford. Nel febbraio 2009 Yudkowsky ha fondato LessWrong, un "blog comunitario dedicato a perfezionare l'arte della razionalità umana".[8][9] Overcoming Bias funziona da allora come blog personale di Hanson.

Oltre 300 articoli di blog di Yudkowsky sulla filosofia e la scienza (originariamente scritti su LessWrong e Overcoming Bias) sono stati pubblicati come un ebook intitolato Rationality: From AI to Zombies dal Machine Intelligence Research Institute (MIRI) nel 2015.[10] MIRI ha anche pubblicato Inadequate Equilibria, l'ebook di Yudkowsky del 2017 sul tema delle inefficienze sociali.[11]

Yudkowsky ha anche scritto diverse opere di narrativa. Il suo romanzo di fanfiction, Harry Potter e i metodi della razionalità, utilizza elementi della trama della serie Harry Potter di JK Rowling per illustrare argomenti scientifici.[8][12] The New Yorker ha descritto Harry Potter e i metodi della razionalità come una rivisitazione dell'originale di Rowling "nel tentativo di spiegare la magia di Harry attraverso il metodo scientifico".[13]

Pubblicazioni accademiche modifica

Note modifica

  1. ^ a b c Stuart Russell e Peter Norvig, Artificial Intelligence: A Modern Approach, Prentice Hall, 2009, ISBN 978-0-13-604259-4.
  2. ^ a b Jonathan Leighton, The Battle for Compassion: Ethics in an Apathetic Universe, Algora, 2011, ISBN 978-0-87586-870-7.
  3. ^ a b (EN) Vanity Fair, https://www.vanityfair.com/news/2017/03/elon-musk-billion-dollar-crusade-to-stop-ai-space-x. URL consultato il 28 luglio 2018.
  4. ^ Kurzweil, Ray, The Singularity Is Near, New York City, Viking Penguin, 2005, ISBN 978-0-670-03384-3.
  5. ^ (EN) MIT Technology Review, https://www.technologyreview.com/s/534871/our-fear-of-artificial-intelligence/. URL consultato il 9 aprile 2019.
  6. ^ Copia archiviata. URL consultato il 14 ottobre 2021 (archiviato dall'url originale il 15 gennaio 2016).
  7. ^ Nick Bostrom, Superintelligence: Paths, Dangers, Strategies, 2014, ISBN 978-0199678112.
  8. ^ a b James Miller, Singularity Rising, BenBella Books, Inc., 2012, ISBN 978-1936661657.
  9. ^ Business Insider, http://www.businessinsider.com/ten-things-you-should-learn-from-lesswrongcom-2011-7. URL consultato il 25 marzo 2014.
  10. ^ (EN) newramblerreview.com, http://newramblerreview.com/book-reviews/economics/rifts-in-rationality. URL consultato il 28 luglio 2018.
  11. ^ Machine Intelligence Research Institute, intelligence.org, https://intelligence.org/equilibriabook/.
  12. ^ "'Harry Potter' and the Key to Immortality", Daniel Snyder, The Atlantic
  13. ^ No Death, No Taxes: The Libertarian Futurism of a Silicon Valley Billionaire, 2011.

Altri progetti modifica

Collegamenti esterni modifica

Controllo di autoritàVIAF (EN1151594368605351858 · ISNI (EN0000 0004 8631 9046 · LCCN (ENno2018026526 · J9U (ENHE987007399550205171
  Portale Biografie: accedi alle voci di Wikipedia che trattano di biografie