ChatGPT: differenze tra le versioni

Contenuto cancellato Contenuto aggiunto
mNessun oggetto della modifica
m Annullate le modifiche di Badboxx87 (discussione), riportata alla versione precedente di Flatlandia
Etichetta: Rollback
Riga 12:
}}
 
'''ChatGPT''' ([[acronimo]] di ''Chat Generative Pre-trained Transformer<ref>{{Cita web|url=https://www.digitaldictionary.it/blog/introduzione-chatgpt|titolo=Introduzione a Chat GPT: cos'è, vantaggi e casi studio|autore=Pierfilippo Pierucci|sito=www.digitaldictionary.it|lingua=it|accesso=2023-11-27}}</ref>'', {{Lett|[[Trasformatore (informatica)|trasformatore]] generativo pre-addestrato}}) è un [[chatbot]] basato su [[intelligenza artificiale]] e [[apprendimento automatico]], sviluppato da [[OpenAI]] e specializzato nella conversazione con un utente umano<ref name=":2">{{Cita libro|autore=David Franklin|autore2=ChatGPT|titolo=The Chatbot Revolution: ChatGPT: An In-Depth Exploration|lingua=en|url=https://www.amazon.it/Chatbot-Revolution-ChatGPT-Depth-Exploration/dp/B0BQG3HBX2|annooriginale=2023|ISBN=979-8370255281|accesso=10 marzo 2023|urlarchivio=https://web.archive.org/web/20230102085915/https://www.amazon.it/Chatbot-Revolution-ChatGPT-Depth-Exploration/dp/B0BQG3HBX2|urlmorto=no}}</ref><ref>{{Cita web|url=https://www.ilpost.it/2022/12/06/chatgpt-open-ai-intelligenza-artificiale/|titolo=È arrivato un “chatbot” diverso da tutti gli altri|sito=Il Post|data=6 dicembre 2022|lingua=it|accesso=18 febbraio 2023|urlarchivio=https://web.archive.org/web/20230218224335/https://www.ilpost.it/2022/12/06/chatgpt-open-ai-intelligenza-artificiale/|urlmorto=no}}</ref>:. Sebbene haabbia mostrato notevoli capacità nel generare testo simile a quello dell'uomo, tantoè dasuscettibile superaredi consistentementeereditare ile [[Testamplificare i pregiudizi presenti nei loro dati di Turing|testaddestramento. Ciò può manifestarsi in rappresentazioni distorte o in un trattamento ingiusto di turing]]diversi dati demografici, come quelli basati su razza<ref>{{Cita webpubblicazione|nome=Thomas|cognome=Davidson|nome2=Debasmita|cognome2=Bhattacharya|nome3=Ingmar|cognome3=Weber|data=2019-08|titolo=Racial Bias in Hate Speech and Abusive Language Detection Datasets|rivista=Proceedings of the Third Workshop on Abusive Language Online|editore=Association for Computational Linguistics|curatore=Sarah T. Roberts, Joel Tetreault, Vinodkumar Prabhakaran, Zeerak Waseem|pp=25–35|accesso=2023-12-26|doi=10.18653/v1/W19-3504|url=https://wwwaclanthology.nature.comorg/articlesW19-3504}}</d41586ref>, genere<ref name=":5">{{Cita pubblicazione|nome=Hadas|cognome=Kotek|nome2=Rikker|cognome2=Dockum|nome3=David|cognome3=Sun|data=2023-02311-02361-705|titolo=ChatGPTGender brokebias theand Turingstereotypes testin Large theLanguage raceModels|rivista=Proceedings isof onThe ACM Collective Intelligence Conference|editore=Association for newComputing waysMachinery|pp=12–24|accesso=2023-12-25|doi=10.1145/3582269.3615599|url=https://dl.acm.org/doi/10.1145/3582269.3615599}}</ref>, tolingua assesse AIgruppi culturali<ref name=":4">{{Cita pubblicazione|autore=Queenie Luo|autore2=Michael J. Puett|autore3=Michael D. Smith|titolo=A Perspectival Mirror of the Elephant: Investigating Language Bias on Google, ChatGPT, Wikipedia, and YouTube|rivista=arXiv|url=https://arxiv.org/abs/2303.16281}}</ref>. Inoltre, ChatGPT e [[GPT-4]] spesso presentano limitazioni in termini di accuratezza fattuale<ref>{{Cita pubblicazione|nome=Jan|cognome=Kocoń|nome2=Igor|cognome2=Cichecki|nome3=Oliwier|cognome3=Kaszyca|data=2023-11-01|titolo=ChatGPT: Jack of all trades, master of none|rivista=Information Fusion|volume=99|pp=101861|accesso=2023-12-26|doi=10.1016/j.inffus.2023.101861|url=https://www.sciencedirect.com/science/article/pii/S156625352300177X}}</ref>.
 
== Descrizione ==
Riga 121:
 
Il professore di geografia Terence Day ha valutato le citazioni generate da ChatGPT e ha scoperto che erano false. Nonostante ciò, scrive che "i titoli dei falsi articoli sono tutti direttamente rilevanti alle domande e potrebbero potenzialmente essere ottimi articoli. La mancanza di una citazione genuina potrebbe segnalare un'opportunità per un autore intraprendente di colmare un vuoto". Secondo Day, è possibile generare corsi universitari introduttivi di alta qualità con ChatGPT; lo ha usato per scrivere materiale su "corsi di geografia fisica introduttiva, per il mio corso di idrologia geografica di secondo anno e per cartografia, sistemi informativi geografici e telerilevamento di secondo anno". Conclude che "questo approccio potrebbe avere una rilevanza significativa per l'apprendimento aperto e potrebbe influenzare i modelli attuali di pubblicazione dei libri di testo".<ref>{{Cita pubblicazione|cognome1=Day |nome1=Terence |titolo=Una Indagine Preliminare sulle Citazioni e i Riferimenti Contraffatti Generati da ChatGPT |rivista=The Professional Geographer |data=12 aprile 2023 |pp=1–4 |doi=10.1080/00330124.2023.2190373 |url=https://www.tandfonline.com/doi/pdf/10.1080/00330124.2023.2190373 |accesso=6 maggio 2023 |lingua=en |issn=0033-0124 |urlarchivio=https://web.archive.org/web/20230506080942/https://www.tandfonline.com/doi/pdf/10.1080/00330124.2023.2190373 |urlmorto= }}</ref>
 
=== Permeabilità ai bias presenti nel dataset di allenamento ===
Chat GPT è allenato tramite fonti scritte da esseri umani reperite principalmente nel web <ref>{{Cita web|url=https://frontiere.io/insights/learn-how-chat-gpt-works-behind-the-scenes/|titolo=Learn how CHAT GPT works - Behind the Scenes|sito=Frontiere|lingua=en-GB|accesso=2024-04-19}}</ref>, anche {{citazione necessaria|non è chiaro quali siano esattamente le pagine consultate}} .
 
Diversi articoli scientifici hanno dimostrato che in generale, GPT e altri LLM allenati su tali dataset, possano conservare i bias umani presenti nelle informazioni di training, tra cui anche pregiudizi discriminatori:
 
* In ''Racial Bias in Hate Speech and Abusive Language Detection Datasets'' <ref>{{Cita pubblicazione|nome=Thomas|cognome=Davidson|nome2=Debasmita|cognome2=Bhattacharya|nome3=Ingmar|cognome3=Weber|data=2019-08|titolo=Racial Bias in Hate Speech and Abusive Language Detection Datasets|rivista=Proceedings of the Third Workshop on Abusive Language Online|editore=Association for Computational Linguistics|curatore=Sarah T. Roberts, Joel Tetreault, Vinodkumar Prabhakaran, Zeerak Waseem|pp=25–35|accesso=2023-12-26|doi=10.18653/v1/W19-3504|url=https://aclanthology.org/W19-3504}}</ref>, è stato mostrato come il chatbot fosse consistentemente prono al catalogare come [[Incitamento all'odio|''hate speech'']] dei tweet scritti da persone di colore, piuttosto che da utenti bianchi: gli stessi autori hanno però puntualizzato come questo potesse derivare da una preponderanza di termini espliciti nei post dei soggetti di colore.
* In ''Gender bias and stereotypes in Large Language Models'' <ref name=":5">{{Cita pubblicazione|nome=Hadas|cognome=Kotek|nome2=Rikker|cognome2=Dockum|nome3=David|cognome3=Sun|data=2023-11-05|titolo=Gender bias and stereotypes in Large Language Models|rivista=Proceedings of The ACM Collective Intelligence Conference|editore=Association for Computing Machinery|pp=12–24|accesso=2023-12-25|doi=10.1145/3582269.3615599|url=https://dl.acm.org/doi/10.1145/3582269.3615599}}</ref>, gli autori hanno mostrato come in diversi scenari di ambiguità grammaticale, è probabile che un modello di linguaggio assegni un pronome maschile ad una professione considerata dallo stereotipo come maschile (i.e. ''doctor'' in inglese) e viceversa con la controparte femminile (i.e. ''nurse'' in inglese). Si deve notare che nel testo citato, non è chiarificato che il modello in questione sia esattamente Chat GPT, ma bensì che siano stati analizzati modelli dell'inizio del 2023 (compatibile con GPT-4, rilasciato nel marzo del 2023). Gli autori dimostrano anche che, quando esplicitamente questionato rispetto alla imparzialità delle sue stesse risposte, il modello LLM sia in grado di comprendere il suo errore, notificando della presenza di bias sessisti.
* In ''A “Perspectival” Mirror of the Elephant: Investigating Language Bias on Google, ChatGPT, YouTube, and Wikipedia''<ref name=":4">{{Cita pubblicazione|autore=Queenie Luo|autore2=Michael J. Puett|autore3=Michael D. Smith|titolo=A Perspectival Mirror of the Elephant: Investigating Language Bias on Google, ChatGPT, Wikipedia, and YouTube|rivista=arXiv|url=https://arxiv.org/abs/2303.16281}}</ref>, è stata valutata la differenza di risposta di Chat GPT quando i prompt vengono forniti in lingue diverse: l'articolo mostra quanto domande riguardanti temi complessi come [[Buddismo]], [[Liberalismo]], [[colonizzazione]], [[Iran]], e [[USA]], ricevano risposte sostanzialmente diverse a seconda della lingua nella quale le queries vengono presentate.
 
== Note ==