Utente:Tytire/sandbox/Pregiudizio ideologico in Wikipedia

La presenza di pregiudizi ideologici nell'enciclopedia online Wikipedia, che possano influenzare la sua neutralità, è oggetto di studio scientifico e di dibattito nei media. La ricerca sul tema ha implicazioni più generali di Wikipedia, perché essa è considerata un laboratorio di come si costruisce e gestisce collettivamente conoscenza online. Wikipedia registra tutte le modificazioni dei contenuti. Questo facilita i ricercatori e consente loro di studiare i comportamenti degli utenti con metodi statistici.

Un filone di studio riguarda l'integrità ed affidabilità dei contenuti di Wikipedia. Tra le questioni analizzate, si vuol determinare in che misura il suo contenuto sia distorto a causa dell'ideologia politica, religiosa o di altro tipo dei suoi redattori volontari e gli effetti che ciò possa avere sull'affidabilità dell'enciclopedia.

Wikipedia ha una linea guida che afferma che gli articoli devono essere scritti da un punto di vista neutrale. Essa richiede di rappresentare in modo equilibrato e senza pregiudizi editoriali tutti i punti di vista significativi che sono stati pubblicati in modo verificabile da fonti attendibili su un argomento.

Il punto di vista di un singolo individuo può essere deliberatamente o inconsapevolmente distorto. Wikipedia è un'opera collettiva. L'ipotesi alla sua base è che un gran numero di contributi individuali indipendenti contribuirebbe a cancellare le distorsioni individuali, per produrre un risultato equilibrato e neutro.

La ricerca disponibile tende a dimostrare che le voci di Wikipedia modificate da un gran numero di utenti con opinioni ideologiche opposte sono neutrali almeno quanto altre fonti simili. Tuttavia, le voci con minori modifiche o modifiche effettuate da parte di un numero più ristretto di collaboratori o più ideologicamente omogenei hanno maggiori probabilità di riflettere un pregiudizio ideologico.

Wikipedia è vulnerabile ad attacchi di disinformazione tramite la manipolazione del contenuto. Il suo punto di forza è la trasparenza di come sono prodotti i contenuti. Come per qualsiasi altra fonte di informazione, un uso critico deve essere consapevole di come i contenuti siano prodotti e da che fonti attingano.

Ricerca sui pregiudizi ideologici in Wikipedia modifica

Come e perché vengono studiati i comportamenti degli utenti di Wikipedia

«Per documentare e spiegare i pregiudizi introdotti in Wikipedia occorre studiare i comportamenti degli utenti. I comportamenti di utenti online non possono essere equiparati semplicemente a interazioni in altri contesti sociali, perché risentono del funzionamento della piattaforma e delle modalità di interazione online. Tra i fattori specifici, le interazioni online sono rapide, spesso anonime, e gli utenti sono sommersi di informazione. Le relazioni sociali che si instaurano online producono effetti diversi, rispetto a quelle faccia a faccia, sulla percezione di sé, degli altri e di come gli altri possano reagire alle proprie idee. Questi ed altri fattori sono generalmente comuni anche ad altre piattaforme online, ma gli specifici meccanismi di interazione di ciascuna rendono le modalità di interazione sottilmente diverse. I comportamenti possono dunque essere studiati e spiegati con metodi che tengano conto del contesto specifico di questi media, differente da altri contesti sociali.[1][2][3]

Nello stesso tempo, le piattaforme online offrono molti vantaggi ai ricercatori che studiano i comportamenti. Gli utenti che contribuiscono a Wikipedia generano un grande volume di dati sulle revisioni delle voci e sul proprio comportamento. Questa mole di dati consente di testare ipotesi di ricerca su casi reali e di grande scala, piuttosto che sulla base di campioni limitati (quali vengono usati frequentemente nella ricerca in altri contesti)[4]: "le previsioni basate sui dati generati socialmente sono molto più economiche rispetto ai sondaggi d'opinione convenzionali, offrono la possibilità di evitare i classici pregiudizi insiti nel chiedere alle persone di riferire le loro opinioni e i loro comportamenti, possono fornire risultati molto più rapidamente ed essere aggiornate più rapidamente, e possono offrire vantaggi su fenomeni (come i movimenti del mercato azionario) per i quali non esistono modelli di previsione consolidati."[5]

Secondo Mako Hill e Shaw, la forma più diffusa e pervasiva di ricerca su Wikipedia non è affatto una ricerca "su" Wikipedia, ma una ricerca che usa Wikipedia come un comodo set di dati per studiare qualcos'altro. Wikipedia è divenuta centrale ad ogni campo di ricerca sociale e computazionale. Alcune aree di studio, come l'analisi dell'interazione uomo-macchina, la gestione della conoscenza, i sistemi informativi e la comunicazione online, hanno subito profondi cambiamenti negli ultimi vent'anni, guidati dalla ricerca su Wikipedia. Tra i campi di ricerca esiste quello sulla qualità e l'integrità dei contenuti di Wikipedia, che affronta anche questioni relative alla presenza di pregiudizi.[6]

Gran parte della ricerca sui comportamenti degli utenti usa metodi quantitativi (statistici) ed è rivolta alla versione inglese di Wikipedia.

Nonostante questa forte crescita della ricerca su e tramite Wikipedia, e della centralità di Wikipedia nella diffusione del sapere e dell'istruzione, buona parte dei suoi utilizzatori e anche del mondo accademico conserva ancora miti e fraintendimenti su di essa.[7][8]»

Regole e comportamenti modifica

Wikipedia ha linee guida per prevenire pregiudizi e perseguire la attendibilità e neutralità dei contenuti. I principi fondamentali comprendono il punto di vista neutrale (NPOV): "rappresentare in modo equo, proporzionato e, per quanto possibile, senza pregiudizi editoriali, tutti i punti di vista significativi che sono stati pubblicati da fonti affidabili su un argomento"; verificabilità: "le altre persone che utilizzano l'enciclopedia possono verificare che le informazioni provengano da una fonte affidabile"; e nessuna ricerca originale: "Gli articoli di Wikipedia non devono contenere ricerche originali".

In sostanza, Wikipedia non pretende di presentare la o le "verità" o di essere oggettiva, ma di descrivere i punti di vista su un dato argomento: le linee guida intendono assicurare che l'enciclopedia rimanga basata su fatti (intesi come cose dette da fonti autorevoli e verificabili). Tramite l'applicazione delle linee guida e i processi di scrittura di contenuti, i contributori lavorano attivamente alla costruzione della realtà, così come essa viene prodotta dall'approccio epistemologico alla base di Wikipedia.[9]

Wikipedia funziona come uno spazio che non solo definisce i confini di ciò che è conoscenza, ma modella anche "come conosciamo" attraverso i modi in cui consente la raccolta e la distribuzione della conoscenza. Tutto questo emerge attraverso i modi complessi in cui Wikipedia funziona sia come enciclopedia che come comunità.[9]

Queste considerazioni generali non sono specifiche a Wikipedia. Tutte le enciclopedie hanno sempre riflesso idee prevalenti nella propria epoca su cosa costituisca conoscenza, e su come essa debba essere rappresentata e diffusa. Le enciclopedie sono anche state influenzate da fattori politici ed ideologici della loro epoca.[10]

Gli studi sulla qualità dell'informazione fornita da Wikipedia tendono a confermare la sua generale attendibilità (ovvero la sua accuratezza, assenza di errori e rappresentazione dello stato reale della conoscenza prevalente).[11] Per quanto concerne la sua neutralità e l'eventuale presenza di pregiudizi, la ricerca ha considerato in che misura e come si manifestino pregiudizi politici, di genere, e culturali.[12][13][14]Secondo il sociologo Brian Martin, vi si possono anche riscontrare pregiudizi di scettici militanti contro teorie scientifiche o conoscenze non ortodosse.[15] Le diverse versioni linguistiche possono contenere pregiudizi specifici.[16]

Secondo lo studioso di organizzazioni online Jemielniak: "le voci di Wikipedia in diverse fasi di sviluppo possono essere variamente influenzati da punti di vista diametralmente diversi nello stesso momento. Ci sono ondate di lievi pregiudizi nelle Wikipedie più piccole, a seconda della composizione dei redattori in un dato momento, ma più un progetto diventa grande, meno è probabile che prevalgano i pregiudizi. In generale, su Wikipedia non prevalgono pregiudizi universali, intenzionali e a lungo termine, che si discostino dalle convinzioni dominanti della comunità accademica e para-accademica in generale."[17]

Esistono diversi meccanismi possibili di introduzione e mantenimento di pregiudizi in Wikipedia. I pregiudizi possono manifestarsi nell'inclusione di specifici contenuti in una voce o nell'omissione di altri, nelle scelte stilistiche e lessicali, nel comportamento dei contributori, nella selezione delle fonti e nel controllo esercitato dagli utenti sull'evoluzione delle voci e sulla copertura di determinati argomenti.[12][18][19] Pregiudizi possono anche manifestarsi nella struttura dei collegamenti ipertestuali di Wikipedia: essa ha un'influenza significativa sul processo di esplorazione di contenuti da parte degli utenti, la cui navigazione può essere guidata dai collegamenti dentro una determinata bolla di informazione.[20] Il contenuto di Wikipedia può anche risentire di pregiudizi che prevalgano nelle fonti secondarie disponibili su un dato argomento e considerate attendibili, dato che principio di verificabilità dei contenuti su cui si basa Wikipedia richiede l'attribuzione a fonti secondarie autorevoli.[13][19]

Eventuali pregiudizi possono essere conseguenza di azioni deliberate o il frutto di come l'enciclopedia produce i suoi contenuti. Tra le azioni deliberate, Wikipedia è vulnerabile ad attacchi di disinformazione, tendenti a compromettere l'integrità della conoscenza rappresentata nell'enciclopedia. Alcuni utenti possono intenzionalmente introdurre e mantenere pregiudizi e parzialità e rendere così sistemico il pregiudizio nel trattamento di determinati argomenti. Wikipedia ha strumenti per difendersi da simili azioni, tra cui il pattugliamento delle modifiche da parte di utenti esperti, l'applicazione delle sue regole per verificare le informazioni e raggiungere il consenso, e la possibilità di rimodificare i contenuti. Difenderne l'integrità è però complicato dalla sua grande diffusione, dalla natura di collaborazione aperta, e dalle limitate dimensioni e talora diversità delle comunità di utenti attivi e di quelli impegnati nel pattugliamento e la verifica dei contenuti.[16]

Le dispute tra utenti sul contenuto delle voci, sulla verificabilità dei contenuti e sulla qualità sono relativamente frequenti. Le controversie tra contributori di Wikipedia sono molto studiate per sviluppare metodi e applicazioni volte a rilevare, stimare e comprendere le controversie nei testi e nella produzione e diffusione di conoscenza online.[21]Capire le dispute, l'applicazione delle regole e le influenze che possono verificarsi dentro Wikipedia sono anche importanti per mettere in luce come esista sempre una dimensione politica anche in progetti ispirati ad una idea di società aperta come Wikipedia.[22]Secondo Jemielniak, nonostante i principi di collaborazione di Wikipedia, la sua crescita è in realtà alimentata dai conflitti tra i contributori: "il sistema sociale di Wikipedia spesso incanala l'energia delle controversie nello sviluppo delle voci".[23]

L'introduzione di pregiudizi è centrale a molte delle controversie che possono sorgere tra utenti di Wikipedia. Di fronte a resistenze e correzioni di pregiudizi da parte di utenti, altri utenti possono cercare di mantenere i pregiudizi ricorrendo al ripristino delle modifiche (edit wars), all'invocazione selettiva delle regole di Wikipedia, all'attacco, marginalizzazione e estromissione dei redattori resistenti. Una prolungata controversia su pregiudizi può indurre alla presentazione di reclami, la mobilitazione di contro-redazioni e la denuncia della distorsione.[24] Spesso le controversie più accese non si risolvono tramite accordo, ma per estenuazione di una delle parti.[23] L'esclusione di nuovi punti di vista può anche essere la conseguenza dell'esclusione o scoraggiamento di nuovi utenti; questo può verificarsi per tanti fattori, dalla difficoltà di apprendere come contribuire e le numerose regole, all'azione intenzionale o più spesso non intenzionale, di azioni di pattugliamento poco paziente da parte di utenti più esperti.[25] [26]Se si sollevano domande sulle politiche, le pratiche e le norme comunitarie, la comunità di utenti spesso reagisce in modo difensivo.[13]

I pregiudizi possono anche essere inconsci e non intenzionali, ovvero riflettere i valori profondi e il contesto culturale degli utenti.[27] Al di là di Wikipedia, la questione se la conoscenza possa essere oggettiva o neutra tocca una delle questioni fondamentali dell'epistemologia: cosa costituisca verità o conoscenza. Una concezione molto diffusa oggi è che la conoscenza, anche scientifica, sia un costrutto sociale: la sua validità può essere valutata propriamente solo considerando le interazioni sociali che l'hanno prodotta e la loro robustezza.[28]

I dati raccolti da Wikipedia su come i propri contenuti sono stati scritti consentono di registrare e studiare come tali conoscenze vengano prodotte.[29] La struttura della piattaforma wiki rende trasparente la produzione del contenuto (la cronologia di chi ha scritto o modificato cosa; i commenti degli utenti nelle pagina di discussione di ogni voce). Secondo Vetter, dunque, sebbene Wikipedia non riesca a riflettere una conoscenza universale (perché le regole di enciclopedicità delle voci e di verificabilità e attendibilità delle fonti di fatto causano una selezione della conoscenza rappresentabile), la sua trasparenza e perenne modificabilità consentono alla conoscenza in essa contenuta di evolvere continuamente insieme alla società, alla cultura e alla tecnologia.[30]

Produzione collettiva online di conoscenza e neutralità modifica

La qualità di una conoscenza ha diverse dimensioni: accuratezza, completezza, aggiornamento, affidabilità e verificabilità.[11] Il modello di conoscenza rappresentato da Wikipedia è diverso da quello classico, basato sulla conoscenza e autorevolezza di esperti. Il fatto che la conoscenza in Wikipedia sia prodotta da un lavoro collettivo richiede di applicare un approccio epistemologico diverso per valutarne la qualità del prodotto: occorre tener conto dei meccanismi usati per produrre la sua conoscenza.[31]

Se si considera l'obiettivo di neutralità di Wikipedia (un aspetto della più ampia questione della qualità), si osserva che esso è ispirato dall'ipotesi della saggezza della folla, cioè l'opinione collettiva di un gruppo esteso, eterogeneo e indipendente di individui. L'ipotesi è che un grande gruppo di persone possa essere collettivamente più intelligente di un singolo esperto, specialmente nel caso di decisioni o previsioni complesse. Nel caso della neutralità, l'ipotesi è che, mentre il punto di vista di un singolo individuo può essere intrinsecamente distorto, in un'opera collettiva, un gran numero di contributi individuali indipendenti contribuirebbe a cancellare le distorsioni o il rumore, per produrre un risultato più equilibrato.[32]

I risultati di ricerca sperimentale attualmente disponibili sulla generazione collettiva online di conoscenza indicano che talora essa produce qualità simile a quella raggiunta da esperti, talora no. Nel caso di argomenti contestati, la ricerca suggerisce che processi collettivi possono facilitare la produttività, l'innovazione e l'integrazione.[32] Tuttavia, studi sperimentali non hanno finora prodotto risultati chiari sugli effetti della diversità politica nelle produzioni collettive di conoscenza.[33] Esse possono anche produrre risultati con una moltitudine di pregiudizi, per una serie di cause: la difficoltà di raggiungere un consenso tra i contributori; i contributori, anche se intenzionati a raggiungere risultati neutrali, possono interpretare la neutralità in maniera diversa; l'interazione virtuale, priva di un contesto sociale condiviso, può rendere difficile la comprensione reciproca. Inoltre, mentre la contribuzione è aperta a tutti, di fatto i processi online possono produrre auto-selezioni dei contributori, sulla base della diligenza e persistenza individuale; o per una graduale perdita di diversità nel gruppo e la creazione di una maggioranza omogenea che cerchi interpretazioni che rassicurino i propri pregiudizi; in molte co-produzioni online di fatto si osserva che un piccolo numero di utenti fa la maggior parte del lavoro.[28][32][33]

Wikipedia ha potenzialmente gli ingredienti per generare la cosiddetta saggezza della folla; tuttavia le condizioni di avere un grande numero di contributori, indipendenti ed eterogenei possono verificarsi o meno.[34] La questione della sua neutralità e dei fattori che la producano ha meritato attenzione sin dagli inizi della sua storia.[35] La ricerca su questa dimensione di Wikipedia vuole determinare la validità dell'ipotesi di fondo: in che misura la conoscenza prodotta dalle organizzazioni basate sulla folla, come Wikipedia, è polarizzata o riflette pregiudizi? è più o meno distorta di quella prodotta dagli esperti? quali fattori rendono la differenza maggiore o minore?[32]

Presenza di pregiudizi ideologici nelle voci relative alla politica modifica

Uno studio che ha misurato la frequenza di controversie in dieci versioni diverse di Wikipedia, ha notato che la politica (politici, partiti politici, movimenti politici e ideologie) è la categoria che genera il maggior numero di controversie (circa il 25% delle controversie di un campione di voci estratto tra tutte le versioni linguistiche).[36]

Uno studio empirico del 2012[37] ha esaminato un campione di 28.382 voci relative alla politica statunitense a partire da gennaio 2011: lo studio ha misurato il loro grado di pregiudizio tramite un indice di tendenza politica ("slant index") sviluppato da ricerca precedente per misurare il pregiudizio nei giornali.[38] Questo indice di orientamento politico intende misurare una preferenza ideologica verso gli orientamenti politici di democratici o repubblicani sulla base della frequenza di frasi chiave all'interno del testo (ad esempio "guerra in Iraq", "diritti civili", "deficit commerciale", "crescita economica", "immigrazione illegale" e " sicurezza delle frontiere”). A ogni termine viene assegnato un indice di orientamento politico in base alla frequenza con cui lo stesso termine viene utilizzato da esponenti democratici o repubblicani negli atti del Congresso degli Stati Uniti. Gli autori hanno concluso che le voci risalenti ai primi anni di Wikipedia tendevano ad un orientamento politico democratico, mentre quelle create più di recente avevano un punto di vista più equilibrato. Gli autori dello studio suggeriscono che le voci, una volta redatte, non cambiano in modo significativo il loro eventuale pregiudizio con successive revisioni. Hanno piuttosto notato che che nel tempo articoli più recenti contenenti punti di vista opposti sono stati responsabili di riequilibrare la media dei punti di vista tra le voci.[37]

In uno studio successivo e più ampio, gli stessi ricercatori hanno confrontato direttamente circa 4.000 voci relative alla politica statunitense tra Wikipedia e gli articoli corrispondenti di Enciclopedia Britannica (scritti da esperti). Questo studio ha utilizzato metodi simili al loro studio precedente. Gli autori hanno scoperto che gli articoli di Wikipedia sono più inclini ad opinioni di parte rispetto agli articoli della Britannica. Tuttavia, questo effetto scompare se la frequenza di indicatori di orientamento politico viene misurata per parola e non sulla totalità del testo delle voci: le voci di Wikipedia tendono ad essere più lunghe di quelle di Britannica, e quindi contributi non neutrali possono risultare quantitativamente più diffusi. Hanno inoltre evidenziato che la frequenza di indicatori di orientamento politico in una voce diminuisce dopo più revisioni e, qualora le voci fossero state sostanzialmente riviste, la frequenza di orientamento pregiudiziale rispetto a Britannica diviene statisticamente trascurabile. L'implicazione, secondo gli autori, è che sono necessari molti contributi per ridurre considerevoli pregiudizi e avvicinarsi alla neutralità.[32]

Gli studi citati hanno analizzato la presenza di pregiudizi in Wikipedia sulla base dei contenuti delle voci. Uno studio del 2022 sull'edizione inglese ha invece esaminato le citazioni di fonti giornalistiche e altri media che appaiono nelle voci. L'obiettivo era valutare se esista una prevalenza di fonti liberali o conservatrici, come indicatore di un'eventuale polarizzazione politica dell'enciclopedia. Lo studio ha riscontrato una moderata ma sistematica prevalenza di fonti giornalistiche liberali. L'analisi ha anche dimostrato che non esiste una chiara relazione tra l'affidabilità di una fonte di notizie e la sua inclinazione politica: ciò suggerisce che la moderata prevalenza di fonti giornalistiche liberali potrebbe non essere la conseguenza della ricerca di affidabilità giornalistica.[16]

Uno studio sull'edizione inglese pubblicato nel 2015[18] ha analizzato se esiste una differenza nella rimozione di informazioni positive o negative nelle biografie di senatori americani. I ricercatori hanno aggiunto fatti (attribuiti a fonti) positivi o negativi alle voci biografiche di senatori americani. Hanno determinato che i fatti negativi hanno maggiori probabilità di essere rimossi e vengono rimossi più rapidamente dei fatti positivi. I ricercatori hanno dunque concluso che esiste un sostanziale pregiudizio editoriale per le voci di Wikipedia degli attuali senatori degli Stati Uniti. In un test condotto sulle pagine di Wikipedia dei senatori recentemente ritirati e deceduti, non è stata riscontrata la stessa differenza di rimozione fra fatti positivi e negativi, il che suggerisce che questo pregiudizio è limitato alle pagine dei politici in attività e non è sistemico per Wikipedia. Gli autori ne concludono che le informazioni prodotte da un progetto collettivo come Wikipedia possono essere soggette a un pregiudizio editoriale che favorisce chi è politicamente attivo.

Collaborazione tra utenti su contenuti contestati o distorti modifica

Uno studio del 2016[39] sulla versione di lingua inglese, si è concentrato sui comportamenti degli utenti che contribuiscono alla redazione delle voci. Lavorando di nuovo all'interno di un sottoinsieme di articoli relativi alla politica statunitense e utilizzando la terminologia introdotta nell'articolo del 2012, gli autori offrono diversi risultati significativi. Hanno scoperto che è leggermente più probabile che gli utenti contribuiscano a voci che mostrano un'inclinazione opposta alla propria, una tendenza che gli autori chiamano "l'attrazione degli opposti". Hanno inoltre evidenziato che i dibattiti su Wikipedia tendono a mostrare una "prevalenza di conversazioni non segregate nel tempo", il che significa che i dibattiti su Wikipedia tendono a coinvolgere utenti di opinioni diverse - che gli autori chiamavano non segregate - al contrario dei dibattiti che coinvolgono solo utenti con opinioni omogenee (dibattiti segregati). La conversazione non segregata dovrebbe favorire la convergenza verso un punto di vista neutrale. Hanno anche scoperto che il grado di pregiudizio di un utente diminuisce nel tempo e con l'esperienza e diminuisce più rapidamente tra gli utenti impegnati a modificare voci ricche di pregiudizi. Hanno anche stimato che, in media, ci vuole circa un anno in più perché il materiale di orientamento repubblicano raggiunga un punto di vista neutrale, rispetto al materiale di orientamento democratico.

Uno studio pubblicato nel 2019 e condotto tra utenti americani della versione inglese ha similmente indicato che esiste una notevole polarizzazione di orientamento politico tra gli utenti che contribuiscono ad argomenti politici; e che più è elevato il numero di modifiche di una voce, più equilibrato è l'orientamento politico medio degli utenti che vi contribuiscono. Lo studio ha indicato che la qualità delle voci (per come è riconosciuta dalla comunità di Wikipedia) migliora col crescere della diversità di orientamento politico. Gruppi di utenti composti equilibratamente di individui politicamente polarizzati producono voci mediamente migliori rispetto ai gruppi composti da utenti molto allineati politicamente e persino da moderati. Gli effetti positivi della polarizzazione sono stati osservati nelle voci di politica, questioni sociali e persino di scienze. Gruppi politicamente polarizzati hanno frequenti disaccordi che stimolano un dibattito focalizzato e, di conseguenza, modifiche di qualità superiore, più robuste e complete. Questi risultati empirici devono però essere temperati dalla considerazione che i gruppi di contributori delle voci possono auto-selezionarsi e possono formarsi non casualmente. I ricercatori hanno anche commentato che gruppi molto polarizzati possono produrre risultati che singoli utenti possono trovare insoddisfacenti (perché non allineati ai propri pregiudizi); e che i frequenti e intensi disaccordi richiedono una vigorosa mediazione e l'applicazione delle regole di Wikipedia. Di converso, scoraggiare pesantemente i pregiudizi può rendere la piattaforma inefficiente e insostenibile.[33][40]

Un altro studio del 2012 sulle guerre di modifiche (edit war) in Wikipedia[41] ha suggerito che anche negli articoli controversi spesso è possibile raggiungere un consenso in tempi ragionevoli. I conflitti che si prolungano sono determinati dall'afflusso di nuovi utenti: la maggior parte delle guerre di modifiche sono portate avanti solo da alcuni utenti, che spesso sono poco prolifici, ma fortemente conflittuali. I dibattiti si concludono meno sulla base del merito che per interventi esterni, per puro sfinimento o per l'evidente predominio numerico di un gruppo.

Sulla base dei risultati disponibili dalla ricerca sperimentale, Holtz e altri[4] hanno proposto un modello teorico della produzione di conoscenza in Wikipedia usando il concetto di "attrito produttivo": è necessario che ci sia un certo grado di conflitto interpretativo nel gruppo perché un processo collettivo produca conoscenza. Il modello è analogo a quello di conflitto socio-cognitivo usato in psicologia per spiegare l'apprendimento individuale. Il modello ipotizza che, se le tensioni (o attrito) in un gruppo (o il conflitto socio-cognitivo di un individuo rispetto a un problema) sono troppo basse, le possibilità di costruzione della conoscenza (o, nel caso di un individuo, le possibilità di apprendimento) sono limitate, perché la conoscenza già esistente è ampiamente sufficiente per risolvere il problema in questione. Se invece l'attrito dentro una comunità di contributori è troppo alto, esso può portare a una situazione in cui le idee rispettive vengono ignorate o il gruppo si divide (come un individuo, di fronte a una novità eccessiva, potrebbe non riuscire ad adattarsi e ad apprendere).

Indagini sulla produzione ed uso di contenuti politici in Wikipedia modifica

La produzione o l'uso di contenuti di interesse politico in Wikipedia ha attirato l'attenzione di ricercatori per identificare comportamenti che possano essere indicatori di tendenze pubbliche più generali durante le elezioni.[42] Alcuni studi hanno dimostrato che i contributori alle voci di Wikipedia sono stimolati dalle notizie politiche, come le campagne elettorali.[43] Per quanto riguarda i lettori, uno studio del 2016 su 14 versioni linguistiche di Wikipedia in relazione a due elezioni europee ha suggerito che le statistiche di accessi alle voci (pageviews) possono essere usate per prevedere l'affluenza alle urne e i cambiamenti nelle quote di voto dei partiti, anche se offrono poche informazioni sui risultati assoluti delle votazioni.[5]

Uno studio del 2013 di utenti che dichiarano apertamente il proprio sostengo al partito Democratico oppure al partito Repubblicano statunitensi ha indicato che essi preferiscono contribuire a voci affini al proprio orientamento politico, ma non mostrano comportamenti di editing polarizzati: non evitano la collaborazione con gli avversari e non preferiscono quella con gli alleati. Gli autori hanno ipotizzato che l'identità condivisa di "essere wikipediano" possa essere abbastanza forte da trionfare su altri aspetti potenzialmente divisivi dell'identità personale, come l'appartenenza politica. In molte piattaforme sociali (per esempio Twitter, blog) gli utenti danno segni di forte polarizzazione, perché tendono a interagire prevalentemente con altri utenti di orientamento simile. Wikipedia, invece, si collocherebbe tra quelle piattaforme (come i forum) nelle quali gli utenti mostrano un più elevato grado di interazione trasversale tra gli orientamenti politici.[42]

Uso critico e didattico di Wikipedia modifica

Tra gli accademici c'è un forte consenso sul fatto che, volenti o nolenti, Wikipedia è una fonte dominante nell'odierno panorama dell'informazione: essi quindi raccomandano che gli studenti dovrebbero acquisire (come parte essenziale della propria alfabetizzazione sull'informazione) la capacità di valutare e usare criticamente Wikipedia, così come altre risorse Internet contemporanee. Esistono numerose esperienze educative di insegnamento a leggere criticamente Wikipedia, superando approcci tradizionali basati sull'autorevolezza dell'autore.[44][45]

Secondo McDowell e Vetter, imparare a contribuire attivamente a Wikipedia e esplorare l'uso delle sue tre linee guida fondamentali costituiscono un'esperienza coinvolgente di alfabetizzazione informativa, soprattutto per gli utenti di Wikipedia nuovi o alle prime armi. Comprendere anche solo una piccola parte di come l'informazione diventa conoscenza in Wikipedia può aumentare le competenze informative su altre piattaforme digitali, soprattutto per diventare valutatori più attivi e critici dell'informazione digitale.[46]

Dibattiti nei media sulla parzialità di Wikipedia modifica

In seguito all'affermazione di Wikipedia come piattaforma di creazione collaborativa e diffusione di conoscenza, i media si sono occupati regolarmente dell'accuratezza e neutralità dell'enciclopedia.[47]

Media americani o internazionali hanno dato eco ai risultati delle ricerche accademiche sulla parzialità di Wikipedia e sull'efficacia dei meccanismi di controllo.[48][49][50][51][52][53]

Commenti sui media hanno anche sottolineato l'importanza di allargare la diversità dei contributori per garantire la pluralità dei punti di vista;[54] l'efficacia dei meccanismi di gestione dei conflitti;[55] casi notevoli di voci contestate i cui conflitti si sono poi estesi ad altri social media, dove i meccanismi di risoluzione di conflitti possono essere molto diversi e produrre esiti differenti da quanto accade in Wikipedia;[56] la diffusione di manipolazioni specie in versioni linguistiche con pochi contributori.[57]

Casi notevoli modifica

Critiche da parte di Larry Sanger modifica

Il co-fondatore di Wikipedia Larry Sanger, che si è poi allontanato dal progetto dopo un anno, ha affermato che la piattaforma "è altamente organizzata e strutturata e ci sono molte regole [...] d'altra parte, il modo in cui la comunità è organizzata non è codificato o deciso in alcun modo costituzionale. Quindi ci potrebbero essere persone che applicano selettivamente le regole in base alle posizioni che gli altri prendono sulle loro questioni personali".[58] Secondo Sanger Wikipedia non riflette come dovrebbe la conoscenza degli esperti; Sanger ha promosso la costituzione di un progetto alternativo, Citizendium, prodotto da esperti.[59] Sanger ha espresso più volte l'opinione che i contenuti di Wikipedia sono pesantemente influenzati da opinioni liberali e i punti di vista conservatori non sono adeguatamente rappresentati.[60][61]

Wikipedia italiana e revisionismo storico modifica

Dal 2017 un collettivo di studio denominato Nicoletta Bourbaki ha pubblicato una serie di inchieste in cui ha denunciato casi diffusi di revisionismo storico nelle voci della versione italiana.[62][63]Gli autori hanno inteso portare alla luce manipolazioni ispirate da ideologia neofascista nelle voci concernenti soprattutto la storia del fascismo italiano, della resistenza e delle foibe. Secondo gli autori, alcuni utenti hanno introdotto falsi storici usando come citazioni "fonti prive di qualsivoglia valore storiografico (in questo aiutati dalla tendenza a definire «storici» i giornalisti che scrivono di storia)" e controllando l'ulteriore evoluzione delle voci impedendone la modificazione in senso diverso.[64] Le inchieste hanno avuto un'eco di stampa.[65] Gli autori hanno affermato che l'ideale di neutralità tra i principi di Wikipedia è anacronistico e superato dalla concezione odierna di conoscenza. In realtà, le regole formali di Wikipedia intese a salvaguardare la neutralità possono essere piegate dall'influenza esercitata da utenti individuali e talora organizzati in gruppi nascosti.[66] Inoltre, sempre secondo questo gruppo di lavoro, la mancanza di stabilità delle voci e di identificazione degli autori impediscono a Wikipedia di divenire una fonte autorevole e verificabile;[67] e la neutralità della versione italiana in particolare è limitata dall'esiguo numero di utenti effettivamente attivi.[68]

Altri studiosi o commentatori di Wikipedia hanno notato la presenza di voci storiche o comunque sensibili potenzialmente cariche di pregiudizi; e come il numero relativamente ristretto di contributori della versione italiana possa talora rendere difficile produrre contenuti di qualità.[69][70] [71]Lo storico Prampolini ha invece notato la difficoltà di produrre consenso e qualità in voci storiche del fascismo.[72]

Wikipedia croata e revisionismo storico modifica

Nel 2013 è comparsa nella stampa croata (nel quotidiano Jutarnji list) la notizia che gli amministratori e gli editori della versione in lingua croata di Wikipedia stavano proiettando un pregiudizio di destra su argomenti come il regime ustascia, l'antifascismo, i serbi, la comunità LGBT e il matrimonio gay. Molti dei critici erano ex redattori del sito web che hanno affermato di essere stati estromessi per aver espresso preoccupazioni. Le piccole dimensioni della Wikipedia croata (a settembre 2013 contava 466 redattori attivi di cui 27 amministratori) è stata citata come un fattore importante. Due giorni dopo la pubblicazione dell'articolo, il ministro croato della Scienza, dell'Istruzione e dello Sport Željko Jovanović ha consigliato agli studenti di non utilizzare il sito web.[73] Nel 2018, storici dell'Università di Zagabria hanno dichiarato al Balkan Investigative Reporting Network (BIRN) che la Wikipedia croata presenta "molte carenze, errori di fatto e un linguaggio ideologicamente carico" e che gli studenti vengono spesso indirizzati alla Wikipedia in inglese anziché al sito di lingua croata, soprattutto per argomenti sulla storia croata.[74]

Nel 2021 la Wikimedia Foundation ha pubblicato i risultati di una valutazione su contenuti controversi sulla Wikipedia croata. La valutazione ha concluso che "Un gruppo di amministratori di Wikipedia in lingua croata ha detenuto un indebito controllo di fatto sul progetto almeno dal 2011 al 2020. Durante quel periodo, il gruppo ha intenzionalmente distorto il contenuto presentato negli articoli di Wikipedia in lingua croata in un modo che corrispondeva alle narrazioni di organizzazioni e gruppi politici che possono essere ampiamente definiti come la destra radicale croata". Secondo la valutazione, gli amministratori avevano abusato del loro potere di mettere al bando i dissidenti e di aver applicato e violato le regole in modo selettivo, con conseguente cattura del progetto.[75]

Wikipedia giapponese e revisionismo storico modifica

In un articolo del marzo 2021, la rivista Slate ha criticato la versione in lingua giapponese di Wikipedia per aver diffuso disinformazione revisionista storica sul massacro di Nanchino, sulle donne di conforto e sull'Unità 731. Secondo l'autore, "i revisionisti storici nella comunità spesso invocano la "neutralità", uno dei pilastri di Wikipedia, per difendere le loro posizioni, affermando che le loro opinioni sono neutre. Altre volte, utilizzano regole come "problema di copyright" per eliminare le modifiche, controllando la piattaforma. [...] Le pagine di discussione su Wikipedia giapponese mostrano come un gruppo di redattori spesso zittisca coloro che hanno opinioni opposte. Gli utenti che li contestano rischiano di essere accusati di "attivismo politico" o di violazione delle regole e di vedersi bloccare il proprio account. È simile a ijime (bullismo), un problema sociale in Giappone".[57]

Wikipedia spagnola modifica

Nel 2022, diverse personalità culturali e politiche spagnole hanno pubblicato un manifesto in cui si denuncia una "mancanza di neutralità e [...] evidenti pregiudizi politici nella Wikipedia [spagnola]" e hanno affermato che la Wikipedia spagnola è "curata da persone che, nascondendosi dietro account di editori anonimi, colgono l'opportunità di svolgere attivismo politico, sia includendo dati errati o falsi, sia selezionando notizie dai media con un chiaro pregiudizio politico e ideologico, relativo a informazioni controverse, distorte, insidiose o inesatte".[76]

Opinione di Jimmy Wales modifica

Nel 2006, il co-fondatore di Wikipedia Jimmy Wales ha dichiarato: "La comunità di Wikipedia è molto varia, da liberale a conservatrice a libertaria e oltre. Se le medie contassero, e data la natura del software wiki (nessuna votazione) quasi certamente non contano, direi che la comunità di Wikipedia è in media leggermente più liberale della media della popolazione statunitense, perché siamo globali e la comunità internazionale degli anglofoni è leggermente più liberale della popolazione statunitense. Non ci sono dati o sondaggi a sostegno di ciò" Secondo Wales, occorre spiegare agli uetnti di Wikipedia "come funziona e come è migliore di ogni altra fonte che sia mai esistita in termini di trasparenza, e non così buona come quasi ogni altra fonte che sia mai esistita in termini di stabilità. Fa(r) notare che il processo di editing aperto ha punti di forza e di debolezza."[77]

Note modifica

  1. ^ (EN) Hui Hao e Rudolph Bedeley, Biases in Online Opinion Platforms: A Literature Review and Future Direction, in AMCIS 2020 Proceedings, 10 agosto 2020. URL consultato il 16 dicembre 2022.
  2. ^ (EN) Hui Hao, Rudolph T. Bedeley e Torupallab Ghoshal, Cognitive Biases in Online Opinion Platforms: A Review and Mapping, in SSRN Electronic Journal, 2022, DOI:10.2139/ssrn.4059282. URL consultato il 16 dicembre 2022.
  3. ^ Bruckman, 2022.
  4. ^ a b (EN) Peter Holtz, Joachim Kimmerle e Ulrike Cress, Using big data techniques for measuring productive friction in mass collaboration online environments, in International Journal of Computer-Supported Collaborative Learning, vol. 13, n. 4, 23 ottobre 2018, pp. 439–456, DOI:10.1007/s11412-018-9285-y. URL consultato l'11 dicembre 2022.
  5. ^ a b (EN) Taha Yasseri e Jonathan Bright, Wikipedia traffic data and electoral prediction: towards theoretically informed models, in EPJ Data Science, vol. 5, n. 1, 18 giugno 2016, DOI:10.1140/epjds/s13688-016-0083-3. URL consultato il 16 dicembre 2022.
  6. ^ (EN) Benjamin Mako Hill e Aaron Shaw, The Most Important Laboratory for Social Scientific and Computing Research in History, in Joseph Reagle e Jackie Koerner, Wikipedia @ 20. Stories of an Incomplete Revolution, MIT Press, 2020. URL consultato il 16 gennaio 2023.
  7. ^ McDowell e Vetter, 2022, pp. ix-xviii.
  8. ^ Jemielniak, 2014, Intrdouction.
  9. ^ a b McDowell e Vetter, 2022, cap. 1.
  10. ^ Tkacz, 2014, pp 7-19.
  11. ^ a b Mostafa Mesgari, Chitu Okoli e Mohamad Mehdi, “The sum of all human knowledge”: A systematic review of scholarly research on the content of Wikipedia, in Journal of the Association for Information Science and Technology, vol. 66, n. 2, 2 dicembre 2014, pp. 219–245, DOI:10.1002/asi.23172. URL consultato il 25 gennaio 2023.
  12. ^ a b (EN) Christoph Hube, Bias in Wikipedia (PDF), in Proceedings of the 26th International Conference on World Wide Web Companion - WWW '17 Companion, ACM Press, 2017, DOI:10.1145/3041021.3053375. URL consultato l'11 dicembre 2022.
  13. ^ a b c (EN) Jackie Koerner, Wikipedia Has a Bias Problem, in Wikipedia @ 20. Stories of an Incomplete Revolution, MIT Press, 2020. URL consultato il 16 gennaio 2023.
  14. ^ Pamela Graham, “An Encyclopedia, Not an Experiment in Democracy”: Wikipedia Biographies, Authorship, and the Wikipedia Subject, in Biography, vol. 38, n. 2, 2015, pp. 222–244, DOI:10.1353/bio.2015.0023. URL consultato il 28 gennaio 2023.
  15. ^ (EN) Brian Martin, Policing orthodoxy on Wikipedia: Skeptics in action?, in Journal of Science Communication, vol. 20, n. 02, 12 aprile 2021, pp. A09, DOI:10.22323/2.20020209. URL consultato il 18 dicembre 2022 (archiviato dall'url originale).
  16. ^ a b c (EN) Puyu Yang e Giovanni Colavizza, Polarization and reliability of news sources in Wikipedia, in arXiv preprint arXiv:2210.16065, 2022 (archiviato dall'originale).
  17. ^ Jemielniak, 2014, Introduction.
  18. ^ a b (EN) Joshua L. Kalla e Peter M. Aronow, Editorial Bias in Crowd-Sourced Political Information, in PLOS ONE, vol. 10, n. 9, 2 settembre 2015, pp. e0136327, DOI:10.1371/journal.pone.0136327. URL consultato il 6 gennaio 2023.
  19. ^ a b McDowell e Vetter, 2022, pp. ix-xviii.
  20. ^ (EN) Cristina Menghini, Aris Anagnostopoulos e Eli Upfal, How Inclusive Are Wikipedia’s Hyperlinks in Articles Covering Polarizing Topics?, in 2021 IEEE International Conference on Big Data (Big Data), IEEE, 15 dicembre 2021, DOI:10.1109/bigdata52589.2021.9671943. URL consultato il 3 gennaio 2023.
  21. ^ Kazimierz Zielinski, Radoslaw Nielek e Adam Wierzbicki, Computing controversy: Formal model and algorithms for detecting controversy on Wikipedia and in search queries, in Information Processing & Management, vol. 54, n. 1, 2018-01, pp. 14–36, DOI:10.1016/j.ipm.2017.08.005. URL consultato il 28 gennaio 2023.
  22. ^ Tkacz, 2014.
  23. ^ a b Jemielniak, 2014. Cap. 3.
  24. ^ (EN) Brian Martin, Persistent Bias on Wikipedia, in Social Science Computer Review, vol. 36, n. 3, 21 giugno 2017, pp. 379–388, DOI:10.1177/0894439317715434. URL consultato il 18 dicembre 2022.
  25. ^ McDowell e Vetter, 2022, cap. 4.
  26. ^ Jemielniak, 2014, Cap. 4.
  27. ^ McDowell e Vetter, 2022, cap. 3.
  28. ^ a b Bruckman, 2022
  29. ^ (EN) Robert E. Cummings, The First Twenty Years of Teaching with Wikipedia: From Faculty Enemy to Faculty Enabler, in Joseph Reagle e Jackie Koerner, Wikipedia @ 20, MIT Press, 13 ottobre 2020, ISBN 978-0-262-53817-6. URL consultato il 16 gennaio 2023.
  30. ^ (EN) Matthew A. Vetter, Possible Enlightenments: Wikipedia’s Encyclopedic Promise and Epistemological Failure, in Wikipedia @ 20, MIT Press, 2020 [2020]. URL consultato il 16 gennaio 2023.
  31. ^ Chitu Okoli, Mohamad Mehdi e Mostafa Mesgari, The People’s Encyclopedia Under the Gaze of the Sages: A Systematic Review of Scholarly Research on Wikipedia, in SSRN Electronic Journal, 2012, DOI:10.2139/ssrn.2021326. URL consultato il 25 gennaio 2023.
  32. ^ a b c d e (EN) Shane Greenstein e Feng Zhu, Do Experts or Crowd-Based Models Produce More Bias? Evidence from Encyclopedia Britannica and Wikipedia, in MIS Quarterly, vol. 42, n. 3, 3 marzo 2018, pp. 945–959, DOI:10.25300/misq/2018/14084. URL consultato il 3 dicembre 2022 (archiviato dall'url originale).
  33. ^ a b c (EN) Feng Shi, Misha Teplitskiy e Eamon Duede, The wisdom of polarized crowds, in Nature Human Behaviour, vol. 3, n. 4, 4 marzo 2019, pp. 329–336, DOI:10.1038/s41562-019-0541-6. URL consultato l'11 dicembre 2022.
  34. ^ (EN) Don Fallis, Toward an epistemology ofWikipedia (PDF), in Journal of the American Society for Information Science and Technology, vol. 59, n. 10, 2008-08, pp. 1662–1674, DOI:10.1002/asi.20870. URL consultato il 30 dicembre 2022.
  35. ^ (EN) Joseph Michael Reagle Jr., Good Faith Collaboration: The Culture of Wikipedia (History and foundations of information science), MIT Press, 2010, OCLC 939167919. URL consultato l'11 dicembre 2022.
  36. ^ Yasseri, Taha and Spoerri, Anselm and Graham, Mark and Kertesz, Janos, The Most Controversial Topics in Wikipedia: A Multilingual and Geographical Analysis, in Fichman P., Hara N. (a cura di), Global Wikipedia: International and Cross-Cultural Issues in Online Collaboration, Scarecrow Press, 2014, http://dx.doi.org/10.2139/ssrn.2269392.
  37. ^ a b (EN) Shane Greenstein e Feng Zhu, Is Wikipedia Biased?, in American Economic Review, vol. 102, n. 3, 1º maggio 2012, pp. 343–348, DOI:10.1257/aer.102.3.343. URL consultato il 3 dicembre 2022.
  38. ^ (EN) Matthew Gentzkow e Jesse M. Shapiro, What Drives Media Slant? Evidence From U.S. Daily Newspapers, in Econometrica, vol. 78, n. 1, 2010, pp. 35–71, DOI:10.3982/ECTA7195. URL consultato il 3 dicembre 2022.
  39. ^ (EN) Shane Greenstein, Yuan Gu e Feng Zhu, Ideological Segregation among Online Collaborators: Evidence from Wikipedians (PDF), National Bureau of Economic Research, 2016-10. URL consultato il 3 dicembre 2022.
  40. ^ (EN) Taha Yasseri e Filippo Menczer, Can the Wikipedia moderation model rescue the social marketplace of ideas?, in ArXiv, 2021 (archiviato dall'originale).
  41. ^ (EN) Taha Yasseri, Robert Sumi e András Rung, Dynamics of Conflicts in Wikipedia, in PLOS ONE, vol. 7, n. 6, 20 giugno 2012, pp. e38869, DOI:10.1371/journal.pone.0038869. URL consultato il 3 gennaio 2023.
  42. ^ a b (EN) Jessica J. Neff, David Laniado e Karolin E. Kappler, Jointly They Edit: Examining the Impact of Community Identification on Political Interaction in Wikipedia, in PLOS ONE, vol. 8, n. 4, 3 aprile 2013, pp. e60584, DOI:10.1371/journal.pone.0060584. URL consultato il 16 dicembre 2022.
  43. ^ (EN) Brian Keegan, The Dynamics of Peer-Produced Political Information During the 2016 U.S. Presidential Campaign, in Proceedings of the International AAAI Conference on Web and Social Media, vol. 12, n. 1, 15 giugno 2018, DOI:10.1609/icwsm.v12i1.15043. URL consultato il 16 dicembre 2022.
  44. ^ Chitu Okoli, Mohamad Mehdi e Mostafa Mesgari, Wikipedia in the eyes of its beholders: A systematic review of scholarly research on Wikipedia readers and readership, in Journal of the Association for Information Science and Technology, vol. 65, n. 12, 8 luglio 2014, pp. 2381–2403, DOI:10.1002/asi.23162. URL consultato il 25 gennaio 2023.
  45. ^ Morello, 2022.
  46. ^ McDowell e Vetter, 2022, cap. 2.
  47. ^ Una rassegna delle percezioni di Wikipedia prevalenti nei media dalla sua fondazione à disponibile in (EN) Omer Benjakob e Stephen Harrison, From Anarchy to Wikiality, Glaring Bias to Good Cop: Press Coverage of Wikipedia’s First Two Decades, in Wikipedia @ 20, MIT Press, 2020.
  48. ^ (EN) Suzy Khimm, Study: Wikipedia perpetuates political bias, in The Washington Post, 18 dicembre 2012 (archiviato dall'originale).
  49. ^ (EN) Walter Frick, Wikipedia Is More Biased Than Britannica, but Don’t Blame the Crowd, in Harvard Business Review, 3 dicembre 2014.
  50. ^ (EN) Alexis Sobel Fitts, Welcome to the Wikipedia of the Alt-Right, in Wired, June 21, 2017. URL consultato il 1º giugno 2018 (archiviato dall'url originale il 17 gennaio 2018).
  51. ^ (EN) Ananya Bhattacharya, Wikipedia’s not as biased as you might think, in Quartz, 6 novembre 2016.
  52. ^ (EN) Jeff Guo, Wikipedia is fixing one of the Internet’s biggest flaws, in The Washington Post, 25 ottobre 2016.
  53. ^ (EN) Michael Bernick, The Power Of The Wikimedia Movement Beyond Wikimedia, in Forbes, 28 marzo 2018.
  54. ^ (EN) Is Wikipedia Woke?, su Bloomberg News, 22 dicembre 2016. URL consultato il 5 gennaio 2023.
  55. ^ (EN) Ina Fried, Wikipedia blazes a trail to agreement in a divided world, in Axios, 15 luglio 2022.
  56. ^ (EN) Samuel Breslow, How a False Claim About Wikipedia Sparked a Right-Wing Media Frenzy, in Slate, 11 agosto 2022. URL consultato il 5 gennaio 2023.
  57. ^ a b (EN) Yumiko Sato, Non-English Editions of Wikipedia Have a Misinformation Problem, in Slate, 19 marzo 2021. URL consultato il 5 gennaio 2023.
  58. ^ (EN) Zachary Schwartz, Wikipedia's Co-Founder Is Wikipedia's Most Outspoken Critic, in Vice, 11 novembre 2015.
  59. ^ (EN) Timothy B. Lee, Citizendium turns five, but the Wikipedia fork is dead in the water, in Ars Technica, 27 novembre 2011. URL consultato il 5 gennaio 2022.
  60. ^ (EN) Rozina Sabur, The Left has taken over Wikipedia and stripped it of neutrality, says co-creator, in The Daily Telegraph, 16 luglio 2021.
  61. ^ (EN) Madeleine Spence, Larry Sanger: ‘I wouldn’t trust Wikipedia — and I helped to invent it’, in The Times, 1º agosto 2021.
  62. ^ Benedetta Pierfederici e Salvatore Talia, La narrazione della storia in Wikipedia: pratiche, ideologie, conflitti per la memoria nell’Enciclopedia Libera, in Storie e Linguaggi, vol. 5, n. 1, 2019.
  63. ^ Tommaso Baldo, Considerazioni conclusive, in Diacronie, N° 29, 1, 29 marzo 2017, DOI:10.4000/diacronie.5471. URL consultato il 28 gennaio 2023.
  64. ^ Nicoletta Bourbaki, La strategia del ratto. Manomissioni, fandonie e propaganda fascista su Wikipedia: il caso «Jose Antonio». Prima parte, su wumingfoundation.com, 21 febbraio 2017.
  65. ^ Marco Tonelli, Modifiche e falsi storici, ecco come l’estrema destra italiana inquina le pagine di Wikipedia, in La Stampa, 14 marzo 2017 (archiviato dall'originale).
  66. ^ Nicoletta Bourbaki, La narrazione della storia in Wikipedia: pratiche, ideologie, conflitti, su Giap, 16 luglio 2019.
  67. ^ Tommaso Baldo con la collaborazione del gruppo Nicoletta Bourbaki, I «45 cavalieri» di Wikipedia. Da chi e cosa è libera l’enciclopedia libera?, su wumingfoundation.com, 13 ottobre 2015.
  68. ^ Nicoletta Bourbaki, Questo chi lo dice? E perché? Una guida per la fruizione critica delle fonti fuori e dentro il web. Con esempi e proposte di esercizi didattici. (PDF), Wu Ming, 2018.
  69. ^ Febbraro, Flavio, La palestra digitale: l’esperienza di scrittura di voci storiche su Wikipedia, in Valseriati, Enrico (a cura di), Prospettive per la didattica della storia in Italia e in Europa, New digital frontiers, 2019, ISBN 978-88-85812-31-4, OCLC 1253374539. URL consultato il 28 gennaio 2023.
  70. ^ Tavosanis, Mirko, Le discussioni di Wikipedia (PDF), in Lingue e culture dei media, vol. 4, n. 2, 2020, pp. 59-77.
  71. ^ Tommaso Baldo, Riflessioni sulla narrazione storica nelle voci di Wikipedia, in Diacronie, N° 29, 1, 29 marzo 2017, DOI:10.4000/diacronie.5347. URL consultato il 4 giugno 2022.
  72. ^ Antonio Prampolini, Gli storici dilettanti in rete: la scrittura della voce “Fascismo” nell'edizione italiana di Wikipedia, su ISREC – Istituto di storia contemporanea di Piacenza (archiviato dall'url originale).
  73. ^ (EN) Tim Sampson, How pro-fascist ideologues are rewriting Croatia’s history, su The Daily Dot, 1º ottobre 2013. URL consultato il 20 gennaio 2023.
  74. ^ (EN) Sven Milekic, How Croatian Wikipedia Made a Concentration Camp Disappear, su Balkan Insight, 26 marzo 2018. URL consultato il 2023-01-5.
  75. ^ (EN) Croatian Wikipedia Disinformation Assessment-2021 - Meta, su meta.wikimedia.org. URL consultato il 20 gennaio 2023.
  76. ^ (ES) Denuncian el sesgo político encubierto de Wikipedia en español, su ABC, 16 settembre 2022. URL consultato il 5 gennaio 2023.
  77. ^ (EN) Mark Glaser, Email Debate::Wales Discusses Political Bias on Wikipedia, su mediashift.org, 21 aprile 2006. URL consultato il 5 gennaio 2023.

Bibliografia modifica

Voci correlate modifica