Individuare gli aghi dannosi nel pagliaio: come i fact-checker selezionano cosa controllare
Verificatori di fatti completi presso l'ufficio di Londra. (Foto completa)A luglio l'organizzazione di fact-checking con sede a Londra Fatto completo usato strumenti di intelligenza artificiale analizzare il dibattito pubblico nei media e online. Hanno identificato una media di 240437 contenuti in circolazione ogni giorno che sarebbero possibili per Full Fact o per una delle dozzine di altre organizzazioni di fact-checking che utilizzano i suoi strumenti per verificare i fatti.
Naturalmente non tutte le false affermazioni hanno la stessa importanza. Anche in questo caso, utilizzando gli strumenti di intelligenza artificiale, Full Fact è stato in grado di eliminare oltre il 99% di quelli che non sono rilevanti né importanti da controllare per l'organizzazione: si tratta di previsioni di opinioni, affermazioni ripetute o su un argomento così astratto da avere poche possibilità di avere un impatto.
Poiché la tecnologia ha ristretto il pool di selezione a diverse dozzine di affermazioni che potrebbero essere utili da verificare, i verificatori dei fatti dovevano ancora decidere quali affermazioni verificare tenendo conto del potenziale impatto dell’affermazione e di altri fattori. Full Fact, il più grande fact checker indipendente del Regno Unito, scrive un massimo di 10 fact check completi e dettagliati al giorno.
Maggior parte organizzazioni di controllo dei fatti seguire un processo sostanzialmente simile: utilizzare una miscela di ricerca digitale e intuizione umana per vagliare una miriade di affermazioni e concentrarsi su quelle che ritengono più importanti.
tiera skovbye
Per fare questo abbiamo sviluppato a modello rigoroso basato sui danni per selezionare affermazioni importanti da verificare. In uno studio condotto lo scorso anno abbiamo tratto conclusioni utili sulle potenziali conseguenze di specifiche false affermazioni per gli individui e la società utilizzando una combinazione di prove esposte in fact check di buona qualità e ricerche preesistenti.
Secondo un studio indipendente del nostro studio Condotto da ricercatori di dottorato presso l’Università del Wisconsin-Madison, il modello costituisce la base di un modo per i verificatori dei fatti di selezionare le affermazioni più importanti con il più alto potenziale di danno.
Affermazioni di “pregiudizio” e il problema del falso equilibrio
Il 7 gennaio il boss di Meta Mark Zuckerberg è entrato nella mischia del fact-checking sostenendo che i fact-checker statunitensi erano troppo politicamente prevenuti a causa delle affermazioni che scelgono di verificare. Ha posto fine all’uso da parte di Meta di fact-checker indipendenti negli Stati Uniti e ha accennato a piani per fare lo stesso in tutto il mondo.
cast di il maggiore brady
Ovviamente, a dispetto di chi verifica i fatti, il mondo è disordinato. I politici non dicono falsità in quantità nettamente simmetriche. Alcuni fanno affermazioni verificabili più schiette di altri. Alcuni semplicemente parlano di più. E alcune affermazioni contano più di altre. Nel frattempo anche gli ambienti politici nel mondo variano enormemente. Alcuni paesi hanno effettivamente un partito, altri ne hanno due e molti sono multipartitici in un modo che rende poco plausibile l’idea di un semplice equilibrio 50/50.
IL Codice di principi dell’International Fact-Checking Network regola il modo in cui i fact-checker membri operano per riflettere questa realtà. I fact-checker si impegnano a non raggiungere un equilibrio artificialmente perfetto, ma a non concentrarsi eccessivamente su nessun lato e devono spiegare ogni anno come svolgono questo compito più difficile.
Come funziona nel mondo reale: danneggiare la portata del pubblico e il controllo dei potenti
In vista dell'annuale Conferenza GlobalFact a giugno in Brasile 70 delle principali organizzazioni mondiali di fact-checking hanno risposto a un sondaggio che abbiamo inviato identificando nelle loro risposte i fattori che prendono in considerazione quando scelgono cosa controllare ogni giorno.
Le risposte hanno mostrato i tre fattori chiave: danno; la portata del reclamo; e il potere di coloro che ce l'hanno fatta. Il fattore citato più frequentemente è stato il fatto che la richiesta potrebbe potenzialmente causare un danno specifico: un fattore segnalato ora o presto dal 93% degli intervistati. Il secondo punto segnalato dall'83% delle organizzazioni è se l'affermazione ha una vasta portata di pubblico e quindi il fact-checking potrebbe promuovere le capacità di fact-checking. Subito dopo, secondo l'81%, è stato riportato se l'affermazione proveniva da qualcuno influente. I fact-checker tendono a verificare i fatti sul partito o sui partiti al potere più di quelli di minoranza o di opposizione.
Altre risposte hanno mostrato che i fact-checker tengono conto di considerazioni pratiche e della possibilità che le affermazioni contribuiscano ad arrecare danni in futuro. Più di un terzo (71%) degli intervistati ritiene che sia possibile verificare la richiesta. Più della metà (54%) afferma di tenere conto della possibilità che la richiesta di risarcimento possa causare danni in futuro. E poco meno della metà (47%) tiene conto delle richieste dei lettori.
L'aspetto politico della richiesta è il fattore principale con il punteggio più basso e solo il 26% degli intervistati lo considera nella propria scelta.
Il modello predittivo dei risultati di prova aiuta i verificatori dei fatti a concentrarsi sulle affermazioni dannose
Prevedere il tempo è difficile. Prevedere gli effetti delle informazioni sul comportamento è più difficile, come hanno dimostrato decenni di ricerca accademica.
Alla richiesta di identificare specifiche false affermazioni come potenzialmente dannose o meno, la maggior parte delle persone i verificatori dei fatti inclusi hanno sopravvalutato la possibilità che molte affermazioni causino o contribuiscano a conseguenze sostanziali un nuovo libro sottoposto a revisione paritaria Notizie false: che danno? di Peter Cunliffe-Jones sostiene.
Eppure come il libro e numerosi altri studi dimostrano le conseguenze nel mondo reale delle informazioni false sono spesso gravi. Questo potenziale di effetti specifici è stato dimostrato più e più volte, dai danni diffusi alla salute individuale e pubblica, alla violenza, ai conflitti e alle distorsioni della democrazia, fino agli effetti negativi sull’economia, sul sistema giudiziario e sulla salute mentale degli individui.
alan arkin coniuge
Ma per quanto riguarda la scala?
Tuttavia, l’enorme quantità di disinformazione disponibile nel mondo rimane scoraggiante. Parte della risposta risiede ovviamente nella progettazione e nella regolamentazione dei media e delle piattaforme online. Una parte risiede nell’alfabetizzazione mediatica. Per quanto riguarda l’identificazione per il pubblico di ciò che è vero o falso su larga scala, al momento abbiamo due percorsi principali.
Uno è il sistema Community Notes utilizzato dalle piattaforme gestite da X in tutto il mondo e da TikTok e Meta negli Stati Uniti. Queste aziende affermano che il sistema può affrontare la fattualità del contenuto valutato su una scala che va oltre ciò che i verificatori di fatti professionisti possono fare sulla base del consenso del pubblico. Per quanto utile possa essere, il modello non è progettato in base al potenziale dei sinistri di causare danni.
L’altra strada è quindi l’uso dell’intelligenza artificiale per abbinare i fact check ai contenuti nuovi ed esistenti che diffondono affermazioni identiche o molto simili. Le piattaforme utilizzano questo processo da molto tempo. Secondo a una relazione dell’UE Meta ha utilizzato l’intelligenza artificiale per l’abbinamento delle affermazioni per etichettare 27 milioni di post aggiuntivi durante una finestra di sei mesi nel 2024. Non è una scienza perfetta, ma le grandi piattaforme online con le risorse e l’esperienza nell’intelligenza artificiale dovrebbero continuare a investire nel modo in cui aggiungono questo contesto vitale a molte delle affermazioni più importanti fatte.
I numeri coinvolti nel settore sono enormi. Le note della community possono aiutare le piattaforme ad affrontare la realtà più spesso. I fact-checker cercano di concentrarsi sul controllo delle informazioni potenzialmente dannose che vedono online nei media e nel dibattito pubblico più ampio; fornire al pubblico informazioni vitali per mantenerlo al sicuro. Le piattaforme possono supportare questo lavoro collaborando con loro e amplificando in modo intelligente tale lavoro per garantire che ogni verifica scritta dei fatti funzioni il più duramente possibile per fornire alle persone il contesto di cui hanno bisogno per comprendere il mondo che li circonda.





































