Tech

Strumenti di Intelligenza Artificiale per Valutare l’Autenticità delle Immagini nell’Immediato Dopo Sparo su Trump: un Approfondimento su WebRaider

Giornalisti Usano l’Intelligenza Artificiale per Verificare l’Autenticità delle Immagini dell’Attentato all’Ex Presidente Trump

I giornalisti hanno utilizzato l’intelligenza artificiale per verificare l’autenticità delle immagini dell’attentato all’ex Presidente Donald Trump in Pennsylvania sabato sera, dimostrando sia il potenziale che le limitazioni della tecnologia AI nell’assicurare la veridicità delle informazioni online.

Strumenti AI offerti dall’organizzazione non-partisan TrueMedia.org, con sede a Seattle, sono stati utilizzati dai reporter per valutare le immagini che si sono diffuse sui social media dopo la sparatoria, inclusa una foto che sembrava catturare un proiettile in volo dietro la testa di Trump.

Verifica delle Immagini

Quella foto è stata scattata dal fotografo del New York Times Doug Mills.
Tuttavia, la tendenza degli utenti dei social media a pubblicare immagini senza dare credito può rendere difficile determinare le origini del contenuto, soprattutto durante la copertura di notizie in evoluzione.

Mentre sottolineava che i suoi risultati erano sperimentali, TrueMedia.org ha correttamente indicato che la foto probabilmente non era stata manipolata, secondo Oren Etzioni, fondatore dell’organizzazione.

Analogamente, rispondendo a una richiesta di un altro giornalista, gli strumenti AI di TrueMedia hanno trovato poche prove di manipolazione in quella che si è rivelata essere una fotografia dell’Associated Press di Trump che alzava il pugno dopo l’incidente.
Anche quella foto ha circolato ampiamente sui social media.

Limitazioni dell’AI e Disinformazione

Tuttavia, molte delle informazioni non verificate che si sono diffuse sulle piattaforme sociali dopo la sparatoria erano l’equivalente digitale di voci passaparola, messaggi che alimentavano teorie del complotto da tutte le parti dello spettro politico.

Gli strumenti AI assemblati e sviluppati da TrueMedia.org si concentrano su immagini, video e audio, comunemente noti come deepfake.

“TrueMedia, per quanto vorrei che fosse una soluzione magica, è solo una soluzione parziale,” ha detto Etzioni, famoso scienziato informatico e specialista di AI, e professore emerito alla University of Washington Allen School of Computer Science.

Etzioni ha enfatizzato il ruolo importante delle vere organizzazioni mediatiche e dei fact-checker per verificare le informazioni, facendo eco anche ai leader nazionali che hanno esortato il paese ad aspettare i risultati delle indagini sulla sparatoria prima di saltare alle conclusioni.

TrueMedia.org è “ancora una piccola parte di un grande problema,” ha detto Etzioni, che è anche l’ex CEO dell’Allen Institute for AI di Seattle.
“Dobbiamo, tutti noi, proteggere la democrazia, ciascuno nel modo che possiamo.”

Supporto da NewsGuard e futuri sviluppi

Separatamente, il servizio di verifica delle notizie NewsGuard ha recentemente accreditato gli strumenti di TrueMedia per aver aiutato a identificare 41 account TikTok che utilizzavano “narrazioni generate dall’AI per diffondere disinformazione politica su larga scala”—un fenomeno in crescita che NewsGuard ha descritto come “l’ascesa della content farm AI di TikTok.”

TrueMedia.org, annunciato a gennaio, è guidato da Etzioni e finanziato dal co-fondatore di Uber Garrett Camp attraverso la sua fondazione nonprofit Camp.org.
L’organizzazione ha lanciato una raccolta di strumenti AI per il rilevamento dei deepfake politici ad aprile, rendendoli disponibili per giornalisti e fact-checker.
Ora ha migliaia di utenti attivi, ha detto Etzioni.

Etzioni ha detto di aver appreso della sparatoria in Pennsylvania quando ha visto che un membro della stampa di una grande organizzazione giornalistica stava utilizzando TrueMedia per verificare l’autenticità della fotografia che sembrava mostrare il proiettile in volo.
Ha detto che è stato rincuorante vedere il giornalista fare il proprio dovere in quel modo.

%d