Facebook e il fact-checking anche sulle immagini

Indispensabile controllare le notizie per evitare il diffondersi di “bufale” e garantire la corretta informazione. Ma le fake-news non sono solo scritte, viaggiano anche in foto e per questo Facebook ha deciso di verificarle già dallo scorso marzo utilizzando la stessa filiera già attivata per gli articoli. Anche in questo caso, il sistema è un mix di intelligenza artificiale e umana. Un lavoraccio, se si considera che attualmente gli utenti del mondo Facebook-Instagram sono circa 2,2 miliardi.

Come funziona il controllo

Come riporta un recente approfondimento dell’Agi, un sistema di machine learning elabora diversi segnali (tra i quali le indicazioni degli utenti) per rintracciare i contenuti sospetti. Li analizza o li spedisce ai partner, che saranno formati su tecniche di verifica specifiche per le immagini, da affiancare alle competenze giornalistiche e accademiche che già possiedono. Il responso dei collaboratori ha un doppio ruolo: oltre a quello di distinguere informazione attendibile e false, istruisce ulteriormente l’intelligenza artificiale, che apprende dalla propria esperienza e da quella umana. Più precisamente: foto e video saranno analizzati dai 27 partner di Facebook (in Italia l’unico è Pagella Politica) che, in 17 Paesi, già controllano i contenuti scritti. Ma Menlo Park, sede di Facebook, ne sta selezionando altri per espandere la propria rete. La product manager Antonia Woodford di Facebook scrive in un post che occorre “identificare e agire più velocemente contro diversi tipi di disinformazione”.

Ogni paese ha le “sue” bufale

I contenuti fake si diffondono in modi diversi, che variano da Paese a Paese. “Negli Stati Uniti, ad esempio, gli utenti affermano di incontrare più disinformazione negli articoli. Mentre in Indonesia osservano più immagini fuorvianti” ha fatto sapere il social media di Mark Zuckerberg. Tuttavia, da Facebook spiegano che sarebbe un errore ragionare per compartimenti stagni. “La stessa bufala può viaggiare attraverso diversi tipi di contenuti, che non possono essere trattati come “categorie distinte. È quindi “importante costruire difese contro la disinformazione attraverso articoli, foto e video”.

C’è anche Rosetta, la cacciatrice di meme 

E’ già attivo (da pochi giorni) Rosetta, l’intelligenza artificiale cacciatrice di meme, immagini e video, dal contenuto divertente, ma allo stesso tempo anche offensivo: il suo lavoro è enorme, deve infatti elaborare circa un miliardo di contenuti al giorno tra Instagram e Facebook. In modo da identificare “automaticamente” quelli che “ledono le politiche sull’incitamento all’odio”. Niente scherzi, quindi, sui social.