Facebook ha iniziato a segnalare le fake news (e la cosa sembra non funzionare)

di Francesco Marino

Nell’universo di Blade Runner, film di Ridley Scott, i sospetti androidi vengono sottoposti al Voigt-Kampff Test. Si tratta di una prova basata sulla somministrazione di immagini in grado di generare empatia, per distinguere i robot dagli esseri umani.


Cosa c’entra questo con Facebook e la fake news? Facile. Esistono delle operazioni che, al netto della presenza di macchine o algoritmi, solo gli esseri umani sono in grado di fare. Provare emozioni, ad esempio, come avrà sostenuto l’inventore del Voigt-Kampff Test in Blade Runner. E distinguere il vero dal falso, cogliere le sfumature che contraddistinguono una notizia, aggiungiamo noi.

Ma facciamo un piccolo passo indietro. A dicembre, dopo l’elezione di Donald Trump alla Casa Bianca, Facebook ha promesso l’introduzione di un bottone per segnalare le fake news. Il tasto lavora su un doppio binario. C’è una segnalazione, che può avvenire dagli utenti o dall’algoritmo di Facebook, e in seguito una verifica da una serie di testate che hanno siglato un accordo con Menlo Park.

La notizia di questi giorni è che le prime notizie ‘disputed’ stanno comparendo negli Stati Uniti. Pioniera, in tal senso, è stata una news pubblicata il 26 febbraio dal Seattle Tribune su sedicenti leak provenienti dallo smartphone di Donald Trump (la vedete qui sotto).

È successo che, nell’atto pratico, il metodo di Menlo Park ha mostrato almeno tre problemi rilevanti.

  1. La prima, banalmente, è il termine usato. ‘Disputed‘ vuol dire in dubbio, discusso. Ma si discute sulla scelta tattica di un allenatore di calcio, su una questione politica, non sulla veridicità di una notizia.
  2. La notizia è rimasta ‘pulita’ fino al 2 marzo quando, in seguito alle segnalazioni degli utenti, è stata dichiarata ‘disputed’ prima da Snopes, testata specializzata in miti metropolitani e poi da Politifact. 26 febbraio – 2 marzo: fanno 5 giorni di circolazione indisturbata prima della segnalazione.
  3. E qui entriamo nel campo della capacità di discernimento. Il Seattle Tribune pubblica solo, volontariamente, bufale, a sfondo satirico. È un Lercio dello Stato di Washington, in altre parole. Anzi, se provate a googlarlo, il primo risultato è un disclaimer che avvisa: “The Seattle Tribune is a news and entertainment satire web publication”.

SERVONO GLI ESSERI UMANI (MA NON È COMUNQUE COSÌ SEMPLICE)

Non vorremmo essere autoreferenziali, ma su queste pagine lo avevamo detto. Questo primo tentativo mostra tutti i limiti dell’approccio di Facebook alla questione fake news.

Servono gli esseri umani, ma ce ne vogliono troppi (e a Menlo Park preferiscono gli algoritmi) e le macchine non sono in grado di distinguere le sfumature di realtà. In più, Facebook non ha un reale interesse a combattere le bufale, ma è stata costretta a scendere in campo dall’opinione pubblica con una soluzione che può calmare le acque, ma che sulla lunga distanza rivelerà tutti i suoi limiti.

Del resto, chi meglio di Facebook sa che, sui social, delle notizie si leggono solo i titoli. Provate a leggerne qualcuno, dalla stampa internazionale: sembrerà che Menlo Park ha già vinto la guerra.

Non è così.