Come difendersi dalla manipolazione digitale

Come difendersi dalla manipolazione digitaleCome difendersi dalla manipolazione digitale

Il 22 maggio scorso, all’interno della rassegna Social Media Marketing Day Italia, presso l’Auditorium della Confcommercio di Milano, si è tenuta una conferenza presieduta da Federico Luperi sulla manipolazione dell’informazione ai tempi dei social.

Il tema più che mai caldo, nell’ultima settimana di campagna elettorale in vista delle europee, è stato analizzato sotto tutti i punti di vista.

Dal machine learning e dal risultato dell’IoT, che consente alle macchine non solo di analizzare dati e di riproporli in forme differenti ma anche di giudicarli qualitativamente, fino ad arrivare al ruolo dell’uomo e in particolare del giornalismo nel mondo digitale.

Se da una parte possiamo ormai trovare algoritmi che producono in modo automatico i contenuti con un’interpretazione dei dati (ad esempio valutazioni su come ha giocato un particolare calciatore durante una partita oppure su come sia una nuova pellicola da poco uscita nelle sale), dall’altro incontriamo degli umani che si coalizzano fra di loro e cambiano il modo di raccontare i fatti.

Al di là dei nuovi formati che ormai sono sotto gli occhi di tutti (stories, post, podcast, dirette social ecc), oggi il giornalista è tenuto non più tanto a scrivere e a raccontare determinati fatti, bensì a selezionare e giudicare tutte le notizie da cui siamo bombardati. In futuro è infatti plausibile che possano nascere degli strumenti che, sulla base di microcluster di appartenenza degli utenti, propongano determinate notizie non sulla base di un algoritmo (quindi come accade già con i feed rss) ma grazie a una vera e propria redazione fatta da persone in carne ed ossa.

Questo è quello che accade (ed è accaduto) nel mondo della pubblicità, in particolare quello del digital advertising, dove uno stesso messaggio o prodotto può essere diffuso in modalità totalmente differenti fra di loro in base al target di riferimento. Basti pensare, ad esempio, alla strategia social per la campagna elettorale di Trump, in cui i vari target sono stati raggiunti da messaggi profondamente differenti fra di loro ma con un obiettivo comune.

Le macchine non hanno infatti il nostro stesso parametro per analizzare la realtà (in particolare i software di machine learning faticano a digerire l’ironia) ed è quindi necessario un intervento umano a priori o a posteriori.

Per difendersi quindi da fakenews (umane e non) e giudicare le fonti, si stanno creando dei gruppi di professionisti nell’informazione che attestano la veridicità delle informazioni. È il caso di NewsGuard, strumento che si presenta al momento sotto forma di estensione per browser voluto da un insieme di pubblicisti e giornalisti, che dà dei voti ai siti suddividendo il giudizio sulla base di vari parametri. Questo consente all’utente di farsi un’idea su quanto quella determinata notizia possa essere considerata attendibile. Anche se lo strumento più forte che abbiamo a disposizione rimane lo spirito critico personale, che si coltiva con il dubbio e con lo studio, e che nessuna macchina potrà mai raggiungere.