Bot e profili fake: le nuove armi della disinformazione

Oggi Internet ha assunto un ruolo centrale nelle nostre vite: sul web c’è chi lavora, studia, fa la spesa e chi si informa. I social media stanno soppiantando (se non l’hanno già fatto) i giornali. In Italia il 58.2% della popolazione ritiene la rete una fonte di notizie attendibile, mentre alcuni non si fidano dei quotidiani, precisamente il 17,6% degli Italiani. Ma dov’è dunque il problema? Non è anche questo un segno che l’umanità continua a progredire, e dunque cambiano anche le modalità con cui ci si informa? Beh, non in questo caso. Infatti il web diventa sempre più popolato da bot, che diffondono automaticamente le famigerate fake news.

Ma cos’è un bot? Prima di tutto bisogna distinguere fra bot e profili fake: con la parola “bot” ci si può riferire a diverse cose purché queste siano automatizzate, infatti non è altro che un’ abbreviazione di “robot”. Più comunemente ci si riferisce a profili social creati automaticamente in serie, programmati per interagire con i contenuti online secondo la volontà di chi li ha creati; quando si parla di profili fake invece, è più corretto riferirsi a profili fasulli gestiti singolarmente da esseri umani. I due hanno anche scopi diversi, in quanto i robot vengono più spesso usati col fine di ampliare le fan base di determinati account o per promuovere e diffondere certi contenuti, a volte anche per diffamarli, mentre i fake profiles sono spesso lo strumento usato da pedofili o da gestori di siti atti a rubare dati preziosi tramite phishing o malware.

È difficile determinare tra i due il male peggiore. Torniamo a concentrarci sui bot. Questi ultimi, rispetto ai cugini, hanno un impatto sulla società molto più ampio e rilevante, infatti come dicevamo all’inizio sono la principale causa della diffusione di bufale e notizie false, e quindi sono anche in grado di influenzare l’opinione politica della gente. I dati parlano chiaro: uno studio che ha preso in analisi 14 milioni di messaggi e 400 mila articoli condivisi su Internet tra maggio 2016 e marzo 2017, durante le scorse elezioni statunitensi, ha dimostrato che il 6 degli account identificati come bot dalla piattaforma Twitter (che è stata scelta per questo studio) da soli hanno creato il 31% delle fake news.

Ma come è possibile che siano così efficaci? Le motivazioni principali sono legate all’avanzamento dello sviluppo tecnologico e ai grandi investimenti. Non si esagera infatti quando si dice che sta nascendo una vera e propria industria della disinformazione, gestita da aziende informatiche che ricevono investimenti da privati (aziende che vogliono una campagna pubblicitaria estrema, piccoli giornali o gruppi di persone attive politicamente in cerca di ascolti e consensi) per creare questi bot, sempre più simili ad account reali. Se prima i bot erano facilmente riconoscibili per i loro nickname generati casualmente da algoritmi, i loro nomi sono realistici, ma grazie ad aggiornati studi sociologici e ai progressi nel campo delle intelligenze artificiali, sono in grado di generare visi ad hoc per l’account (riprendendo da foto online) e di rientrare in alcuni “stereotipi sociali” che tendono a farci reputare tali account affidabili. Questo ovviamente è possibile solo se la cifra investita è veramente alta, ma non servono “campagne” da milioni di euro per ottenere risultati validi: un esempio fu il caso di Isaydata e Isayweb, all’inizio del 2018, quando queste compagnie informatiche responsabili della creazione di bot per la propaganda politica in Italia vennero smascherate da un gruppo di hacker che si sono impossessati di alcuni dei suddetti account e da questi sono risaliti alla fonte. I bot rappresentano quindi un sistema sofisticato ed efficace, difficile da contrastare in larga scala per la loro velocità e per la loro quantità, ma nonostante tutto è ancora troppo presto per parlare di una crisi della politica e dell’informazione online, secondo delle ricerche attuate in seguito al caso Russiagate infatti la stragrande maggioranza dei votanti alle presidenziali aveva già preso posizione prima che qualsiasi fake news potesse influenzarlo. Questa ricerca però è solo indicativa, e ad oggi non esistono ancora prove scientifiche certificate che testimoniano l’effettiva efficacia dei bot.

Cosa si può fare per contrastare il fenomeno? La cosa più utile sarebbe denunciare i “mandanti” di questi profili automatizzati, ma rintracciarli è complesso e l’utente medio non è in grado di farlo. Tuttavia  non serve essere hacker per poter fare qualcosa: possiamo anche noi nel nostro piccolo fare la nostra parte, riconoscendo i bot con Botometer, uno strumento creato dai ragazzi dell’università americana Eugene Lang liberamente utilizzabile, che determina se un profilo twitter è umano o no. Questo strumento però vale solo per Twitter appunto, sulle altre piattaforme per distinguere umani e robot possiamo usare questo “identikit” tratto da ionos.it:

  1. Quanto è credibile che un uomo abbia allestito in questo modo il proprio profilo? A fornire gli indizi sono spesso la foto profilo, quando è stato creato l’account e il comportamento dei follower e degli altri account seguiti dal profilo in questione: i bot sono soliti seguire un gran numero di account senza ricevere lo stesso trattamento. Se un account ha solo un numero esiguo di amici è allora assai probabile che si tratti di un bot. Ancora, la foto profilo potrebbe essere uno scatto paragonabile a quello di una modella professionista di facile reperibilità sul web? Anche l’armonia con il quale è costruito il profilo può svelarvi se si tratta di un account vero o meno, o in altre parole: c’è qualcosa che non torna? Inoltre vale la pena verificare quanto tempo fa è stato creato l’account. Molti social bot vengono creati immediatamente prima di venire utilizzati per i fini prefissati.
  2. Che contenuti posta l’account? Se condivide o invia sempre gli stessi post costruiti magari con una scelta stranamente simile di parole o piuttosto link di articoli pubblicati sempre dagli stessi media; allora probabilmente si tratta di un bot con l’obiettivo di aumentare l’interesse e le interazioni attorno a un dato tema. Un altro segnale è uno stile d’espressione innaturale o inabituale, magari con errori grammaticali. Solitamente i bot postano più di quanto non commentino i contenuti altrui.
  3. Quanto spesso l’account in questione condivide contenuti e mette “mi piace” a quelli altrui? Un ulteriore aiuto per determinare la natura di un account è la frequenza con la quale l’account è attivo sui social network. Un numero straordinario di post, like, retweet e quant’altro è chiaramente un segnale di comportamento innaturale come anche un certa ripetitività di post pubblicati giorno dopo giorno. Anche i tempi di reazione dell’account possono essere un indicatore: se dando un input in chat o commentando un suo post, l’account risponde sempre nel giro di pochi secondi, c’è qualcosa che non torna.
  4. Come reagisce l’account a domande marginali? Uno dei metodi più affidabili per lo smascheramento di un bot è quello di sottoporgli domande di contesto. Si tratta di domande magari più marginali e legate al contesto. Ad esempio qualcosa di superfluo come: “Come ti sembra l’immagine del profilo della persona che ha commentato prima di te in questo post?” e state a vedere cosa risponde.

Possiamo infine concludere con una nota di positività, perché il fenomeno dei bot e della manipolazione dei social  a scopi di disinformazione e/o propagandistici esiste ormai da tempo e le stesse piattaforme si stanno mettendo al lavoro per combattere la cosa, ma non bisogna abbassare la guardia, bisogna ricordarsi di verificare le fonti e di diffondere consapevolezza, affinché la rete non diventi un ambiente troppo tossico per l’informazione.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.