Disinformazione politica e intelligenza artificiale
Le elezioni in tutto il mondo si trovano ad affrontare una minaccia in continua evoluzione da parte di attori stranieri, che coinvolge l’intelligenza artificiale
I paesi che cercano di influenzarsi a vicenda le elezioni sono entrati in una nuova era nel 2016, quando i russi hanno lanciato una serie di campagne di disinformazione sui social media mirate alle elezioni presidenziali americane. Nel corso dei sette anni successivi, diversi paesi – in particolare Cina e Iran – hanno utilizzato i social media per influenzare le elezioni straniere, sia negli Stati Uniti che in altre parti del mondo. Non c’è motivo di aspettarsi che il 2023 e il 2024 siano diversi.
Ma c’è un nuovo elemento: l’intelligenza artificiale generativa e i grandi modelli linguistici. Questi hanno la capacità di produrre rapidamente e facilmente infinite risme di testo su qualsiasi argomento in qualsiasi tono e da qualsiasi prospettiva. Come esperto di sicurezza , credo che sia uno strumento particolarmente adatto alla propaganda dell’era di Internet.
Tutto questo è molto nuovo. ChatGPT è stato introdotto nel novembre 2022. Il più potente GPT-4 è stato rilasciato nel marzo 2023. Altre IA per la produzione di linguaggi e immagini hanno più o meno la stessa età. Non è chiaro come queste tecnologie cambieranno la disinformazione, quanto saranno efficaci o quali effetti avranno. Ma stiamo per scoprirlo.
La stagione elettorale entrerà presto nel suo pieno svolgimento in gran parte del mondo democratico. Il 71% delle persone che vivono nelle democrazie voteranno alle elezioni nazionali da qui alla fine del prossimo anno. Tra questi: Argentina e Polonia in ottobre, Taiwan in gennaio, Indonesia in febbraio, India in aprile, Unione Europea e Messico in giugno e Stati Uniti in novembre. Nove democrazie africane, incluso il Sud Africa, avranno elezioni nel 2024. Australia e Regno Unito non hanno date fisse, ma è probabile che le elezioni si svolgano nel 2024.
Molte di queste elezioni contano molto per i paesi che in passato hanno condotto operazioni di influenza sui social media. La Cina si preoccupa molto di Taiwan , dell’Indonesia , dell’India e di molti paesi africani . La Russia si preoccupa del Regno Unito, della Polonia, della Germania e dell’UE in generale . Tutti si preoccupano degli Stati Uniti.
E questo considerando solo i giocatori più grandi. Ogni elezione nazionale statunitense del 2016 ha portato con sé un ulteriore paese che tenta di influenzarne l’esito. Prima c’era solo la Russia, poi la Russia e la Cina, e più recentemente queste due più l’Iran. Man mano che il costo finanziario dell’influenza straniera diminuisce, più paesi possono entrare in azione. Strumenti come ChatGPT riducono significativamente il prezzo di produzione e distribuzione della propaganda, portando tale capacità nel budget di molti più paesi.
Un paio di mesi fa ho partecipato a una conferenza con i rappresentanti di tutte le agenzie di sicurezza informatica degli Stati Uniti. Hanno parlato delle loro aspettative riguardo alle interferenze elettorali nel 2024. Si aspettavano i soliti attori – Russia, Cina e Iran – e uno nuovo e significativo: “attori nazionali”. Questo è il risultato diretto di questa riduzione dei costi.
Naturalmente, condurre una campagna di disinformazione richiede molto di più che generare contenuti. La parte difficile è la distribuzione. Un propagandista ha bisogno di una serie di account falsi su cui postare contenuti e di altri per diffonderli nel mainstream e dove possono diventare virali. Aziende come Meta sono migliorate molto nell’identificare questi account e nel rimuoverli. Proprio il mese scorso, Meta ha annunciato di aver rimosso 7.704 account Facebook, 954 pagine Facebook, 15 gruppi Facebook e 15 account Instagram associati a una campagna di influenza cinese e identificato centinaia di altri account su TikTok, X (ex Twitter), LiveJournal e Blogspot. Ma si trattava di una campagna iniziata quattro anni fa, che produceva disinformazione pre-IA.
La disinformazione è una corsa agli armamenti. Sono migliorati sia gli attaccanti che i difensori, ma anche il mondo dei social è diverso. Quattro anni fa, Twitter era una linea diretta con i media e la propaganda su quella piattaforma era un modo per ribaltare la narrativa politica. Uno studio della Columbia Journalism Review ha scoperto che la maggior parte dei principali organi di informazione utilizzavano i tweet russi come fonti di opinioni di parte. Quel Twitter, con praticamente tutti i redattori di notizie che lo leggono e tutti coloro che postavano lì, non esiste più.
Molti mezzi di propaganda sono passati da Facebook a piattaforme di messaggistica come Telegram e WhatsApp, il che li rende più difficili da identificare e rimuovere. TikTok è una piattaforma più recente controllata dalla Cina e più adatta a video brevi e provocatori, che l’intelligenza artificiale rende molto più facile da produrre. E l’attuale raccolta di IA generative viene collegata a strumenti che renderanno più semplice anche la distribuzione dei contenuti.
Gli strumenti di intelligenza artificiale generativa consentono anche nuove tecniche di produzione e distribuzione, come la propaganda di basso livello su larga scala. Immaginate un nuovo account personale basato sull’intelligenza artificiale sui social media. Per la maggior parte si comporta normalmente. Pubblica post sulla sua finta vita quotidiana, si unisce a gruppi di interesse, commenta i post di altri e generalmente si comporta come un normale utente. E di tanto in tanto, non molto spesso, dice – o amplifica – qualcosa di politico. Questi robot persona , come li chiama l’informatico Latanya Sweeney, hanno di per sé un’influenza trascurabile. Ma replicati a migliaia o milioni, ne avrebbero molta di più.
Questo è solo uno scenario. È probabile che gli ufficiali militari in Russia, Cina e altrove responsabili dell’interferenza elettorale abbiano le loro persone migliori a pensare agli altri. E le loro tattiche saranno probabilmente molto più sofisticate rispetto al 2016.
Paesi come Russia e Cina hanno una storia di test sia sugli attacchi informatici che sulle operazioni di informazione sui paesi più piccoli prima di implementarli su larga scala. Quando ciò accade, è importante essere in grado di rilevare queste tattiche. Contrastare le nuove campagne di disinformazione richiede la capacità di riconoscerle e per riconoscerle è necessario cercarle e catalogarle adesso.
Nel mondo della sicurezza informatica, i ricercatori riconoscono che condividere i metodi di attacco e la loro efficacia è l’unico modo per costruire sistemi difensivi forti. Lo stesso ragionamento vale anche per queste campagne informative: quanto più i ricercatori studiano quali tecniche vengono impiegate in paesi lontani, tanto meglio potranno difendere i propri paesi.
È probabile che le campagne di disinformazione nell’era dell’intelligenza artificiale siano molto più sofisticate di quanto lo fossero nel 2016. Credo che gli Stati Uniti debbano impegnarsi per rilevare e identificare la propaganda prodotta dall’intelligenza artificiale a Taiwan, dove un candidato alla presidenza sostiene che una registrazione audio deepfake sia stata usata per diffamarlo e in altri posti. Altrimenti non li vedremo quando arriveranno qui. Sfortunatamente, i ricercatori vengono invece presi di mira e vessati .
Forse andrà tutto bene. Ci sono state alcune importanti elezioni democratiche nell’era dell’intelligenza artificiale generativa senza problemi significativi di disinformazione: primarie in Argentina, elezioni al primo turno in Ecuador ed elezioni nazionali in Tailandia, Turchia, Spagna e Grecia. Ma prima sappiamo cosa aspettarci, meglio possiamo affrontare ciò che verrà.
Articolo tradotto da: https://www.schneier.com/