Il mondo dell’analisi dei dati ha fatto progressi a passi da gigante. Non in complessità matematica quanto nella quantità di dati che si possono digerire: ogni frammento della sfera digitale oggi è viene assorbito e digerito. E se i pubblicitari usano i dati per vendere, i political strategist li hanno usati per riscrivere le regole dell’interazione sociale.
Due esempi, la Brexit e l’elezione di Donald Trump, hanno mostrato le profonde implicazioni che l’intersezione tra intelligenza artificiale, social media e politica può comportare.
Per cominciare, il caso della Brexit. La decisione del Regno Unito di uscire dall’Unione Europea è stato un evento politico ed economico con ripercussioni globali. Potrebbe sembrare che il voto sia stato semplicemente un’espressione democratica della volontà del popolo britannico. Tuttavia, lo sfruttamento dei dati prodotti dalle piattaforme di social media in questa saga è un fattore che non può essere sottovalutato.
Gli algoritmi usati per influenzare l’elettorato erano il prodotto di un campo specializzato che combinava l’informatica con la psicologia, l’economia e la sociologia. Utilizzando queste informazioni, come vantava orgogliosamente Cambridge Analytica (una “agenzia globale di gestione delle elezioni”), i politici sono stati in grado di bombardare gli utenti con contenuti personalizzati che sfruttavano le loro paure, aspirazioni e pregiudizi.
Benvenute Fake News: narrazioni distorte o totalmente false sull’Unione Europea, progettate per alimentare lo scetticismo verso l’Europa. Messaggi progettati per risuonare con le opinioni e le paure esistenti degli individui, rendendoli più inclini a votare per l’uscita dall’Unione.
Tattiche simili sono state usate anche durante le elezioni presidenziali degli Stati Uniti nel 2016—quelle che hanno portato alla vittoria di Donald Trump. Qui, la trama si è complicata con il presunto coinvolgimento di potenze straniere (una sola in realtà…). Sono state fatte accuse su un esercito di bot (da robot) sui social media, creati e controllati da entità straniere, progettati per invadere le piattaforme di social media americane con propaganda e disinformazione. Bot che hanno sfruttato le divisioni nella società americana, seminando confusione, discordia e diffidenza.
Questi casi servono come avvertimento sul potenziale abuso dell’intelligenza artificiale e dei social media in contesti politici, ed evidenziano un pericolo che incombe sul nostro futuro: la prospettiva di un agente di intelligenza artificiale con la capacità di influenzare ogni singolo elettore individualmente. Immaginate un software così avanzato che potrebbe elaborare l’argomentazione perfetta per persuadere ogni singolo elettore. Questa entità potrebbe manipolare gli elettori a far vincere un candidato non in base alle sue politiche o meriti, ma in base alla sua capacità di far leva su paure e desideri.
Questo solleva lo spettro di una potenziale figura di “uomo (o donna!) forte”, che ricorda i passati dittatori fascisti come Mussolini o Hitler. Un individuo del genere potrebbe potenzialmente sfruttare questa capacità dell’Intelligenza Artificiale per manipolare l’opinione pubblica su una scala senza precedenti. Potrebbe piegare la volontà delle masse a suo piacimento, minando le basi stesse della presa di decisioni democratica. In sostanza, la democrazia potrebbe essere sequestrata da uno strumento di intelligenza artificiale potente e dai suoi gestori senza scrupoli.
L’idea di un’Intelligenza Artificiale manipolatrice non è più meramente speculativa. I progressi tecnologici che stiamo osservando e gli esempi esistenti del ruolo della tecnologia nella manipolazione dell’opinione pubblica ne fanno una possibilità che non possiamo permetterci di ignorare.
Mentre il World Wide Web ha promesso cittadini più informati e impegnati, il suo connubio con l’Intelligenza Artificiale e il capitalismo libertario ha dato vita a un Cerbero a tre teste che potrebbe portare la nostra società globale verso una società distopica in cui una macchina non senziente (scusa Google Bart) sarà il controllore ultimo.
Di fronte a tali minacce, è fondamentale coltivare un ecosistema digitale che difenda la verità, la trasparenza e l’integrità—la “trustworthy Artificial Intelligence“, o Intelligenza Artificiale degna di fiducia. Ciò include regolamentazioni sull’uso dei dati personali, meccanismi rigorosi di verifica dei fatti per contrastare la disinformazione e l’educazione pubblica sulla cultura digitale. I progressi tecnologici nell’Intelligenza Artificiale devono essere accompagnati da pari progressi nelle linee guida etiche e nei meccanismi di responsabilità per prevenire un uso improprio.
La rivoluzione digitale, che è iniziata più di 50 anni fa con la creazione di una rete di computer, Internet, ha ancora un enorme potenziale per migliorare i processi democratici. Tuttavia, senza controlli e bilanci adeguati, questi stessi strumenti possono diventare minacce per gli stessi ideali che promettono di sostenere. Mentre ci spingiamo sempre più in questa nuova frontiera, la nostra sfida consiste nel sfruttare il potere di queste tecnologie preservando i principi della democrazia.
Questa non è solo responsabilità dei decisori politici: prima di tutto, è responsabilità delle persone, come noi, che stanno sviluppando prodotti basati sull’Intelligenza Artificiale.