Categorie: Editorial
Tipo di Contenuto: Algocrazia | democrazia
Tempo di lettura: 9 minuti
Il colloquio tra il politologo Ian Bremmer, preoccupato per i danni che le tecnologie digitali stanno provocando all’umanità, e il frate francescano Paolo Benanti, docente di etica dell’intelligenza artificiale, preoccupato per la destabilizzazione della società

Un politologo analista dei rischi internazionali preoccupato soprattutto per i danni che le tecnologie digitali, potenziate dall’intelligenza artificiale generativa, stanno provocando alla democrazia e all’umanità: l’uomo, animale sociale in difficoltà, sempre meno capace di interagire col prossimo e di capirlo «in un mondo della comunicazione digitale nel quale l’odio attira più del sesso» mentre «i giovani diventano spesso celibi involontari». E il francescano accademico della Pontificia Università Gregoriana, docente di bioetica e algoretica (etica degli algoritmi), consigliere di Papa Francesco per le questioni morali legate alla tecnologia, allarmato dall’impatto di un’intelligenza artificiale senza regole non per la possibile distruzione del genere umano, temuta da alcuni scienziati nel lungo periodo, ma perché, ben prima, può distruggere ciò che rimane del ceto medio con l’automazione estesa alle professioni intellettuali. Con rischi di destabilizzazione ulteriore delle società e delle democrazie, se non si interviene.
Ian Bremmer a New York, subito dopo avere registrato una Ted Conference sul nuovo ordine politico e digitale mondiale, e padre Paolo Benanti, appena arrivato a Londra, invitato a Westminster, accettano di confrontarsi sulle pagine e sui media audiovisivi di «Lettura» e «Corriere» su opportunità e rischi della rivoluzione dell’intelligenza artificiale: un botta e risposta intenso e a tratti sorprendente.

Ci sono voluti diversi anni per capire che le reti sociali stavano avendo effetti destabilizzanti per le democrazie con l’applicazione indiscriminata ai sistemi elettorali e all’informazione degli algoritmi commerciali più estremi. Ora, con l’intelligenza artificiale (Ai nell’acronimo inglese ormai adottato ovunque) di ChatGPT e dei suoi successori già in cantiere, siamo a un salto di qualità che sarà fonte di progresso nell’industria, nella sanità e in altri campi ma, applicato alla politica, può mettere a disposizione dei candidati più spregiudicati straordinarie macchine elettorali robotizzate. È accettabile?

PAOLO BENANTI — Sappiamo che tutti i dati e i parametri raccolti da Twitter possono diventare il migliore consulente per le prossime elezioni. Sappiamo che Elon Musk ha una tendenza politica dichiarata e pensa di trasformare tutti i dati in possesso della sua rete in qualcosa che potrebbe diventare il GPT perfetto per la discussione politica pubblica. Se sei così sofisticato da poter creare un vestito su misura per un singolo candidato, hai costruito l’agente perfetto per la propaganda politica. Ora, per essere onesto, devo dire che la propaganda è stata inventata dalla Chiesa cattolica. È avvenuto molto tempo fa, con la Propaganda Fide che aveva l’obiettivo di diffondere il Vangelo in tutto il mondo. Con Musk il problema principale sta nel nome dato all’intelligenza artificiale che sta costruendo: TruthGPT, cioè verità. Una verità da ricercare o già data? In un sistema democratico la verità la cerchi nel confronto, nel pensiero critico. Se è già data, stanno solo cercando di convincerci di cose decise altrove? Mancano regole, non ci sono guard rail. È molto pericoloso: la storia ci dice che la democrazia ha aspetti fragili, facilmente hackerabili.
IAN BREMMER — Condivido l’allarme sulla traiettoria della democrazia. Vivo in un Paese, gli Stati Uniti, in cui ogni settimana e a volte ogni giorno assistiamo ad attività che devastano il sistema politico ed erodono le istituzioni. Cose senza precedenti. E non viene messo in campo alcun contrappeso a tale forza distruttrice. Questa fragilità dei sistemi democratici deriva in gran parte dal ruolo deleterio giocato prima dalle tv via cavo, poi dalle reti sociali e ora da Ai, algoritmi e bot. Gran parte degli umani non consuma più verità, né la cerca: assorbe ciò che gli viene algoritmicamente somministrato. Sono predisposti ad accettare solo cose in linea con il loro credo politico. Questa non è democrazia, è l’antitesi. La democrazia non sopravvive quando i cittadini non riescono ad avere una visione comune nemmeno della natura della verità politica: sfortunatamente il pezzo più importante dell’intelligenza artificiale è la capacità di amplificare questo fenomeno disgregante. Tecnologi e imprese non hanno interesse a correggerlo perché sono queste distorsioni a generare profitti.

Lei, però, sostiene che per i politici è difficile regolamentare ciò che non conoscono e la tecnologia dell’Ai evolve a gran velocità. Riusciremo? Siamo ancora in tempo, visti i danni già fatti, nel web come in tv? Pensiamo a come, giorni fa, la Fox sottotitolava le immagini del presidente Biden…

IAN BREMMER — Wanna be dictator, aspirante dittatore (che ha appena ottenuto l’arresto del suo avversario politico). Messaggio di disinformazione televisiva, ma in tv è durato pochi secondi mentre in rete l’effetto è permanente e amplificato: i social media non badavano a cosa stava dicendo Biden, il driver era quella riga di disinformazione, di incitamento all’odio. Online, ormai, l’odio rende più del sesso. Sulle regole, comunque, qualcosa si muove. Il segretario generale dell’Onu, un mio amico, ha appena promosso un panel internazionale sull’Ai. Sei mesi fa nessuno dei governanti che incontro nei miei viaggi parlava di Ai, ora è ovunque. Tutti chiedono regole, ma non sarà facile. I tecnologi — invocano regole anche loro — in realtà spendono il 99 per cento del tempo e delle risorse a cercare il primato, combattono uno con l’altro, con i cinesi, con Elon: è la loro natura. Per almeno due-tre anni avremo un dibattito dominato dalla logica delle tech company. Insomma, tempi lunghi come per i mutamenti climatici, una battaglia iniziata trent’anni fa. Solo che con l’Ai quelle che gli economisti chiamano esternalità negative si manifestano tutte insieme e molto rapidamente.

 

A volte sembra di essere fuori tempo massimo. Giorni fa abbiamo chiesto a diversi manifestanti che protestavano davanti al tribunale di Miami contro l’incriminazione di Trump, se avevano letto l’atto giudiziario con le accuse e le prove. Con rare eccezioni la risposta è stata «no perché quelle carte vengono dal “deep State”: sono false per definizione».

PAOLO BENANTI — Il Parlamento europeo ha appena approvato il suo Ai Act: vorrei, allora, provare a esprimere speranza, visto l’abito che indosso. Per prima cosa, però, dobbiamo chiederci verso quale modello di regole vogliamo andare. E qui il problema non è l’Ai in quanto tale: se parliamo, ad esempio, di image recognition utilizzata per esaminare i chicchi di caffè ed eliminare quelli con muffa, va tutto bene. Il problema sorge quando l’automazione viene trasferita dall’industria alle relazioni sociali. Per anni abbiamo già trasformato il patto sociale in denaro. Credo che, trovando un consenso su parametri di riferimento basati su pericoli e rischi come si è fatto a suo tempo per gli esplosivi — regole per produrli, venderli, trasportarli, usarli — potremmo riuscire a evitare lo scontro frontale con i giganti tecnologici proteggendo, al tempo stesso, i deboli, soprattutto giovani e anziani. L’Unione Europea ha in parte seguito questa strada. Comunque abbiamo bisogno di intelligenza artificiale, anche nel confronto con la Cina: o diventiamo come i cinesi e cominciamo a lavorare come loro o ci serve l’aumento di produttività che verrà dall’Ai. Dobbiamo, quindi, consentire alle società tecnologiche di investire, sviluppare, ma loro devono capire quali sono i limiti: una cosa è creare una specie di copilota che ti aiuta quando scrivi un documento in Word, cosa ben diversa è sviluppare un bot che fa ricerche al tuo posto e continua a parlarti fino a quando dici: «Sì, hai ragione». Questo è altro: è l’automazione dell’opinione pubblica. E l’opinione pubblica non è come il petrolio o le altre risorse naturali che possono essere trasformate per trarne un guadagno monetario. Qui ci sono anche conflitti di culture come le differenze tra armi ed alcol in Europa e negli Usa. L’America ha un magnifico controllo per l’alcol, molto più debole sulle armi. Quando ero studente alla Georgetown University ero sorpreso: potevo armarmi ma non potevo bere una birra. Insomma, l’America deve decidere se l’intelligenza artificiale è più simile a un’arma o a una birra.

IAN BREMMER — Secondo me l’Ai è un’arma che maneggi mentre stai bevendo un paio di birre.

Non è difficile solo trovare regole equilibrate. Vanno anche fatte rispettare da tutti per evitare che chi accetta limiti resti indietro nella tecnologia. Usa e Cina sono impegnati in una sfida tecnologica estrema. Sono possibili regole minime comuni almeno per definire il perimetro di questa sfida?

IAN BREMMER — Non ancora. La Cina ha 400 testate nucleari e la Russia le sta fornendo uranio arricchito a gran ritmo: così Pechino schiererà entro dieci anni 1.500 nuove testate. Non è un quadro promettente. Siamo lontani da accordi Usa-Cina sull’Ai. Per di più lo stop all’export di semiconduttori avanzati americani verso la Cina fa infuriare Pechino: ha bisogno dei microchip per fare progredire la sua intelligenza artificiale. Ma ci sono altre cose fattibili. L’annuncio del Parlamento europeo del quale parlava Paolo è un segnale. Ma bisogna anche capire che ormai l’Ai è una tecnologia molto democratizzata: hai ChatGPT4 e hai anche GPT 3.5 che viene attivato dai laptop individuali di tutti noi senza restrizioni. Puoi usarlo per produrre codici per spear phishing (un tipo di truffa elettronica, ndr) contro un certo individuo o programmare un piccolo drone autonomo da usare contro qualcuno: nessun divieto. Insomma, oltre a quello della regolamentazione, c’è anche un problema di proliferazione: tecnologie che saranno nelle mani di milioni di persone. Ottimo per la produttività, orribile per la sicurezza.

Dalla geopolitica all’etica e alla religione. Si moltiplicano gli allarmi degli scienziati che temono l’estinzione del genere umano, mentre in Silicon Valley riprende quota la teoria della Singularity: macchine più potenti dell’intelligenza umana che allungheranno le nostre vite fino a farci sfiorare la trascendenza: cosa accadrà alle religioni? 

PAOLO BENANTI — Quando parliamo di credenti, beh, siamo tutti credenti. Se ti chiedo: siamo fatti di atomi? Tu mi risponderai di sì, ma non li hai mai visti. Ti fidi di una fonte che consideri credibile. Quando ottomila anni fa un agricoltore, dalle parti dell’Iran, scambiò un sacchetto di grano con del metallo, sapeva che il grano gli dava da mangiare, ma non era sicuro che anche quel metallo gli avrebbe procurato qualcosa di commestibile. Perché lo fece? Si fidò del volto del re impresso su quella moneta. A differenza degli animali, guidati solo da istinti, noi abbiamo relazioni e processi che ci portano a credere in certe cose. E la religione è un credo che riguarda i fini ultimi. Oggi tutto il processo del credere è in discussione, non solo la fede. Puoi avere perfino un approccio religioso all’Ai. Uno dei primi frammenti della filosofia occidentale ci viene da Eraclito: ci dice che il dio che è a Delfi non parla, non tace, ma dà un significato al mondo. Molti, quando consultano Google, hanno un approccio oracolare ai dati. L’intelligenza artificiale è l’oracolo perfetto. Ora, quando noi abbiamo abbandonato questa mitologia, abbiamo introdotto la ragione e la filosofia. Se le eliminiamo, rimane solo un sistema di credenze e si verificano cose come quella che abbiamo raccontato a proposito delle proteste per Trump. Questa potente macchina è il perfetto dio sulla Terra. O, meglio, molti dei per molte funzioni. Invece del monte Olimpo abbiamo il display dello smartphone: non abbiamo più il dio dell’amore ma abbiamo Tinder, non un dio del mercato ma c’è Amazon. E questa sorta di relazione religiosa ci porta a non verificare la realtà dei fatti. Insomma, siamo guidati dalle macchine perché ci lasciamo guidare. E, per essere franco, io sono spaventato più dalla fine di ciò che resta del ceto medio che dalle previsioni di sterminio dell’umanità. Oggi è più facile automatizzare alcune funzioni più elevate che non quelle di livello inferiore. In rete un calcolatore a energia solare in grado di fare operazioni complesse costa meno di un dollaro. Se vuoi un braccio meccanico per aprire una porta devi spenderne almeno 250 mila.

IAN BREMMER — D’accordo sul problema sociale del lavoro. Ma credo ci sia una questione ancora più essenziale sulle interazioni umane. Il rapporto con figli, animali domestici, amici, non può essere affidato all’Ai. Ma gli esseri umani ormai vivono sempre più come se fossero algoritmi: l’intelligenza artificiale comincerà a sostituire l’umanità di queste relazioni. In un mondo intermediato da algoritmi, interpretato attraverso sensori e sorvegliato con i dati, l’Ai arriva ovunque. È la questione che mi preoccupa di più. Se avessi il potere di cambiare una sola cosa, vieterei ai minori di 16 anni di avvicinarsi a questi apparecchi. Per non parlare della pornografia alla quale sono esposti i bambini. Stiamo vedendo disfunzioni di ogni tipo, dall’autolesionismo al movimento incel, i celibi involontari.
PAOLO BENANTI — Ora provate a pensare cosa accadrebbe usando i dati raccolti da PornHub per l’addestramento emotivo di un’intelligenza artificiale: una bomba sociale. Una cosa che mi sorprende è che uno dei business più redditizi di PornHub è vendere i big data che raccolgono.
IAN BREMMER — È il contrario di quello che serve per restare essere umani.
IAN BREMMER — È il contrario di quello che serve per restare essere umani.
PAOLO BENANTI — Speriamo di non avere dato idee ai bad guy.
IAN BREMMER — Stanno già lavorando per fare di tutto questo un prodotto, stai certo. Vorrei toccare un altro punto. Quando parli di Usa e Cina, ovviamente parli anche di armi: e qui si diffonde l’idea che non solo gli esseri umani, ma soprattutto i soldati devono essere programmati: uccidere può provocare umana repulsione e allora vanno deumanizzati per combattere con più efficacia. Insomma: sessualità, commercio e guerra sono i driver fondamentali che rendono redditizia l’Ai.
PAOLO BENANTI — Beh, certo: la costruzione del nemico è un elemento centrale della società, da Sigmund Freud a eros e thanatos, amore e morte.

Straordinario sentire un esperto di geopolitica infervorarsi sugli effetti deleteri della pornografia e sui «celibi involontari» mentre padre Benanti va su «eros e thanatos». Chiudiamo sulle denunce degli scienziati che temono per il futuro dell’umanità. Lo stesso Joe Biden, nel discorso all’Accademia dell’Air Force passato alle cronache solo per la sua caduta sul palco, ha detto di temere che l’Ai possa un giorno superare le capacità del pensiero umano.

IAN BREMMER — I rischi per il futuro dell’umanità non vengono da errori dell’Ai: sono errori dell’uomo nell’uso dell’Ai. Ormai hai non cento ma milioni di persone che possono programmare un pezzo di malware, sviluppare un nuovo virus del vaiolo, promuovere disinformazione e renderla globale per minare un’elezione o un mercato: non è sostenibile. Sul piano economico sono ottimista: vedo grandi guadagni di produttività, ma temo anche rischi esistenziali. Comincio a pensare che non moriremo di vecchiaia naturale: impareremo a scardinare i meccanismi dell’invecchiamento grazie all’Ai allungando di molto la nostra vita biologica oppure commetteremo errori che ci faranno sparire dalla faccia della Terra.
PAOLO BENANTI — Credo, per concludere, che, più del potere dell’intelligenza artificiale, quella che dobbiamo temere è la creazione di un’altra forma di intelligenza, diversa da quella umana. Per noi la regola è avere un corpo e un’intelligenza. Con i robot abbiamo visto che possiamo avere un’attività a sciame, e uno sciame di intelligenze. È diverso da ciò a cui siamo abituati. E anche pericoloso: non possiamo capire né abbiamo le categorie per dire se è giusto o no. Potremmo trovare qualcosa di intelligente, capace di raggiungere un fine in un modo diverso dal metodo umano.

 

di Massimo Gaggi