Categorie: Editorial
Tipo di Contenuto:
Tempo di lettura: 3 minuti

L’imprenditore insieme a un gruppo di accademici chiede una moratoria di sei mesi all’addestramento delle Intelligenze artificiali. Talia, docente all’Università della Calabria, tra i firmatari italiani: “Potrebbe sfuggire dal controllo dei suoi creatori”

 

Fermare l’addestramento delle intelligenze artificiali. Pena, andare incontro nel breve periodo a sconvolgimenti economici e politici di vaste proporzioni. Elon Musk e altri imprenditori e accademici da ogni angolo del mondo hanno firmato un appello alle aziende e ai governi.Una lettera in cui si chiede una moratoria di sei mesi allo sviluppo di Ai generative come ChatGpt. In particolare, la lettera chiede lo stop all’addestramento di Gpt-4, il modello di OpenAI lanciato a metà marzo, evocando “grandi rischi per l’umanità”. I sei mesi dovrebbero essere utilizzati per sviluppare protocolli di sicurezza, sistemi di governance dell’AI e riorientare la ricerca per garantire che i sistemi di intelligenza artificiale siano più “accurati, sicuri e affidabili”.

L’esperto: “L’innovazione non si può fermare, ma questo è un caso eccezionale”

La lettera è indirizzata ai governi. Ma soprattutto alle aziende che in questi mesi hanno cominciato una gara in velocità allo sviluppo di queste tecnologie. Tra i firmatari c’è anche un italiano. Domenico Talia, professore di Ingegneria informatica all’Università della Calabria: “Sappiamo che l’innovazione non si può fermare, ma questo è un caso eccezionale. Quello che sono in grado di fare queste tecnologie non è chiaro nemmeno a chi le crea. Sta succedendo tutto troppo in fretta. Tra pochi mesi potrebbe essere già pronta una Gpt-5. Ancora più potente. Queste tecnologie sono destinate a cambiare tutto. Cambieranno il lavoro di milioni di persone. Centinaia di milioni di persone. Soprattutto lavori intellettuali”, dice il docente a Italian Tech.

In questa petizione, pubblicata sul sito Futureoflife.org, imprenditori e accademici chiedono una moratoria fino alla creazione di sistemi di sicurezza. Servono nuove autorità di regolamentazione; serve monitorare i sistemi di intelligenza artificiale; sviluppare tecniche per aiutare a distinguere il reale dall’artificiale e istituzioni in grado di gestire i “drammatici sconvolgimenti economici e politici (in particolare per la democrazia) che l’IA causerà”. La petizione riunisce personalità che hanno già espresso pubblicamente le loro paure nei confronti di IA incontrollabili che supererebbero l’essere umano.

 

L’allarme di Musk e Altman, creatore di ChatGpt

Tra questi Elon Musk, proprietario di Twitter e fondatore di SpaceX e Tesla, e Yuval Noah Harari, l’autore del best seller “Sapiens”. Il capo di OpenAI, Sam Altman, ha ammesso di essere “un po ‘spaventato” dalla sua creazione se utilizzata per “disinformazione su larga scala o attacchi informatici”. “La società ha bisogno di tempo per adattarsi“, ha detto ad ABCNews a metà marzo. “Negli ultimi mesi, i laboratori di intelligenza artificiale si sono bloccati in una corsa incontrollata per sviluppare e implementare cervelli digitali sempre più potenti, che nessuno – nemmeno i loro creatori – può capire, prevedere o controllare in modo affidabile”.

È proprio il tempo la questione chiave. Le società dietro lo sviluppo di queste tecnologie rispondono alle logiche del mercato: chi prima arriva vince. E vince di più se arriva col prodotto migliore. Ma è proprio questa legge, che finora ha governato decenni di sviluppo tecnologico, a spaventare. Ragiona Talia: “Il problema è che le grandi società private hanno interessi solo a Wall Street. È a loro che ci rivolgiamo. Il nostro appello non arriva solo da accademici, ma anche da imprenditori come loro”.

 

Le società che sviluppano queste tecnologie rispondono solo a Wall Street

I firmatari includono anche il co-fondatore di Apple Steve Wozniak, membri del laboratorio di intelligenza artificiale di Google DeepMind, il CEO di Stability AI Emad Mostaque, concorrente di OpenAI, nonché esperti di IA e accademici statunitensi, ingegneri senior di Microsoft, gruppo alleato di OpenAI.

Rischi condivisi da Talia. “Che questi strumenti vadano fuori controllo. Che non si capisca perché fanno determinate cose. Sono chatbot che rispondono direttamente dai motori di ricerca. Sono alimentati da miliardi di parametri, ma chi ha il controllo sulle risposte? Chi può evitare che diffondano disinformazione? Magari in comunità particolarmente sensibilI?”. Alla base, la cosa che più spaventa è che ChatGpt e gli altri chatbot dialogano direttamente con le persone. In modo diretto. Senza controllo. E senza principi etici. Gli effetti, quando avrà potenzialità ancora superiori, potrebbero essere devastanti. Si tratta di mesi. Forse di settimane.

di

Fonte: https://www.repubblica.it/tecnologia/2023/03/29/news/musk_stop_sviluppo_chatgpt_rischi_umanita-394154071/