Categorie: Editorial
Tipo di Contenuto:
Tempo di lettura: 3 minuti

Un paio di settimane fa, una versione invernale della città di Cannes ha accolto la terza edizione del World AI Cannes Festival, un evento interessante con un gran numero di ospiti, big tech, startup, investitori, VC, importanti relatori e persone delle istituzioni. Da un lato, possiamo confermare che il panorama dell’AI è vivo e fiorente. Stanno nascendo nuove imprese in ogni campo, che promettono di utilizzare l’IA per migliorare le funzioni e le operazioni tradizionali. Alcune di queste sono interessanti e utili, mentre altre sembrano un po’ troppo poco per essere prese in considerazione. In quest’ultima categoria, possiamo citare un’app guidata dall’AI che mira a rilevare le anomalie della pelle e l’acne, per insegnare all’utente come migliorarla. Un altro esempio è una versione della Gioconda che segue il visitatore con gli occhi.

Inoltre, i corner più evidenti sono stati quelli con aziende con prototipi robotici, ribadendo l’errato parallelismo tra automi senzienti e Intelligenza Artificiale. D’altra parte, molte aziende mantengono ciò che promettono in un modo che può risultare oscuro per il grande pubblico ma estremamente utile per gli addetti ai lavori. Ad esempio, abbiamo avuto modo di discutere con un’azienda in grado di generare dati sintetici (non personali) per addestrare LLM e altri modelli di IA.

Un altro aspetto interessante è stata la grande partecipazione di enti e istituzioni pubbliche italiane (in particolare i corner delle regioni Veneto, Trentino e Friuli erano pieni di persone e startup).

Parallelamente, abbiamo avuto la possibilità di essere coinvolti nel dibattito sull’etica dell’IA e sulle pratiche di IA responsabile, non solo come opzione a sé stante per migliorare la reputazione aziendale e la comunicazione verso l’uso delle nuove tecnologie, ma anche come modo pratico per iniziare a strutturare il percorso di conformità dell’AI Act e delle altre legislazioni sull’IA in tutto il mondo.

Personalmente, ho avuto anche la possibilità di dibattere diversi temi interessanti moderando un panel d’eccezione: Massimo Chiriatti (CTO Lenovo), Enrico Panai (AI Ethicist) e Barbara Carfagna (Giornalista TV RAI). Uno dei temi più sentiti è l’uso dei watermark contro i contenuti falsi dell’AI generativa. In particolare, molte delle principali emittenti di Stato stanno valutando la possibilità di implementare un meccanismo tecnico per certificare la “realtà” o “verità” dei propri contenuti, utilizzando una certificazione dei metadati sul dispositivo di acquisizione. Questo tipo di nuova tecnologia solleva molteplici problematiche, a partire dalla raccolta di nuovi e ulteriori dati personali, che possono rappresentare una minaccia per l’operatore tecnico (ad esempio in un’indagine giornalistica di guerra o sulla criminalità organizzata).

Ciò che emerge dalla due giorni di Cannes è che anche l’UE ha qualcosa da dire in questa corsa alla tecnologia, non solo sul piano normativo. Al contrario, l’importanza e la rilevanza centrale dell’AI Act sono ancora ai primi passi. Infatti, dalla maggior parte delle conversazioni è emersa una confusione generale e diffusa su come navigare la complessità dell’IA nel mondo normativo, in particolare in relazione ad altri corpi normativi (come la protezione dei dati o i servizi digitali).

Considerando che la confusione e la ricerca di chiarezza stanno ancora caratterizzando il lato tecnologico dell’ondata di IA, è del tutto normale che lo stesso sentimento sia abbastanza comune anche nell’ambiente normativo. Tuttavia, non sarà il tempo, ma le azioni degli attori coinvolti a plasmare e consolidare il panorama. Per questo motivo è importante, e sarà strategicamente premiato, anticipare i tempi e agire ben prima della piena entrata in vigore della legge sull’IA e delle norme connesse.

Di Federico Sartore
Partner PANETTA Studio Legale – Co-Founder DEXAI