Categorie: Editorial
Tipo di Contenuto:
Tempo di lettura: 3 minuti

Le nuove tecnologie basate sull’intelligenza artificiale stanno cambiando il mondo e allo stesso tempo i rischi per la sicurezza, ma introducono anche un elemento di proattività nella difesa cyber verso le nuove minacce. Serve, però, un salto di qualità e una combinazione di approcci tecnici e strategici. Ecco perché

Le nuove tecniche di AI introducono sicuramente un elemento di proattività nella difesa verso le nuove minacce ma divengono anche uno strumento portentoso per la creazione di algoritmi malevoli che incrementano la capacità degli attaccanti di sfuggire ai sistemi di rilevazione tradizionali.

Le minacce divengono, in questo modo, sempre più sofisticate proprio per la facilità di accesso a strumenti e metodologie impensabili fino a poco tempo fa.

Intelligenza artificiale e nuovi rischi cyber: il caso ChatGPT

Abbiamo visto in questi giorni, da numerosi articoli, come anche tramite l’uso di ChatGPT un professionista possa essere assistito nello sviluppare linee di codice dannoso producendo una minaccia “Zeroday” (minaccia mai vista in precedenza per cui non è ancora disponibile una protezione specifica).

La difesa contro le nuove tecniche di attacco basate sull’intelligenza artificiale richiede un salto di qualità e una combinazione di approcci tecnici e strategici. Ne è un esempio l’utilizzo di approcci “Zero Trust” (non fidarsi mai, verificare sempre) i quali sono indispensabili per fronteggiare le nuove minacce. Tale approccio deve essere sempre applicato a 360° (per le identità, per gli accessi ai sistemi, per i contenuti).

Basti pensare ai file scambiati su ambienti ibridi dove non basta una classica verifica basata su signature ma occorre appunto un approccio che consenta di verificare minacce zero day (e quindi non ancora conosciute) andando ad applicare tecniche evolute come la CDR (Content Disarm and Reconstruction) di Forcepoint insieme a soluzioni di Data Loss Prevention .

Allo stesso modo il Secure Access Service Edge (SASE) è un componente fondamentale di una architettura Zero Trust che protegge gli elementi applicativi e i dati all’interno e all’esterno di un confine di rete tradizionale anche oltre il cloud. Anche qui la verifica continua è l’unica soluzione per fronteggiare minacce evolute non conosciute.

Intelligenza artificiale alleata della cyber security

Vediamo ora l’altra faccia della medaglia ossia come l’intelligenza artificiale giochi un ruolo sempre più importante nel settore della cyber security poiché è oramai essenziale nella prevenzione degli attacchi, soprattutto se utilizzata nei processi di monitoraggio e nelle procedure di analisi dettagliate. Gli algoritmi di detection basati sull’AI sono uno strumento indispensabile per permettere di scovare anomalie all’interno di tutti i dati raccolti ed esaminati, ma anche di monitorare l’installazione di software scaricati da Internet.

L’utilizzo di tecniche di intelligenza artificiale e il deep machine learning non sono termini nuovi nel panorama della cyber security e da alcuni anni queste tecniche sono utilizzate per il riconoscimento di criticità all’interno dei sistemi. Il loro obiettivo è quello di identificare attacchi, aumentando la protezione e agendo in maniera proattiva.

Sfruttando l’intero ecosistema di sorgenti aziendali, permettono di analizzare un’enorme quantità di dati, compresi quelli non strutturati, al fine di avere una visione completa delle interazioni tra gli utenti. In questo modo è possibile “anticipare” il rilevamento di una minaccia, identificando un comportamento che differisce da quello che è ritenuto “normale” e innescando un’azione immediata di verifica.

AI e difesa proattiva: quali soluzioni

L’utilizzo di tali modelli di analisi evoluti presuppone una grande competenza al fine di minimizzare quanto più possibile i falsi positivi che potrebbero rendere inefficace il modello e far perdere fiducia negli utenti che sono spesso impegnati a fronteggiare allarmi ed incidenti fittizi.

Modelli di analisi comportamentale possono fornire una baseline di partenza per la creazione di un profilo utente che varia al variare del comportamento sui dati e sulle applicazioni. Il modello Forcepoint interagisce con le applicazioni di sicurezza andando a definire un livello di rischio che con la sua variazione determina l’applicazione della policy di sicurezza applicata al binomio dato/utente.

L’apporto dell’intelligenza artificiale aiuta nella determinazione del modello comportamentale e nella creazione delle suddette base line.

Lutech è da anni impegnata nello studio di tecniche basate su Intelligenza Artificiale e la loro applicazione all’interno di progetti specifici. L’affinamento di tali competenze e la contaminazione con la cyber security è un elemento fondamentale che la pone come un attore determinante per guidare progetti e servizi per proteggere le aziende da rischi e minacce conosciute e non realizzate attraverso tecniche evolute come, ad esempio, l’utilizzo di modelli e piattaforme avanzate UEBA (User and Entity Behavior Analytics).

Lutech realizza soluzioni di difesa avanzata per i propri clienti sia on premise, sia come servizio coordinato tramite il proprio SOC che gestisce al momento la sicurezza di centinaia di clienti 24 ore al giorno. È Forcepoint che mette a disposizione dei propri clienti e partner la tecnologia di User behavior analytics soprattutto in un ambito di protezione del dato che oggi sempre più ricopre un ruolo importante per le aziende che ne usufruiscono ma anche per l’attaccante come mezzo di ricatto.

Contributo editoriale sviluppato in collaborazione con Lutech e Forcepoint

Alessandro Gioso
Channel Account Manager di Forcepoint
Roberto Marzocca
Offering Leader Cybersecurity Gruppo Lutech
Fonte: https://www.cybersecurity360.it/soluzioni-aziendali/l-intelligenza-artificiale-ed-il-suo-nuovo-ruolo-nella-cybersecurity/