Categorie: Editorial
Tipo di Contenuto: ai | intelligenza artificiale | medicina | NetGPT
Tempo di lettura: 4 minuti

Gli enormi modelli di linguaggio (LLM) hanno avuto un successo straordinario nell’arricchire la vita quotidiana con informazioni generative. La personalizzazione di questi modelli può ulteriormente contribuire alle loro applicazioni grazie a un migliore allineamento con le intenzioni umane. In questo contesto, nasce NetGPT, un’architettura di rete Native-AI che va oltre la fornitura di servizi generativi personalizzati.

L’apprendimento profondo ha rivoluzionato il modo in cui interagiamo con la tecnologia. AlphaGo, sviluppato da DeepMind e diventato famoso nel 2016, ha dimostrato il potenziale dell’IA nel campo del gioco di Go, rivolgendosi principalmente agli esperti di intelligenza artificiale. Successivamente, ChatGPT, lanciato da OpenAI, ha portato l’IA generativa al grande pubblico, offrendo interazioni linguistiche realistiche per una vasta gamma di applicazioni quotidiane.

Tuttavia, l’applicazione di un modello AI è spesso limitata a determinati scenari o compiti. Prendiamo ad esempio i grandi modelli di linguaggio (LLM) come il generative pre-trained transformer (GPT). Questi modelli possono funzionare bene in vari compiti di elaborazione del linguaggio naturale e di visione artificiale, ma per produrre un output che sia veramente allineato alle intenzioni umane, è necessario un fine-tuning del modello. Questo fine-tuning può essere un processo complesso e richiede risorse computazionali significative.

Inoltre, la maggior parte dei modelli AI attuali sono progettati per essere eseguiti su potenti server cloud. Questo può creare problemi di latenza e privacy, specialmente quando si tratta di fornire servizi generativi personalizzati in tempo reale.

Ecco dove entra in gioco NetGPT. Questa nuova architettura di rete Native-AI propone un approccio che bilancia le risorse tra i server edge e cloud, permettendo di eseguire modelli LLM di dimensioni diverse in base alla loro capacità di calcolo. Questo significa che i modelli più leggeri possono essere eseguiti direttamente sui dispositivi degli utenti, mentre i modelli più pesanti possono essere eseguiti nel cloud. Questo approccio consente di sfruttare le informazioni basate sulla posizione e altre informazioni specifiche dell’utente per personalizzare i servizi generativi, migliorando l’efficienza e riducendo la latenza.

In sostanza, NetGPT introduce il concetto di “intelligenza generativa distribuita”, in cui l’intelligenza generativa viene distribuita su tutta la rete, piuttosto che essere centralizzata in un unico luogo. Questo può portare a una maggiore efficienza, riducendo la latenza e consentendo una personalizzazione più accurata basata su informazioni specifiche dell’utente.

Implementazione di NetGPT

NetGPT propone un’architettura che rispetta l’equilibrio delle risorse tra i server edge e cloud, distribuendo modelli LLM di dimensioni diverse in base alla loro capacità di calcolo. I modelli LLM al bordo della rete possono sfruttare efficientemente le informazioni basate sulla posizione per completare i prompt personalizzati, beneficiando così dell’interazione con i modelli LLM nel cloud.

Immagina di avere un dispositivo mobile che utilizza un modello di linguaggio per fornirti suggerimenti personalizzati. Questo modello potrebbe essere un modello più piccolo (come GPT-2-base) che risiede direttamente sul tuo dispositivo (il “bordo” della rete). Tuttavia, quando il tuo dispositivo ha bisogno di elaborare una richiesta più complessa, potrebbe interagire con un modello più grande (come LLaMA) che risiede nel cloud.

Architettura di rete Native-AI verso NetGPT

NetGPT fornisce l’opportunità di trasformare le reti cellulari in un’architettura di rete Native-AI, che fornisce intelligenza personalizzata, in rete e inclusiva per gli utenti finali e concede agli utenti più privilegi per accedere ai servizi generativi in qualsiasi momento e ovunque. Tuttavia, tale trasformazione richiede cambiamenti sostanziali, molto più che installare rack di server nella posizione del bordo e il traffico di breakout locale per l’elaborazione al bordo.

Immagina di avere un quartiere con una serie di case. Ogni casa ha un piccolo generatore di energia per le esigenze di base. Tuttavia, per le esigenze energetiche più grandi, le case possono attingere da una centrale elettrica comune. Questo è simile a come NetGPT propone di utilizzare sia i modelli al bordo della rete (le case con i loro generatori) che i modelli nel cloud (la centrale elettrica).

NetGPT rappresenta un progresso significativo nel campo dell’intelligenza artificiale generativa. Questa promettente architettura di rete Native-AI va oltre la fornitura di servizi generativi personalizzati, introduce il concetto di DGI “distributed generative intelligence”

Attualmente, la maggior parte dei servizi generativi si basa su modelli di intelligenza artificiale centralizzati. Ad esempio, quando usi un assistente virtuale come Siri o Alexa, la tua richiesta viene inviata a un server remoto dove viene elaborata, e la risposta viene poi inviata indietro al tuo dispositivo. Questo può portare a problemi di latenza e privacy.

Con NetGPT e l’intelligenza generativa distribuita, invece, parte dell’elaborazione può essere fatta direttamente sul tuo dispositivo. Ad esempio, un modello di linguaggio più piccolo e leggero potrebbe essere eseguito sul tuo smartphone per rispondere a richieste semplici, mentre un modello più grande e potente nel cloud potrebbe essere utilizzato per richieste più complesse. Questo può ridurre la latenza, migliorare la privacy e permettere una personalizzazione più accurata basata su informazioni specifiche dell’utente.

Realizzare questa visione non è un compito semplice. Non si tratta solo di aggiungere più computer o server in determinate posizioni della rete (il “bordo” della rete, vicino agli utenti). Anche il modo in cui i dati vengono inviati attraverso la rete (il “traffico”) deve essere gestito in modo più efficiente, in modo che le informazioni possano essere elaborate più rapidamente e vicino al luogo in cui vengono utilizzate.

Inoltre, NetGPT richiede un nuovo tipo di progettazione di reti di comunicazione. Queste reti devono essere in grado di gestire sia le comunicazioni (l’invio e la ricezione di dati) che il calcolo (l’esecuzione di modelli di intelligenza artificiale), e devono farlo in modo integrato e ottimizzato.

Nonostante queste sfide, NetGPT offre l’opportunità di trasformare le reti cellulari in un’architettura di rete Native-AI. Questo potrebbe portare a un’era in cui l’intelligenza generativa è veramente distribuita, fornendo servizi personalizzati, in rete e inclusivi per gli utenti finali. In altre parole, l’intelligenza artificiale generativa potrebbe diventare ancora più integrata nella nostra vita quotidiana, rendendo i nostri dispositivi e applicazioni più intelligenti, reattivi e personalizzati.

 

 

Andrea Bruno Viliotti

Andrea Bruno Viliotti

B2B Data-Evolution Lead Generation Specialist. Aiuto startup B2B a trovare clienti ideali attraverso una lead generation basata su dati