Fastweb: al via il ChatGpt italiano e diventeremo AI driven company. Con infrastruttura Nvidia

di Piero Macrì ♦︎ La telco controllata da Swisscom si è dotata dell'infrastruttura Dgx Superpod H100 di Nvidia. È il più potente Hpc dedicato all'IA in Italia. Servirà per sviluppare un modello di IA nazionale e verrà messo anche a disposizione dei clienti. Obiettivo: guidare la trasformazione digitale del Paese. Il focus sulla sovranità sui dati. L'approccio as a Service per lo sviluppo di soluzioni verticali. Parla Giovanni Germani, manager of architecture & AI center of excellence di Fastweb

Walter Renna, ceo di Fastweb

Fastweb accelera l’evoluzione da telco a fornitore di servizi digitali creando una piattaforma di supercalcolo per l’intelligenza artificiale generativa. Sarà basata sull’infrastruttura hardware e software Dgx Superpod H100 di Nvidia, considerata a oggi la tecnologia più avanzata per il calcolo generativo. Secondo Fastweb sarà il più potente sistema italiano di iniziativa privata dedicato all’IA: verrà ospitato presso un data center dell’azienda presente in Lombardia e su di esso verrà sviluppato un modello linguistico addestrato nativamente in lingua italiana e basato su dataset italiani. Il Superpod Nvidia sarà un vero e proprio hub per la generative AI che Fastweb utilizzerà per realizzare soluzioni innovative per il mercato italiano dell’IA. L’infrastruttura, concepita in logica as a service, potrà essere utilizzata come piattaforma di sviluppo per poi esportare il modello verso i datacenter dei clienti, oppure, una volta sviluppato il modello, mantenerlo in esecuzione sul Superpod. Allo stesso modo il supercalcolatore di Fastweb sarà disponibile anche per quelle aziende che hanno sviluppato in autonomia un proprio modello e necessitano della sola potenza computazionale.

«Con questo investimento strategico Fastweb rafforza la propria vocazione di abilitatore della trasformazione digitale del paese e mette le basi per consentire lo sviluppo di servizi di intelligenza artificiale attraverso un approccio di sovranità nazionale e di sostenibilità, ha dichiarato Walter Renna, ceo di Fastweb a dicembre dello scorso anno in occasione dell’annuncio dell’investimento. Mettiamo a disposizione dei clienti business e della pubblica amministrazione un sistema potentissimo in grado di supportare ad ogni livello lo sviluppo di applicazioni avanzate di IA generativa». Ecco come l’operatore italiano controllato dal colosso elvetico Swisscom intende valorizzare l’intelligenza artificiale per le aziende pubbliche e private italiane e le modalità attraverso le quali verrà attuato il progetto di costruzione dell’infrastruttura generativa as a service per lo sviluppo di modelli in lingua italiana. «Il nostro obiettivo è presidiare l’intera catena del valore dell’intelligenza artificiale, eccezion fatta per la produzione di chip. Partiamo dal supercomputer per arrivare alla consulenza, passando per la fornitura di potenza computazionale e realizzazione di modelli su misura», afferma Giovanni Germani, manager of Architecture & AI Center of Excellence di Fastweb. Secondo quanto raccontato, l’iniziativa ha già suscitato interesse sia nel pubblico che nel privato, in primis nel mondo finance. I lavori per la costruzione del dataset sono già partiti.







Giovanni Germani, manager of Architecture & AI Center of Excellence di Fastweb.

Come dice Germani, «Si stanno raccogliendo i dati per addestrare il modello da più fonti certificate e da luglio si passerà alla vera fase esecutiva per arrivare poi alla piena disponibilità di modelli nativi entro la fine dell’anno». Da questo progetto nasceranno modelli a più dimensioni nell’ordine di 8, 20 e 40 miliardi di parametri (il numero di connessioni neurali su cui si basa l’apprendimento del modello). Dimensioni che vengono ritenute sufficienti per rispondere in modo puntuale a singole esigenze applicative del mondo business. Un approccio completamente diverso da quello adottato da OpenAI o dai big hyperscaler: basti pensare che l’ultima versione di ChatGpt integra 8 modelli da 220 miliardi di parametri ciascuno per una dimensione complessiva di 1,7 trilioni di parametri. «Loro sviluppano modelli generalisti, multilingua e multimodali, noi sviluppiamo modelli nativamente in lingua italiana che sono pensati per un utilizzo enterprise, dove per la maggior parte delle soluzioni è sufficiente avere la capacità di supportare use case per fare sintesi documentali o per use case conversazionali, testuali o vocali. Ci aspettiamo che esigenze progettuali che richiedano di generare video o immagini siano decisamente più rare», dice Germani. «Costruiremo modelli per realizzare chatbot addestrate su procedure specifiche dell’azienda, modelli più piccoli, verticali e specializzati, la cui dimensione riduce i costi e il tempo di training, dice Germani. Ordinato nel 2023 il Superpod è già stato consegnato. «Per fortuna ci siamo mossi nei tempi giusti. Per chi volesse ordinare un supercomputer analogo i tempi di attesa sono oggi di almeno 24 mesi. Stiamo per approntare gli spazi per poterlo installare. Sono macchine che non hanno nulla a che vedere con un data center tradizionale. Hanno bisogno di un sistema di raffreddamento ed energetico dedicato. Il piano industriale prevede la scalabilità dell’infrastruttura e, nel caso fosse necessario, vi sono già accordi con Nvidia per poterla potenziare».

Nvidia Dgx Superpod è un super computer di classe mondiale. È progettato per affrontare le sfide più complesse dell’IA e viene utilizzato in molteplici applicazioni: dal parlato alla visione, dalla robotica ai sistemi autonomi.

Il percorso evolutivo di Fastweb: l’intelligenza artificiale come tecnologia abilitante per il passaggio da telco a digital provider

Da fornitore di connettività a provider di servizi digitali edge to cloud sia in ambito pubblico che privato. Un’offerta che si estende alla cybersecurity e all’intelligenza artificiale. Fastweb si è data l’obiettivo di diventare una “AI driven company”, un’azienda dove l’intelligenza artificiale è embedded in tutte le funzioni aziendali. «La nostra strategia sull’intelligenza artificiale risale al 2019, dice Germani. Ben prima dell’hype scatenato dall’IA generativa ci siamo resi conto che la tecnologia aveva il potenziale di trasformare alla radice i nostri processi aziendali e quelli dei nostri clienti». In questi 5 anni grazie alla creazione di un centro di competenza interno che include data scientist, data engineer e data architect, l’IA si è diffusa in tutti i dipartimenti Fastweb: dal customer care, all’ufficio acquisti, alla gestione dell’infrastruttura alla produzione software. Ora l’attenzione e la domanda si concentra sull’AI generativa, non soltanto per un utilizzo interno, ma per promuovere migliori servizi ai clienti. Da una parte il progetto di realizzazione di un Llm (Large language model) nazionale, dall’altra la consulenza che affianca i clienti nello sviluppo di proprie soluzioni e, infine, la realizzazione di vere e proprie app di generative AI. È il caso di FastwebA, l’assistente virtuale che sfrutta l’intelligenza artificiale generativa per accompagnare gli utenti alla scoperta dei servizi e delle nostre offerte Internet fisse e mobili di Fastweb più adatte alle loro esigenze attraverso conversazioni naturali, immediate e personalizzate. Come dice Germani, «La sperimentazione del nuovo assistente virtuale accessibile dal sito fastweb.it si inserisce all’interno del percorso di posizionamento dell’azienda che punta alla progressiva integrazione dell’intelligenza artificiale e delle tecnologie data-driven all’interno dei processi aziendali come leve strategiche per un modello di business service-based».

Il Llm nazionale di Fastweb per una sovranità digitale: dati certificati e sicuri che non usciranno mai dal perimetro italiano

Walter Renna, ceo di Fastweb.

L’utilizzo dell’intelligenza artificiale generativa a livello enterprise solleva una grande questione sul trattamento e la proprietà dei dati. Se da una parte vi sono aziende che non ravvisano alcun problema nell’integrare dati propri su Llm e infrastrutture hyperscaler, dall’altra esiste un gran numero di aziende, nel settore privato e ancor più nel settore pubblico, dove il tema della sovranità del dato è un prerequisito essenziale. Ecco, quindi, l’idea di Fastweb di sostenere questa domanda con la creazione di una piattaforma di supercalcolo per lo sviluppo di un large language model nazionale basato su dati, certificati e sicuri, conformi alle normative europee. «Abbiamo visto aziende con idee molto interessanti per l’uso della parte generativa che sono contrarie a mettere i dati in un modello di cui non hanno il controllo. Un dato messo dentro ChatGpt va in una blackbox e se ne perde il controllo». Insomma, la combinazione del sistema Nvidia, dell’Llm nazionale, delle infrastrutture cloud e dei sistemi avanzati di cybersecurity renderà disponibile ad aziende, start-up, pubbliche amministrazioni e altri operatori un sistema end-to-end per lo sviluppo di applicazioni di IA generativa specifiche per i vari verticali – dalla sanità, all’educazione, alla mobilità – con la sicurezza di una gestione robusta dei dati che rimangono sul territorio italiano, di una governance trasparente dell’Llm e della conformità con tutte le regole italiane ed europee applicabili.

Le modalità di creazione del dataset per il large language model nazionale: dal training su modelli esistenti all’integrazione dei dati sul modello nativo

La piattaforma di supercalcolo per l’intelligenza artificiale generativa di Fastweb sarà basata sull’infrastruttura hardware e software Dgx Superpod H100 di Nvidia, considerata a oggi la tecnologia più avanzata per il calcolo generativo.

In Fastweb, un team di esperti di intelligenza artificiale generativa, in collaborazione con l’ingegneria di Nvidia, è già al lavoro per sviluppare le nuove soluzioni. L’obiettivo è quello di affiancare i dati raccolti dalle tradizionali fonti pubbliche tutto quello che è derivabile senza particolari accordi da uno scraping del web, con contenuti specifici derivanti da partnership con il mondo dell’editoria e degli enti pubblici. «Una volta definito il dataset primario viene fatta la pulizia dei dati, eliminando tutti i contenuti tossici, racconta Germani. Una vera attività di scrematura che permette di dimezzare la quantità dei dati, preservando soltanto quelli davvero utili e validi al funzionamento efficiente del modello». Per accelerare lo sviluppo, il dataset lo si è già iniziato a testare utilizzando modelli open source esistenti, come Llamantino, Dante e Cerbero. «In questo modo otteniamo una prima indicazione di quanto il nuovo dataset può migliorare le prestazioni di questi sistemi. Già adesso riscontriamo tra il 20 e il 50% di aumento delle prestazioni. Quando a luglio avremo “up & running” il nuovo supercomputer verranno quindi resi disponibili i primi modelli open source con il nostro FusionAI per poi iniziare a fare training del dataset sul nuovo modello e arrivare ad avere le prime soluzioni native disponibili alla fine del 2024».

Flessibilità as a service e personalizzazione per lo sviluppo di soluzioni verticali

Sede di Nexxt a Milano.

Il modello di business per l’IA generativa di Fastweb è stato pensato con una logica flessibile, as a service. «Gli utenti potranno scegliere di sviluppare loro soluzioni su nostri Llm, eseguire la parte inferenziale su nostra piattaforma o esportare il modello su loro infrastruttura, dice Germani. Nel caso abbiano già sviluppato una loro soluzione, possono farla girare sul nostro supercalcolatore. Qualunque sia l’opzione desiderata forniamo tutto il supporto necessario per realizzarla. Nei casi più semplici, di modelli customizzati su dataset aziendali, sintesi di documenti e scansione di posta elettronica, per esempio, una volta caricati i dati, il modello sarà già fruibile senza dover fare un training. In casi più complessi, dove si debbano sviluppare modelli per applicazioni conversazionali dovrà invece essere fatto un vero e proprio addestramento ed effettuare la configurazione architetturale più opportuna. Lo use case dialogico, conversazionale, deve infatti avere una bassissima latenza, non posso pensare di aspettare 10 secondi per avere una risposta. Cosa diversa nel caso si debbano fare sintesi di documenti o utilizzare l’IA generativa per rispondere a email in modo automatico, in questo caso anche se il modello rispondesse in 10 minuti non sarebbe un problema», afferma Germani.














Articolo precedentePhoenix Contact: arriva Charx Control, il controllore di ricarica DC da 19 pollici
Articolo successivoÈ la sostenibilità del packaging a guidare le scelte di acquisto in Italia. L’analisi di Nomisma






LASCIA UN COMMENTO

Per favore inserisci il tuo commento!
Per favore inserisci il tuo nome qui