Llm custom, servitizzazione, Hpc: tutto sulla strategia ibrida per l’IA di Hpe

di Piero Macrì ♦︎ Tredicesima tappa del nostro viaggio nell'IA. Un'infrastruttura componibile ed espandibile, accessibile anche in modalità as a Service. Così Hpe punta a portare l'IA ovunque, anche nelle pmi. Hpc6: il supercomputer realizzato per Eni, fra i più potenti al mondo. I modelli GenAI preaddestrati per PA, manifatturiero e telco. Hpe GreenLake for Large Language Models: IA generativa as a Service. La partnership con Nvidia per il supercalcolo. L'acquisizione di Packyderm. Ce ne parla l'ad Claudio Bassoli

HPE ALLA PROVA DI GEN AI. TREDICESIMA TAPPA DEL NOSTRO VIAGGIO SULL’IMPATTO DELL’IA SUL BUSINESS. NELLE PRECEDENTI PUNTATE ABBIAMO RACCONTATO LA VISIONE DI MICROSOFTSASGOOGLEAUTODESKSAPIMPRESOFTORACLELENOVO, IBM, DGS-PORINI, SALESFORCE e FANUC.

La futuribile massiva adozione dell’intelligenza artificiale è una straordinaria opportunità per i giganti dell’Information Technology. Applicazioni, soluzioni e servizi di IA generativa hanno infatti sete di potenza di calcolo, di storage e di networking ad altissime prestazioni. Come dire, la tanto auspicata produttività algoritmica si potrà realizzare solo a patto di avere un accesso indifferenziato al supercalcolo. As a service, on demand, on premise, all’edge e in cloud. Hpe, Dell, Lenovo. I global trotter dell’informatica si stanno attrezzando per consegnare al mercato l’infrastruttura a misura di intelligenza generativa. Ciascuno ha un suo proprio modello di business. Per Hpe, ad esempio, il modello è ibrido. L’infrastruttura di calcolo della storica multinazionale americana è infatti adattabile, esportabile e riproducibile all’interno di una molteplicità di scenari architetturali. Un modello che rientra nella logica inaugurata anni fa con il modello GreenLake, che abilita un’infrastruttura componibile per l’IT as a service a portata di grande, media e piccola azienda.







Nell’ambito del supercalcolo, Hpe ha già avviato in Italia progetti con aziende del settore delle telecomunicazioni, dell’automotive, del retail, del fashion, dell’aerospace e difesa (ultima gara quella vinta per il consorzio d’impresa che vede coinvolta Leonardo). Progetti che si vanno ad aggiungere a quello di Eni, che su infrastruttura Hpe costruirà la prossima generazione di supercalcolo Hpc6: basato su tecnologia Frontier, il supercomputer Hpe che guida la classifica mondiale dell’high performance computing, Hpc6 sarà uno dei più potenti supercomputer al mondo utilizzati da un’industria privata. Dal supercalcolo dell’Eni alle infrastrutture on demand, con “black box” hardware e software installabili dinamicamente, anche a livello edge, per supportare l’esecuzione inferenziale dei modelli linguistici con i quali si sviluppa la new wave dell’intelligenza artificiale.

Antonio Neri, ceo e presidente di Hpe

«Le aziende non devono avere vincoli o limitazioni nel decidere quale soluzione implementare», afferma Antonio Neri, presidente e ceo di Hpe. «Per soddisfare le aspettative sulla GenAI e sfruttare efficacemente l’intero ciclo di vita dell’IA, le soluzioni devono essere ibride by design. Training e tuning dei modelli in cloud privato o pubblico, fino all’inferenza sull’edge, l’IA è per definizione un workload hybrid cloud», aggiunge Neri. «Non esiste Ai senza supercalcolo e non esiste supercalcolo senza IA, l’una e l’altra sono le facce di una stessa medaglia», sottolinea Claudio Bassoli, presidente e delegato di Hpe Italia, intervistato da Industria Italiana a margine dell’incontro sull’impatto dell’IA e dell’High Performance Computing sulle aziende private e pubbliche italiane. Per Bassoli, «i sistemi possono essere più o meno potenti, a seconda delle richieste delle applicazioni, ma la componente di supercalcolo rimane essenziale per garantire il funzionamento dell’Ai generativa e del machine learning».

Non solo large language model in stile ChatGpt: in ambito enterprise Hpe è orientata allo sviluppo di soluzioni basate su small e micro language models che integrano set di dati customizzati. «Le opzioni sono le più diverse. Ci sono anche clienti che partono da zero e vogliono creare in autonomia un proprio motore di intelligenza generativa. Succede nelle grandi banche americane ma lo stesso sta accadendo in Italia», dice Bassoli. Ecco le iniziative e le tecnologie abilitanti il supercalcolo generativo di Hpe, la partnership con la start-up tedesca Aleph Alpha e quella con Nvidia, l’integrazione delle diverse soluzioni in Hpe GreenLake.

Supercomputer Eni, l’Hpc6 diventa una delle più potenti infrastrutture di supercalcolo utilizzate da un’impresa privata industriale

Claudio Descalzi confermato ad Eni

Avviata a febbraio dello scorso anno la costruzione del supercomputer di prossima generazione Hpc6 di Eni. Sarà costruito con tecnologia Hpe Cray EX4000 che utilizza Cpu e Gpu Amd per supportare carichi di lavoro ad alta intensità di dati e immagini per l’intelligenza artificiale, la modellazione e la simulazione. Il sistema rafforza l’attuale ricerca Eni, che si concentra sullo studio e l’individuazione di nuove fonti energetiche, tra cui le rinnovabili. Eni, infatti, utilizzerà il sistema per promuovere la ricerca scientifica con l’obiettivo di accelerare l’innovazione nella transizione energetica. Per Eni si tratta di un investimento che consentirà di fare un salto quantico sul fronte della capacità computazionale, passando dai 70 milioni di miliardi di operazioni al secondo garantite dai sistemi attuali ai 600 milioni di miliardi di operazioni al secondo di Hpc6. Con questo valore, il nuovo sistema farebbe di Eni l’azienda con il supercomputer “privato” più potente al mondo.

«Continuiamo a dimostrare la nostra leadership tecnologica, riaffermando il ruolo di Eni nel supercalcolo e rilanciando le nostre ambizioni attraverso infrastrutture dedicate», afferma Claudio Descalzi, amministratore delegato di Eni, in occasione dell’annuncio. Questo progetto sottolinea il nostro costante impegno nell’innovazione e nella digitalizzazione, sostenendo allo stesso tempo il nostro processo di transizione energetica. Il nuovo sistema Hpc aumenta significativamente le nostre capacità computazionali e segna un cambio rivoluzionario nel modo in cui gestiamo le sfide legate alla sicurezza energetica, alla competitività e alla sostenibilità».

Il green data center Eni di Ferrera Erbognone dove sorgerà il nuovo supercomputer Hpc6.

Pubblica amministrazione, industria, manifatturiero e telecomunicazioni. Modelli GenAI supportati da un supercalcolo dimensionato in funzione delle esigenze applicative

Claudio Bassoli, presidente e amministratore delegato di Hpe Italia.

In tutti i diversi ambiti applicativi Hpe rende disponibili modelli GenAI preaddestrati che possono essere allenati su specifiche basi dati per poi essere portati in esecuzione on edge, su unità elaborative interne ai sistemi informativi. «Ci sono aziende che non metteranno mai i propri dati in un motore di intelligenza artificiale che appartiene a terzi, dice Bassoli. Dare poi per scontato che si debba utilizzare un large language model come ChatGpt è un nonsense. È un modello generalista che si rivolge in modo indifferenziato al consumer e al business, un Llm che attinge a miliardi di banche dati».

Nel mondo enterprise le opzioni sono invece molteplici. In infrastruttura Hpe si possono per esempio utilizzare Llm come quelli disponibili su piattaforma Luminous, preaddestrati per ambito applicativo, per poi portarli in esecuzione all’edge, selezionando il supercalcolo in funzione del workload applicativo. Per grandi e grandissime aziende è inoltre possibile creare in autonomia la soluzione di Ai generativa avvalendosi di un ambente di sviluppo che permette di costruire modelli generativi sulla base di una specifica knowledge base aziendale. Insomma, come dice Bassoli, «Offriamo tutta la flessiblità dell’hybrid supercomputing, in cloud e on premise, as a service o meno, a seconda del percorso che ciascuna azienda vorrà scegliere».

Hpe GreenLake for Large Language Models: l’intelligenza generativa per un modello di business as a service

Laddove è possibile Hpe cerca di privilegiare le soluzioni as-a-service per evitare di muovere i dati dalle infrastrutture dei clienti. I vantaggi? «Si elimina alla radice il costo economico ed energetico del trasferimento dei dati e si riducono i rischi sui piani della sicurezza e della riservatezza. Secondo le stime degli analisti, il 70% dei dati mondiali non risiede nei cloud pubblici, e buona parte dei dati delle Pa non possono essere spostati», dice Bassoli. Ecco, quindi, Hpe GreenLake for Large Language Models. Disponibile on-demand consente alle aziende di addestrare e distribuire privatamente l’intelligenza artificiale su larga scala attraverso un servizio cloud di supercomputing on-demand e multi-tenant. La nuova offerta è la prima di una serie di applicazioni di IA specifiche per i vari settori.

Hpe GreenLake for Large Language Models. Disponibile on-demand consente alle aziende di addestrare e distribuire privatamente l’intelligenza artificiale su larga scala attraverso un servizio cloud di supercomputing on-demand e multi-tenant.

In prospettiva il supporto è previsto per la modellazione climatica, la sanità e il life science, i servizi finanziari, la produzione e i trasporti. GreenLake for Large Language Models può essere esportato su una qualunque infrastruttura di supercomputer e nasce della partnership con Aleph Alpha startup tedesca specializzata in intelligenza artificiale. Include il già citato Liminous, modello linguistico offerto in diverse lingue, tra cui inglese, francese, tedesco, italiano e spagnolo.

Come dice Bassoli, «Hpe GreenLake for Llm consente alle aziende di sfruttare i propri dati, addestrare e mettere a punto un modello personalizzato, per ottenere insight in tempo reale basati knowledge base aziendale». L’infrastruttura è quella dei supercomputer Hpe Cray Xd e comprende una suite software per ottimizzare le prestazioni, con una serie completa di strumenti per lo sviluppo, il porting, il debug e la messa a punto del codice. Insomma, se fino a non molto tempo fa i supercomputer erano installati per lo più presso grandi laboratori statali e istituzioni scientifiche, ora sono disponibili con soluzioni “full stack” implementabili on edge e in cloud in modalità as a service.

La partnership con Nvidia. Infrastruttura Hpc GenAI on premise e in cloud

Frontier, il supercomputer Hpe più veloce al mondo installato presso l’Oak Ridge National Laboratory, che rimane il primo e più veloce supercomputer exascale al mondo.

Altra soluzione di supercomputing per l’IA generativa è quella sviluppata in collaborazione con Nvidia. Preconfigurata e testata per lo sviluppo e l’addestramento di modelli Ai di grandi dimensioni consente alle grandi imprese, agli istituti di ricerca e agli enti governativi di semplificare il processo di sviluppo dei modelli con uno stack di software AI/ML che aiuta ad accelerare la realizzazione di progetti di GenAI e deep learning. Una soluzione “chiavi in mano” progettata per migliorare il time-to-value e ridurre i tempi di addestramento dei modelli. Disponibile come infrastruttura ad hoc o tramite Hpe GreenLake, con un modello pay-per-use flessibile e scalabile, offre i servizi di calcolo, storage, software, networking per supportare la produzione di applicazioni GenAi. Come affermato da Hpe durante l’annuncio della partnership con Nvidia, avvenuto lo scorso marzo, “La soluzione AI-native full-stack offre alle aziende la velocità, la scalabilità e il controllo necessari per personalizzare i modelli fondazionali utilizzando dati privati e distribuire applicazioni di GenAi all’interno di un modello di cloud ibrido”.

Con l’acquisizione di Pachyderm, Hpe rende disponibile un ambiente di sviluppo per la produzione di applicazioni industriali su larga scala

Pachyderm sviluppa una tecnologia basata su open source per le “data pipeline” utilizzate per abilitare i flussi di lavoro in operazioni di machine learning.

L’acquisizione di Pachyderm, start-up californiana fondata nel 2014 specializzata in software open source, permette ad Hpe di proporre alle aziende una piattaforma per semplificare lo sviluppo di applicazioni di intelligenza artificiale su larga scala. Pachyderm sviluppa una tecnologia basata su open source per le “data pipeline” utilizzate per abilitare i flussi di lavoro in operazioni di machine learning. Secondo la nota rilasciata da Hpe in occasione dell’acquisizione avvenuta lo scorso dicembre, “A mano a mano che i progetti Ai diventano più grandi e impiegano data set sempre più complessi, i data scientist hanno bisogno di soluzioni Ai per massimizzare i risultati delle iniziative di machine learning, ottimizzando i costi di infrastruttura”. In buona sostanza, la piattaforma automatizza la preparazione dei “training dataset” utilizzati per istruire le reti neurali a individuare i pattern di interesse in grandi volumi di informazioni; elimina duplicazioni ed errori, omogeneizzando i formati in modo da ridurre le risorse di elaborazione necessarie. L’obiettivo è ora integrare il software di Pachyderm nelle soluzioni di supercomputing e IA di Hpe.














Articolo precedenteEU AI Act: l’Europa regolamenta l’IA. Freno all’innovazione od opportunità per le imprese?
Articolo successivoNatuzzi sceglie la soluzione Rise with Sap per ottimizzare i processi e ridurre il Tco






LASCIA UN COMMENTO

Per favore inserisci il tuo commento!
Per favore inserisci il tuo nome qui