Partnership Hpe-Nvidia: in arrivo nuove soluzioni di classe enterprise per GenAI

Gli aggiornamenti del portfolio comprendono applicazioni di IA generativa, deep learning e machine learning

Antonio Neri, presidente e ceo Hpe

«Per soddisfare le aspettative sulla GenAI e sfruttare efficacemente l’intero ciclo di vita dell’AI, le soluzioni devono essere ibride by design», ha dichiarato Antonio Neri, presidente e ceo di Hpe. «Dal training e tuning dei modelli on-premises, in una struttura di colocation o nel cloud pubblico, fino all’inferenza sull’edge, l’AI è un workload hybrid cloud. Hpe e Nvidia vantano una lunga storia di collaborazione nell’innovazione tecnologica e continueranno a offrire soluzioni software e hardware AI progettate congiuntamente per aiutare i nostri clienti ad accelerare lo sviluppo e l’implementazione della GenAI, dal concept alla produzione».

Hewlett Packard Enterprise ha potenziato il portfolio AI-native con nuove soluzioni:







  • Disponibilità di due soluzioni GenAI full-stack co-ingegnerizzate da Hpe e Nvidia
  • Un’anteprima di Hpe Machine Learning Inference Software
  • Un’architettura di riferimento per la Retrieval Augmented Generation di livello enterprise
  • Supporto per lo sviluppo di prodotti futuri basati sulla nuova piattaforma Nvidia Blackwell

«L’IA generativa è in grado di trasformare i dati provenienti dai dispositivi connessi, dai data center e dai cloud in insight che possono portare a innovazioni in tutti i settori», ha dichiarato Jensen Huang, fondatore e ceo di Nvidia. «La nostra crescente collaborazione con Hpe consentirà alle imprese di conseguire una produttività senza precedenti sfruttando i propri dati per sviluppare e distribuire nuove applicazioni di AI in grado di trasformare le loro aziende».

Training e tuning della GenAI alimentato da supercomputer

Annunciata alla SC23, la soluzione di supercomputing di Hpe per AI generativa è ora disponibile su ordinazione per le organizzazioni che cercano una soluzione full-stack preconfigurata e testata per lo sviluppo e l’addestramento di modelli di AI di grandi dimensioni. Realizzata per aiutare i clienti ad accelerare i progetti di GenAI e deep learning, la soluzione chiavi in mano è alimentata da Nvidia e può supportare fino a 168 Nvidia GH200 Grace Hopper Superchip. La soluzione consente alle grandi imprese, agli istituti di ricerca e agli enti governativi di semplificare il processo di sviluppo dei modelli con uno stack di software AI/ML che aiuta i clienti ad accelerare i progetti di GenAI e deep learning, fra cui Llm, sistemi che forniscono una raccomandazione come output e database vettoriali. Fornita con servizi di installazione e configurazione, questa soluzione “chiavi in mano” è progettata per essere utilizzata nei centri di ricerca sull’AI e nelle grandi aziende per migliorare il time-to-value e accelerare il training di 2-3 volte.

Soluzione di classe enterprise per il tuning e l’inferenza per la GenAI

Presentata in anteprima a Discover Barcelona 2023, la soluzione di enterprise computing di Hpe per l’AI generativa è ora disponibile per i clienti direttamente o tramite Hpe GreenLake con un modello pay-per-use flessibile e scalabile. Co-progettata con Nvidia, la soluzione preconfigurata di fine-tuning e inferenza è progettata per ridurre i tempi e i costi di ramp-up offrendo i servizi di calcolo, storage, software, networking e consulenza di cui le organizzazioni hanno bisogno per produrre applicazioni GenAI. La soluzione AI-native full-stack offre alle aziende la velocità, la scalabilità e il controllo necessari per personalizzare i modelli fondamentali utilizzando dati privati e distribuire applicazioni di GenAI all’interno di un modello di cloud ibrido. Grazie a un cluster di calcolo per l’AI ad alte prestazioni e al software di Hpe e di Nvidia, la soluzione è ideale per il fine-tuning leggero dei modelli, la RAG e l’inferenza fornita con architettura scale-out. Il tempo di fine-tuning per un modello Llama 2 da 70 miliardi di parametri che esegue questa soluzione diminuisce linearmente con il numero di nodi, richiedendo sei minuti su un sistema a 16 nodi. La velocità e le prestazioni consentono ai clienti di realizzare un time-to-value più rapido migliorando la produttività aziendale con applicazioni AI come assistenti virtuali, chatbot intelligenti e ricerca aziendale.

Basata sui server Hpe ProLiant DL380a Gen11, la soluzione è preconfigurata con le Gpu Nvidia, la piattaforma di rete Nvidia Spectrum-X Ethernet e le Dpu Nvidia BlueField-3. La soluzione è potenziata dalla piattaforma di machine learning e dal software di analisi di Hpe, il software Nvidia AI Enterprise 5.0 con il nuovo microservizio Nvidia Nim per l’inferenza ottimizzata di modelli generativi di intelligenza artificiale, oltre a Nvidia NeMo Retriever e ad altre librerie di data science e AI. Per colmare il possibile divario di competenze in materia di intelligenza artificiale, gli esperti di Hpe Services aiuteranno le aziende a progettare, implementare e gestire la soluzione, che comprende l’applicazione di tecniche adeguate di tuning dei modelli.














Articolo precedenteMiray, la gamma di tappatrici automatiche di Cmi Industries in collaborazione con Bosch Rexroth
Articolo successivoFinlombarda sottoscrive la convenzione Garanzia Futuro di Sace






LASCIA UN COMMENTO

Per favore inserisci il tuo commento!
Per favore inserisci il tuo nome qui