«Per soddisfare le aspettative sulla GenAI e sfruttare efficacemente l’intero ciclo di vita dell’AI, le soluzioni devono essere ibride by design», ha dichiarato Antonio Neri, presidente e ceo di Hpe. «Dal training e tuning dei modelli on-premises, in una struttura di colocation o nel cloud pubblico, fino all’inferenza sull’edge, l’AI è un workload hybrid cloud. Hpe e Nvidia vantano una lunga storia di collaborazione nell’innovazione tecnologica e continueranno a offrire soluzioni software e hardware AI progettate congiuntamente per aiutare i nostri clienti ad accelerare lo sviluppo e l’implementazione della GenAI, dal concept alla produzione».
Hewlett Packard Enterprise ha potenziato il portfolio AI-native con nuove soluzioni:
- Disponibilità di due soluzioni GenAI full-stack co-ingegnerizzate da Hpe e Nvidia
- Un’anteprima di Hpe Machine Learning Inference Software
- Un’architettura di riferimento per la Retrieval Augmented Generation di livello enterprise
- Supporto per lo sviluppo di prodotti futuri basati sulla nuova piattaforma Nvidia Blackwell
«L’IA generativa è in grado di trasformare i dati provenienti dai dispositivi connessi, dai data center e dai cloud in insight che possono portare a innovazioni in tutti i settori», ha dichiarato Jensen Huang, fondatore e ceo di Nvidia. «La nostra crescente collaborazione con Hpe consentirà alle imprese di conseguire una produttività senza precedenti sfruttando i propri dati per sviluppare e distribuire nuove applicazioni di AI in grado di trasformare le loro aziende».
Training e tuning della GenAI alimentato da supercomputer
Annunciata alla SC23, la soluzione di supercomputing di Hpe per AI generativa è ora disponibile su ordinazione per le organizzazioni che cercano una soluzione full-stack preconfigurata e testata per lo sviluppo e l’addestramento di modelli di AI di grandi dimensioni. Realizzata per aiutare i clienti ad accelerare i progetti di GenAI e deep learning, la soluzione chiavi in mano è alimentata da Nvidia e può supportare fino a 168 Nvidia GH200 Grace Hopper Superchip. La soluzione consente alle grandi imprese, agli istituti di ricerca e agli enti governativi di semplificare il processo di sviluppo dei modelli con uno stack di software AI/ML che aiuta i clienti ad accelerare i progetti di GenAI e deep learning, fra cui Llm, sistemi che forniscono una raccomandazione come output e database vettoriali. Fornita con servizi di installazione e configurazione, questa soluzione “chiavi in mano” è progettata per essere utilizzata nei centri di ricerca sull’AI e nelle grandi aziende per migliorare il time-to-value e accelerare il training di 2-3 volte.
Soluzione di classe enterprise per il tuning e l’inferenza per la GenAI
Presentata in anteprima a Discover Barcelona 2023, la soluzione di enterprise computing di Hpe per l’AI generativa è ora disponibile per i clienti direttamente o tramite Hpe GreenLake con un modello pay-per-use flessibile e scalabile. Co-progettata con Nvidia, la soluzione preconfigurata di fine-tuning e inferenza è progettata per ridurre i tempi e i costi di ramp-up offrendo i servizi di calcolo, storage, software, networking e consulenza di cui le organizzazioni hanno bisogno per produrre applicazioni GenAI. La soluzione AI-native full-stack offre alle aziende la velocità, la scalabilità e il controllo necessari per personalizzare i modelli fondamentali utilizzando dati privati e distribuire applicazioni di GenAI all’interno di un modello di cloud ibrido. Grazie a un cluster di calcolo per l’AI ad alte prestazioni e al software di Hpe e di Nvidia, la soluzione è ideale per il fine-tuning leggero dei modelli, la RAG e l’inferenza fornita con architettura scale-out. Il tempo di fine-tuning per un modello Llama 2 da 70 miliardi di parametri che esegue questa soluzione diminuisce linearmente con il numero di nodi, richiedendo sei minuti su un sistema a 16 nodi. La velocità e le prestazioni consentono ai clienti di realizzare un time-to-value più rapido migliorando la produttività aziendale con applicazioni AI come assistenti virtuali, chatbot intelligenti e ricerca aziendale.
Basata sui server Hpe ProLiant DL380a Gen11, la soluzione è preconfigurata con le Gpu Nvidia, la piattaforma di rete Nvidia Spectrum-X Ethernet e le Dpu Nvidia BlueField-3. La soluzione è potenziata dalla piattaforma di machine learning e dal software di analisi di Hpe, il software Nvidia AI Enterprise 5.0 con il nuovo microservizio Nvidia Nim per l’inferenza ottimizzata di modelli generativi di intelligenza artificiale, oltre a Nvidia NeMo Retriever e ad altre librerie di data science e AI. Per colmare il possibile divario di competenze in materia di intelligenza artificiale, gli esperti di Hpe Services aiuteranno le aziende a progettare, implementare e gestire la soluzione, che comprende l’applicazione di tecniche adeguate di tuning dei modelli.