La sfida di Dell Technologies: supercomputer democratici e Ai integrata

di Andrea Ballocchi ♦︎ Le vendite di server Hpc, sempre più accessibili alle aziende, sono arrivate a 6,7 miliardi di dollari nella prima metà del 2019 e dovrebbero arrivare a quasi 40 entro il 2023. La multinazionale americana ha deciso di unire soluzioni di High Performance Computing e intelligenza artificiale per ridurre il time to market in settori chiave come il pharma. Intanto Facebook, Microsoft, Google e altre aziende tech hanno investito oltre 16 miliardi

Particolare Hpc Dell Technologies

I supercomputer di domani come saranno? Più potenti, certo, ma sempre più accessibili economicamente. «Già oggi contare su un Hpc sta diventando di interesse generale», afferma Sante Roselli, director compute & networking sales di Dell Technologies. «Fino a qualche anno fa tali soluzioni erano pressoché di esclusivo appannaggio di istituti governativi, di grandi università, della Nasa o enti di pari livello, in grado di stanziare ingenti investimenti. Oggi grazie alla riduzione dei costi dei componenti tecnologici le soluzioni Hpc diventano accessibili e molte aziende possono dotarsene investendo budget ragionevoli, in linea con il proprio volume di business, ottenendo al tempo stesso grandi vantaggi competitivi».

La stessa multinazionale statunitense conferma già al presente una sempre maggiore richiesta di soluzioni High performance computing anche per poche decine di nodi: «è fondamentale in qualsiasi business usare i dati al meglio per ottenere informazioni affidabili che consentano di essere vincenti in mercati sempre più competitivi. I supercomputer stanno aiutando le aziende a ottenere il massimo dai dati in loro possesso; sia in termini di qualità sia in termini di riduzione dei tempi di elaborazione. Sfruttando la tecnologia è possibile ottenere prodotti, soluzioni e\o strategie migliori riducendo esponenzialmente il time to market. Il sempre più frequente ricorso all’Intelligenza artificiale per risolvere problemi concreti andrà ad aumentare notevolmente questo trend perché sono possibili applicazioni d’uso in molteplici ambiti: per insegnare a un’auto a guidare da sola con un normale computer servirebbero centinaia di anni, lo si può fare in pochi giorni usando Hpc e Ai».







Grazie a milioni di simulazioni parallele su pazienti virtuali si può ridurre enormemente il tempo necessario allo sviluppo di nuovi farmaci e poiché ogni paziente reagisce in maniera diversa alle terapie è possibile definire cure più efficaci perché personalizzate sul Dna del singolo individuo, cosa fattibile solo con elaborazione rapida di enormi quantità di dati. Allo stesso modo si possono ottenere previsioni più accurate dei comportamenti e preferenze dei clienti. Insomma, le applicazioni d’uso sono praticamente illimitate. «Supercomputer e intelligenza artificiale, combinate, rendono possibili questi prodigiosi progressi; pertanto costituiscono un business destinato a crescere in maniera esponenziale. Consapevole di questo, Dell Technologies è impegnata a ideare soluzioni che semplificano l’impiego e lo sviluppo delle tecnologie Hpc e Ai in aziende di ogni dimensione», specifica Roselli.

Sante Roselli, director compute & networking sales di Dell Technologies

Si pensi solo alle potenzialità dell’impiego degli Hpc, per esempio in medicina: tramite i supercomputer, Cineca sta simulando il comportamento delle proteine che consentono al virus di replicarsi in modo da “testare virtualmente le molecole farmaceutiche più efficaci a inibire il virus, e poter poi passare alla fase di validazione in laboratorio”, segnala lo stesso centro, sottolineando l’importanza di contare sui supercalcolatori per accorciare i tempi per lo sviluppo di farmaci. Questa crescente importanza è nota a Dell Technologies, che detiene una quota importante del mercato dei server Hpc, seconda solo a Hpe.

 

Supercomputer e Intelligenza artificiale: l’unione fa la crescita

Nel complesso, il comparto industriale dei supercalcolatori continua a crescere: le vendite di server Hpc nella prima metà del 2019 sono ammontate a 6,7 miliardi di dollari, mentre nel 2018 sono cresciute del 15% secondo Hyperion. Undici società del calibro di Facebook e Microsoft hanno speso più di un miliardo di dollari ciascuna per le infrastrutture It nel 2018; tre hanno speso più di 5 miliardi di dollari e una, Google, ha infranto la barriera dei 10 miliardi di dollari di spesa, secondo Intersect360 Research.

Il sempre più frequente ricorso all’intelligenza artificiale per risolvere problemi concreti ha fatto sì che l’intero settore dei supercomputer aumentasse esponenzialmente: secondo un report recentemente pubblicato da Hyperion Research, il comparto Hpc globale dovrebbe crescere del 7,1% entro il 2023, superando il valore di 39,2 miliardi di dollari, mentre si calcola che il mercato Ai basato su server Hpc possa crescere di oltre il 29% dal 2018 al 2023, toccando i 2,7 miliardi di dollari nel 2023. Ma già oggi il 51,2% dei server Hpc (sempre secondo Hyperion Research) è acquistato dalle aziende. Sono proprio loro ad aver compreso che per poter competere in modo efficace, hanno bisogno di adottare supercalcolatori che li possano aiutare nel progettare e realizzare nuovi prodotti, riducendo i costi di sviluppo e i tempi di commercializzazione.

Filippo Ligresti, Vice Presidente & General Manager Dell Technologies Italia

Progettazione e simulazioni sono processi che richiedono notevoli capacità di calcolo: per ridurre drasticamente i tempi, sempre più imprese stanno valutando l’ipotesi di un supercomputer per risolvere le loro esigenze. Diverse lo hanno già fatto: Dallara, per esempio, ha recentemente investito in un sistema di high-performance computing per avere modelli 3D, Cfd e Fea sempre più precisi ed elaborati in poco tempo. La stessa Commissione europea ha avviato il progetto European High-performance computing joint undertaking (EuroHpc Ju) per sviluppare un’infrastruttura di supercalcolo paneuropea, acquistando e installando nell’Ue tre supercalcolatori che saranno tra i primi cinque al mondo e almeno altri cinque che si collocherebbero nella top 25 mondiale per l’utenza privata e pubblica europea, sia scientifica che industriale, per l’utilizzo in più di 800 settori di applicazione scientifica e industriale. L’intento del progetto è sostenere le attività di ricerca e di innovazione, sviluppando un ecosistema europeo di supercalcolo, stimolando un comparto industriale di fornitura tecnologica e mettere a disposizione di un gran numero di utenti pubblici e privati, comprese le piccole e medie imprese, risorse di supercalcolo in molti settori applicativi.

Data analytics, Hpc e intelligenza artificiale sono tecnologie progettate per sfruttare al meglio il valore dei dati. Nonostante siano state a lungo trattate come tecnologie separate, esse stanno convergendo, poiché il settore comincia a comprendere che data analytics e artificial intelligence sono essenzialmente entrambe questioni legate ai Big Data che richiedono servizi di elaborazione potenti e scalabili, rete e storage forniti dal supercomputer.

«Ai e Big Data sono assetate di computing ad alta specializzazione. Per alcuni carichi di lavoro le capacità dei server tradizionali dotati di sole Cpu non è adeguata. Da tempo e sempre più spesso si utilizzano le Gpu che consentono prestazioni rivoluzionarie. È possibile usare un numero inferiore di server di calcolo che se dotati di queste unità di elaborazione grafica risultano molto più potenti. Si garantiscono tempi più rapidi per l’analisi dei dati e notevoli riduzioni dei costi. A seconda del workload se ne possono usare da una a 16 in un solo server. Mediante test, confronti e benchmark identifichiamo il tipo e il numero ideale per ogni applicazione d’uso. Le Gpu ad alto parallelismo sono perfette, per esempio, in campi come l’esplorazione petrolifera, l’elaborazione di immagini medicali e diagnosi, modelli finanziari ed economici, e tanti altri», sottolinea Roselli. Non è un caso che il principale centro di ricerca Dell dedicato all’innovazione sia intitolato proprio a supercomputer e artificial intelligence.

La multinazionale propone una serie di soluzioni su misura: Dell Emc Ready Solutions for Hpc e Ai, progettate per la raccolta dati, con svariati campi di impiego. Si va dalla ricerca scientifica, per carichi di calcolo quali genomica, proteomica, chimica computazionale, alla creazione di modelli sul meteo e sul clima, le geoscienze e il settore petrolifero; sistemi creati per il digital manufacturing (analisi strutturale, tra cui fluidodinamica computazionale, rumore/vibrazione ed elettromagnetica) fino a sistemi progettati per carichi di lavoro quali sicurezza informatica, sorveglianza e gestione delle emergenze.

 

Supercomputer e Intelligenza artificiale: investimenti e un centro ad hoc

Dell Hpc Eni

Dell Technologies investe quasi 5 miliardi di dollari in ricerca e sviluppo per le tecnologie e le soluzioni end to end. «In ambito Hpc e Ai, in particolare facciamo investimenti molto importanti – rileva Roselli – Abbiamo un laboratorio dedicato ad Austin, in Texas: il Dell Technologies Hpc & Ai Innovation Lab, dove lavorano i massimi esperti di settore». Qui vengono sviluppati i casi d’uso per i clienti. Esso comprende un data center di 13mila metri quadrati per l’informatica ad alte prestazioni e per l’intelligenza artificiale. Ospita migliaia di server, un cluster – Zenith – inserito nella Top500 dei supercomputer più potenti al mondo, una vasta gamma di sistemi di storage e di rete. Il Lab è gestito da un gruppo dedicato di informatici, ingegneri ed esperti in materia che collaborano attivamente con i clienti e altri membri della comunità Hpc. Il team ottiene e fornisce accesso anticipato a nuove tecnologie, integra e sintonizza i cluster, le applicazioni di riferimento, sviluppa al meglio e ne pubblica i risultati.

«Molti clienti sono interessati ad Ai però affrontano un problema complesso, nuovo, su cui spesso non hanno competenza e che comporta rischi di tempi lunghi, risultati incerti e investimenti onerosi. L’ecosistema Ai, machine learning, deep learning è estremamente frammentato, orientarsi è una sfida non priva di rischi. Nel nostro Lab testiamo le tecnologie più avanzate, le confrontiamo nell’uso specifico del cliente e sviluppiamo le soluzioni migliori. Abbiamo così definito le Hpc e Ai Ready Solutions che danno una risposta concreta alle esigenze di chi deve gestire l’infrastruttura HW e di chi deve analizzare grandi quantità di dati. Le soluzioni includono hardware, ma anche software, framework e library: soluzioni complete per semplificare la vita a It staff e data scientist». Una piattaforma unica permette ad entrambi di svolgere i propri compiti, collaborando al meglio.

«Abbiamo osservato una tematica ricorrente: gli It manager hanno il problema di dover mettere a disposizione elevate capacità di calcolo per i data scientist e si trovano a fronteggiare il problema di risorse hardware non facilmente reperibili, che richiedono test, valutazioni e installazioni complesse. I data scientist a loro volta vogliono concentrarsi sui task di elaborazione dati e sui risultati, non hanno competenze sull’infrastruttura ma vogliono poter accedere in autonomia alle risorse di calcolo. Grazie alle nostre soluzioni end to end diventa possibile amministrare i cluster di data science come un’unica entità, utilizzando hardware, sistema operativo, big data e software di deep learning da un’unica interfaccia».

Inoltre, gli esperti di Hpc e Ai Dell Emc sono innovatori e collaboratori attivi nella community tecnica mondiale dedicata allo sviluppo dell’High performance computing e dell’intelligenza artificiale. Le applicazioni sono numerose e gli esempi concreti realizzati con le soluzioni Dell Technologies non mancano: Mastercard sta utilizzando l’intelligenza artificiale per proteggere i clienti dalle frodi; Caterpillar sfrutta veicoli a guida autonoma per il settore minerario; alla Simon Fraser University, gli scienziati localizzano i virus attraverso il DNA per combattere e trattare le epidemie più velocemente. E ancora: il Lincoln Laboratory Supercomputing Center del Mit ha ridotto il tempo necessario per le analisi da due a 10 volte. Non manca neppure un esempio italiano: l’Università di Pisa, che sta utilizzando tecnologie di apprendimento approfondito di Dell per il sequenziamento del Dna.

 

Supercomputer e Intelligenza artificiale: la proposta di Dell, dal server allo storage

Dell Hpc Eni

L’infrastruttura Dell di High performance computing comprende una gamma completa di soluzioni flessibili e scalabili per le organizzazioni di ogni dimensione, con workstation, server e storage appositamente realizzati per gestire ogni use case. Si parte dai server e network: i modelli PowerEdge con Cpu Intel o Amd contano su funzionalità all’avanguardia e sono personalizzabili in ogni singola componente Cpu, Nic, Gpu, Hba a livello di singolo nodo e più nodi interconnessi ai massimi livelli con soluzioni Mellanox\Infiniband ed Ethernet di ultima generazione, per allinearsi alle applicazioni di apprendimento automatico e approfondito rese possibili dall’Intelligenza artificiale.

Una parte altrettanto importante sono le soluzioni di storage. I carichi di lavoro di Hpc e di intelligenza artificiale sono molto diversi da quelli dell’elaborazione di impresa e richiedono prestazioni nettamente superiori e a più elevata velocità. Da qui la necessità di storage, adatti a supportare questo tipo di elaborazione. La multinazionale statunitense propone soluzioni su misura come “Ready Solutions for Hpc Storage”: erogate con hardware, software e supporto di Dell che diventa così il single point of contact per il cliente. Ogni sistema è basato sullo sviluppo e sul tuning portati a termine nel Dell Hpc and Ai Innovation Lab. Queste specifiche soluzioni “eliminano le congetture e i rischi delle configurazioni ‘fai da te’, eliminando i problemi di interoperabilità e migliorando la qualità del servizio”, spiega l’azienda.

Michael Dell, fondatore e ceo di Dell

Si parlava in precedenza della necessità di ridurre i costi in modo che questa tecnologia sia accessibile a una clientela più ampia. Le soluzioni Dell Emc Ready Solutions for Hpc consentono di soddisfare le esigenze di capacità e prestazioni con vantaggi interessanti in termini di costi complessivi di gestione. Innanzitutto, i server, lo storage e il networking Dell Emc sono basati su standard di settore e non su tecnologie proprietarie, sono per questo più accessibili ed estremamente personalizzabili. Inoltre, le soluzioni pre-configurate, testate e ottimizzate riducono i costi di pianificazione e implementazione. A completare l’offerta ci sono le tecnologie workstation Dell Precision dotate sempre delle ultime tecnologie Intel e Nvidia, offrono la possibilità di implementare e gestire piattaforme di tecnologia cognitiva, tra cui artificial intelligence, machine learning, deep learning.














Articolo precedenteStefano Venturi di Hpe: perché Digital Operation Manufacturing con Miraitek e Alfaproject.net
Articolo successivoHpc5, il nuovo (e velocissimo) supercervellone di Eni (con Dell)






1 commento

LASCIA UN COMMENTO

Per favore inserisci il tuo commento!
Per favore inserisci il tuo nome qui