Hpe compra Cray ed entra a gamba tesa nel supercalcolo

di Renzo Zonin ♦︎ La multinazionale americana vuole essere presente in modo importante in tutti i segmenti del trattamento dei dati, dai server (di cui è leader mondiale) ai grandi computer. In gioco c'è il mercato dell'high performance computing as-a-service, cruciale per l'industria

Dopo l’acquisizione di Sgi nel 2016, Hpe continua a investire sul supercalcolo e mette nella sua bacheca un altro pezzo pregiato: Cray, diretta discendente dell’azienda, fondata da Seymour Cray, che negli anni ‘70 ha fatto la storia dell’high performance computer con macchine come Cray-1, Cray-2 e Cray X-MP. Nata come Cray Research, l’azienda venne acquisita da Sgi nel 1996 e poi rivenduta a Tera Computer che in seguito si ribattezzò Cray. Ora, Sgi e Cray sono di nuovo unite sotto il tetto di Hpe, che per averla ha sborsato 1,4 miliardi di dollari.

Tutto questo movimento in un comparto apparentemente di nicchia potrebbe sembrare strano. La realtà, però, è che il supercalcolo è sempre meno un segmento di nicchia riservato a laboratori di ricerca nucleare o istituti di meteorologia, e sempre più una tecnologia fondamentale per un numero sempre maggiore di aziende. Alle macchine Hpc vengono infatti assegnati compiti strettamente legati alle esigenze della trasformazione digitale e dell’industria 4.0. Ne abbiamo parlato con Stefano Venturi, Presidente e Amministratore Delegato di Hpe in Italia.







«Con l’acquisizione di Cray abbiamo chiuso il cerchio – ci ha detto Stefano Venturi Presidente e Amministratore Delegato Hewlett Packard Enterprise Italia e Vice President Hewlett Packard Enterprise Inc – Da diversi anni ci siamo consolidati sempre più come leader nelle piattaforme di elaborazione dei big data e nello sviluppo di soluzioni Artificial Intelligence. Dovendo correlare eventi eterogenei con dati sempre più numerosi e non strutturati, i nostri clienti ci chiedono due cose: alcuni vogliono dei supercomputer estremamente potenti, come gli exascale; altri, medi e medio grandi, vogliono invece delle piattaforme Hpc per elaborare i dati provenienti dalla sensoristica o dai loro stessi clienti. Dobbiamo, quindi, continuare a sviluppare non solo le tecnologie di punta per creare data center più evoluti, ma anche quelle soluzioni che permettono ai nostri clienti di accedere al supercalcolo in modo economicamente sostenibile. Per esempio, attraverso algoritmi di intelligenza artificiale che ottimizzano il calcolo e correlano meglio gli elementi».

Stefano Venturi, Presidente e Amministratore Delegato di Hpe Italia

Il collegamento fra il trattamento dei big data o dei data lake e il supercalcolo non è forse immediato, ma lo diventa se pensiamo che il vero problema dei big data non è la memorizzazione, con i costi dei sistemi di storage ormai a livelli bassissimi, bensì il trattamento in tempi rapidi di queste enormi quantità di dati, realizzabile solo con i moderni supercomputer a struttura massicciamente parallela. Perché è quello il punto focale: i dati, finché rimangono seppelliti nei sottosistemi storage, non creano ricchezza. È solo analizzandoli, correlandoli ed elaborandoli che assumono un valore. Che può consistere nella possibilità di prevedere per tempo possibili guasti di una linea di produzione, o di individuare dei pattern riproducibili in sequenze apparentemente casuali, o ancora di alimentare una rete neurale per addestrare un sistema di machine learning. E questo comporta un’altra cosa: il supercalcolo richiede competenze molto sofisticate, tanto che la risorsa fondamentale dei maggiori player del settore non è tanto l’hardware in sé, quando le risorse umane, i ricercatori e gli ingegneri che hanno affrontato i problemi hardware e software e hanno sviluppato il know-how per risolverli.

Data center di Hpe
Data center di Hpe

«Quando facciamo acquisizioni come questa, non compriamo solo hardware, ma anche software avanzati, know-how e ingegneri – conferma Venturi – tanto è vero che il ceo di Cray, Peter Ungaro, guiderà la business unit di High Performance Computing e Artificial Intelligence in Hewlett Packard Enterprise. Noi crediamo che la vera innovazione non sia acquisire un brand e dei pezzi di hardware, ma assorbire dei talenti e delle competenze, valorizzandoli. Il vero valore aggiunto di questa acquisizione sono proprio le persone che entrano a far parte della squadra di Hewlett Packard Enterprise. Possiamo affermare che oggi siamo già leader di quel mercato, in cui Cray rappresenta la punta più avanzata, contribuendo a rafforzare la nostra posizione».

Peter Ungaro, ceo di Cray

 

Verso l’Exascale

Quell’ancora di più possiamo intenderlo in molti modi. Sicuramente la complementarietà delle offerte Hpc di Hpe e di Cray permetterà alla divisione Hpc di rivolgersi a un range più esteso di tipologie di clienti, e di offrire un portfolio allargato di soluzioni a una clientela che spazierà dalle grandi aziende alle università, dagli istituti di ricerca alle utenze governative. Ma ancora di più vuol dire anche puntare con decisione alla realizzazione di computer di classe Exascale, la prossima grande sfida del supercalcolo. Cray ha appena vinto la gara per i primi tre sistemi Exascale che verranno installati negli Usa.

In questa videointervista rilasciata a Industria Italiana Stefano Venturi spiega il concetto di economia delle idee

Il mercato, del resto, è in crescita rapidissima. Si calcola che l’intero comparto dell’Hpc, che l’anno scorso valeva 28 miliardi di dollari, arriverà nel 2021 a pesare circa 35 miliardi di dollari, fra macchine, storage e servizi, con una crescita intorno al 9% annuo. Il segmento top, quello degli Exascale, si stima raggiungerà i 4 miliardi di dollari entro il 2024. Anche perché nel frattempo si assisterà a un fenomeno di drop-down: la tecnologia Cray Shasta usata nel supercomputer governativo El Capitan, l’Exascale che verrà installato nei Lawrence Livermore National Laboratory, sarà presto fondamentale anche per aziende di ogni tipo e dimensione che hanno bisogno di estrarre il valore intrinseco nascosto nei loro big data. Proprio la necessità di eseguire sofisticate analytics, machine learning, e di usare l’Ai saranno dunque il propulsore della domanda di supercomputing nei prossimi anni.

Cray Shasta supercomputer. Fonte Cray

 

Il programma Greenlake

Naturalmente, anche se i costi dell’Hpc si stanno abbassando, ancora per molto tempo saranno poche le aziende che potranno permettersi di acquistare una macchina classe Exascale. Hpe potrebbe però avere una soluzione a questo problema, rappresentata dal programma Greenlake, una sorta di pay-per-use.

La sede di Hpe a Cernusco sul Naviglio

«Greenlake è un progetto ancora più ampio e strategico, – ci spiega Venturi – che riguarda il consumption based model, ovvero il modello di fruizione di infrastrutture tecnologiche a consumo. Ci sono clienti che preferiscono utilizzare il cloud: in questo caso forniamo ai cloud provider le tecnologie. Altri, la maggior parte, vogliono la potenza di calcolo presso le proprie strutture, preferendo però pagare solo quello che consumano. È qui che si inserisce Greenlake: non è un noleggio o un leasing, ma un programma di servizio disponibile per diverse tipologie di infrastrutture, tra cui quelle di High Performance Computing. Grandi clienti – come Yoox – non utilizzano supercomputer, ma grandi data center: proprio grazie a Greenlake riescono a pagare esattamente quello che consumano, evitando costi di infrastrutture non utilizzate a pieno regime. Questo aspetto è importantissimo anche per chi inizia una nuova attività, spesso frenato dagli investimenti iniziali richiesti in mancanza di un business consolidato. Se noi di HPE forniamo loro una piattaforma in grado di consentirgli di pagare per quello che consumano, sarà sicuramente per tutti una opportunità di crescita».

In questa videointervista rilasciata a Industria Italiana Stefano Venturi spiega l’impegno dell’azienda per fornire gli elementi abilitanti della data driven economy alle imprese, gli investimenti sull’edge e il ruolo innovativo degli Innovation Lab

Quindi, come ha commentato Philip Davis, Presidente in Hpe della divisione Hybrid IT (della quale fa parte la business unit Hpc), l’offerta di supercalcolo dell’azienda comprenderà HPC-as-a-service e Analytics per intelligenza artificiale/machine learning attraverso Greenlake, un portfolio completo end-to-end di infrastrutture Hpc capace di soddisfare l’intero spettro delle esigenze dei clienti sull’elaborazione data-intensive, e molto altro. «Mi aspetto che la nostra offerta fra computer, storage, connettività, software e service non sarà seconda a nessuno nel business» ha concluso Davis.

Antonio Neri, ceo di Hewlett Packard Enterprise













Articolo precedenteCyberoo: domanda per quotazione sull’indice Aim di Borsa Italiana
Articolo successivoAl via Spin di Invitalia dedicato alle Pmi innovative del Meridione






LASCIA UN COMMENTO

Per favore inserisci il tuo commento!
Per favore inserisci il tuo nome qui