Supercomputing, la killer application per industria e progresso. Con Hpe

di Renzo Zonin ♦︎ Cray Frontier è l’unico supercomputer al mondo capace di eseguire un quintilione di operazioni al secondo. Realizzato da Hewlett-Packard Enterprise con Amd e l'Oak Ridge National Lab, è il primo hpc classe Exascale. Grazie alla formula as a service GreenLake for Hpc, è accessibile alle imprese. Tutte le novità all’Hpe Discover 2022

Hpe Cray Perlmutter

«In Hpe siamo convinti che ogni business, ogni istituzione, ogni organizzazione dovrebbe puntare su Hpc, Ia e analytics su grande scala per garantire al nostro pianeta un futuro di progresso e prosperità». Parola di Justin Hotard, head of Hpc & AI business unit di Hpe. Sui temi del supercomputing, o High Performance Computing, e dell’Ia il dibattito si è ravvivato di recente, a seguito della presentazione ufficiale del primo supercomputer classe Exascale, il Cray Frontier realizzato da Hpe in partnership con Amd e l’Oak Ridge National Lab, il laboratorio di ricerca del Dipartimento dell’Energia Usa dove la macchina è stata installata. Si tratta dell’unico computer al mondo capace di eseguire un quintilione di operazioni al secondo. Ora, come diceva un noto spot pubblicitario, la potenza è nulla senza controllo. E parafrasando, potremmo dire che la potenza è nulla se poi non la possiamo mettere a terra perché manca il software capace di sfruttarla, quello per gestire il sistema, e magari anche il know-how e gli skill necessari per mettere in piedi l’infrastruttura. Fortunatamente, non è questo il caso, anzi.

Per quanto riguarda il software, i supercomputer sono pensati ormai principalmente per far girare carichi di lavoro basati su intelligenza artificiale, analytics di big data, modelli previsionali di sistemi complessi (dal clima ai mercati finanziari). Hpe, oltre a fornire il software di base per la gestione della macchina e dei suoi workload, ha in atto collaborazioni con vari partner per lo sviluppo di workload ottimizzati. Inoltre, collabora attivamente con comunità di sviluppatori impegnati nella realizzazione di una base software Open Source da inserire nello stack di soluzioni per il supercomputing. Quali saranno quindi gli utilizzi di queste macchine? Il nuovo livello di prestazioni permesso dai sistemi di classe Exascale apre nuovi orizzonti nella simulazione sempre più accurata di sistemi complessi, nelle relative previsioni, ma anche in settori quali l’analisi massiva dei dati (per esempio nel settore medicale) e soprattutto nel Machine Learning, nel Deep Learning e nell’Intelligenza Artificiale.







E se fino a oggi gli utilizzatori principali erano scienziati e ricercatori impegnati nella scienza pura, adesso l’allargamento della disponibilità di questa tipologia di macchine, che sono ottenibili anche tramite formule As a Service (GreenLake for Hpc) mette anche le aziende in condizione di poter contare sui supercomputer, sia per i loro reparti di R&D, sia per impieghi più ordinari, come succede per esempio con gli assistenti vocali realizzati con software di intelligenza artificiale che stanno sostituendo i tradizionali call-center. Di tutto questo e molto altro si è parlato durante una sessione dedicata al rapporto sempre più stretto fra supercomputing e intelligenza artificiale, dalla quale abbiamo preso spunto per i contenuti di questo articolo. La sessione si è tenuta nel contesto di Hpe Discover 2022, l’evento globale di Hewlett Packard Enterprise che ha visto riuniti in presenza a Las Vegas, per la prima volta dopo la pandemia, gli uomini di Hpe, le aziende partner e i clienti. Per il Discover di quest’anno Hpe ha fatto le cose in grande, organizzando parecchie decine di sessioni sui temi della leadership, dell’innovazione e su svariate tematiche tecnologiche. Una selezione delle sessioni più importanti è disponibile, on demand, sul sito di Hpe, all’indirizzo HPE Discover 2022 On-Demand | HPE.

Hpe nell”elite del supercomputing mondiale

Hpe Cray Lumi, il supercomputer più veloce in Europa e terzo nel mondo, capace di 550 Petaflops e basato su Cray EX con Cpu Amd Epyc e Gpu Amd Instinct, ottimizzate per deep learning e in grado di favorire impieghi nel modeling, nella simulazione, negli analytics e nell’Ai. Installato in Finlandia, oggi è usato da enti pubblici e privati per la ricerca& sviluppo nelle aree dell’healthcare, delle previsioni meteo, e dell’Intelligenza Artificiale

Nella lista Top500 l’Hpe Cray EX235A battezzato Frontier ha debuttato direttamente al primo posto, con 1,1 Exaflop di performance rilevate. Per far capire il salto in avanti delle prestazioni di questa macchina, basti pensare che da solo produce un terzo della capacità di calcolo complessiva generata dagli altri 499 supercomputer. Del resto, il supercomputing è un settore nel quale Hpe ci ha abituato a risultati notevoli. E non ci aspetteremmo di meno da un’azienda nella quale sono confluiti, negli anni ,grandi nomi come quello di Digital Equipment (entrato con l’acquisizione di Compaq) o di Cray. Frontier, oltretutto, è solo la punta dell’iceberg. Lo scorso maggio, Hpe ha annunciato il completamento del supercomputer Lumi, il più veloce in Europa e terzo nel mondo, capace di 550 Petaflops e basato su Cray EX con Cpu Amd Epyc e Gpu Amd Instinct, ottimizzate per deep learning e in grado di favorire impieghi nel modeling, nella simulazione, negli analytics e nell’Ai. Installato in Finlandia, oggi è usato da enti pubblici e privati per la ricerca& sviluppo nelle aree dell’healthcare, delle previsioni meteo, e dell’Intelligenza Artificiale.

E da qualche mese è operativo anche il supercomputer Adastra (numero 10 in classifica) realizzato per Genci-Cines in Francia. Come le altre due macchine appena citate, è basato sul Cray EX235A, con Cpu Amd Epyc 64C e Gpu Instinct MI250X. Le varie unità sono interconnesse tramite Slingshot-11. «Avevamo già il numero 7 della lista , quindi in totale oggi abbiamo 4 macchine nelle prime 10 posizioni – spiega Hotard – Il numero 7 è Perlmutter, un Cray EX235n usato dal National Energy Research Scientific Computing Center e installato a Berkeley, California. Ma non bastano le prestazioni, serve anche l’efficienza energetica. Frontier è 3,3 volte più efficiente del numero 2 della Top500. In effetti, i supercomputer Hpe sono i più efficienti della Top 500. tanto che nella lista Green500 dei sistemi più efficienti, occupano i primi 4 posti». «Frontier arriverà in futuro a sviluppare 2 Exaflop – ha detto Thomas Zacharia, direttore dell’Oak Ridge Lab. Questa macchina cambierà il mondo, dalla medicina alla biologia, dalla scienza dei materiali al deep space, dal cambiamento climatico alla transizione energetica. Agli Oak Ridge Labs lavoriamo sui più complessi problemi che l’umanità deve affrontare»

Un progresso esponenziale

Hpe Cray Frontier

Questi livelli di prestazioni impressionano anche gli addetti ai lavori, perché l’incremento degli ultimi anni, in particolare da quando hanno iniziato a prevalere le architetture massivamente parallele che permettono di assemblare macchine a partire da hardware standard, è stato veramente rapidissimo. «Solo 13 anni fa eravamo nella regione dei Petaflop – conferma Hotard – la macchina che ha installato Oak Ridge 10 anni fa era 50 volte più lenta di Frontier. Arrivare a produrre macchine come Frontier è stato come lo sbarco sulla luna, ed è stato fatto in tempo di pandemia e con una crisi logistica globale. Ha richiesto lo sviluppo di tecnologie innovative in tutti i comparti, dai processori alle interconnessioni, ed è una vera pietra miliare per l’industria informatica. Tutto ciò è importante, al di là di Frontier, perché entriamo in una nuova era, l’era dell’Exascale. Che è la frontiera dell’Eta dell’Insight. Frontier è un nuovo modo di concepire l’Hpc, è molto adatto a compiti di machine learning e artificial intelligence, e rappresenta per noi un ponte verso la soluzione di problemi di tipo quantistico».

Supercalcolo e grandi problemi

Un computer come Frontier è, in un certo senso, una macchina del tempo. Può modellare tutte le fasi della vita di un reattore nucleare. Può far girare un modello climatico con grande accuratezza su tempi lunghissimi. Può integrare immagini satellitari praticamente in tempo reale, aiutando a identificare cambiamenti a livello ambientale che possono influenzare nel breve periodo i raccolti. Può aiutare a capire gli effetti a lungo termine del ciclo dell’anidride carbonica, una cosa importante per tentare di risolvere i nostri problemi con il clima. Inoltre, Frontier non è solo pensato per i compiti tradizionali degli Hpc. Esso ci dà la possibilità di creare, per la prima volta, macchine veramente intelligenti. Potremo studiare la genesi delle malattie, creare medicine e cure molto mirate, attivare assistenti virtuali che apprendono continuamente dalle loro interazioni con gli esseri umani, e abilitare lo sviluppo di navi e aerei realmente autonomi. «Già adesso i clienti usano i nostri Hpc per risolvere i più complessi problemi di oggi – racconta Hotard – estendono le previsioni del tempo su lunghi periodi, scoprono nuove fonti di energia rinnovabile, predicono l’andamento dei mercati finanziari, e prevengono le crisi economiche. Per Hpe è importante collaborare con i clienti, perché sono loro che risolveranno questi problemi difficili e cambieranno il mondo con le nostre macchine».

Exascale Computing Initiative: le killer application del supercomputing

Doug Kothe, associate Lab director for Computing and Computational Sciences Directorate all’Oak Ridge National Lab, nonché direttore del Progetto Exascale Computing

Exascale Computing Initiative è un progetto del Dipartimento per L’Energia, partito nel 2016. «Il progetto punta a creare le killer app per il supercomputing – spiega Doug Kothe, associate Lab director for Computing and Computational Sciences Directorate all’Oak Ridge National Lab, nonché direttore del Progetto Exascale Computing – Ci sono 24 applicazioni che mostreranno a tutti cosa possiamo fare con queste macchine. In particolare, puntiamo a risolvere i grandi problemi legati all’energia. Il progetto dovrebbe essere completato nel giro di un paio d’anni. Stiamo anche creando uno “stack” di software Scientifico, in questo caso l’Extreme Scale Scientific Software Stack (E4S), che comprenderà circa 100 librerie e prodotti dei quali le nostre app necessitano per simulare i fenomeni». Tutte le informazioni e i materiali relativi a questo progetto si possono trovare qui.

Un computer di frontiera

Fra le app che per prime verranno fatte girare su Frontier ci sono quelle che indagano sul cambiamento climatico. «Con Frontier possiamo cominciare ad esaminare i fenomeni con maggiore precisione, includendo anche cose che prima ritenevamo trascurabili e quindi non modellavamo, in quanto dovevamo scendere a compromessi con il modello in base alle capacità di calcolo di cui disponevamo, nell’ordine dei terascale, o dei petascale – ammette Kothe – Ora, con l’Exascale, possiamo decidere di includere il calcolo di determinate variabili, e potenzialmente arrivare a risolvere il comportamento delle nuvole». Che è un problema molto più concreto di quanto possa sembrare. «Al Dipartimento dell’Energia facciamo studi di modelli climatici da almeno 40 anni- prosegue Kothe – Dobbiamo modellare gli oceani, l’atmosfera, le terre, gli iceberg eccetera, per poi collegare il tutto e capire cosa succederà fra 10, 20 o 100 anni. I nostri computer quindi fanno girare decine di simulazioni, da 10 a 100 insieme, diventando davvero una sorta di “macchina del tempo” e provando vari scenari su cosa dobbiamo fare, come nazioni, rispetto a temi come la carbon footprint eccetera. A oggi, le incognite più importanti di queste simulazioni sono le nuvole, che portano il calore dall’equatore ai poli, e quindi dobbiamo “risolverle”. Ma con i sistemi Petascale, riusciamo a simulare blocchi di un paio di chilometri di atmosfera, mentre per le nuvole dobbiamo scendere a livello di pochi metri. I sistemi Exascale ci permettono questo, simuliamo a livello della singola nuvola o quasi, e quindi abbiamo previsioni molto più affidabili. Un altro esempio è quando calcoliamo le interazioni fra l’oceano e l’atmosfera. C’è una fascia di una decina i metri in cui interagiscono e dove avviene lo scambio di CO2 fra aria e acqua, ma non riusciamo con le macchine Petascale a risolvere quello strato. Con gli Exascale invece potremo studiare come l’oceano cattura la CO2 e potremo dare indicazioni molto più precise a chi deve fare le leggi sull’argomento. C’è ancora molto lavoro da fare, ma stiamo realizzando un modello climatico che girando su Frontier riteniamo farà la differenza».

Non è pura speculazione accademica

Antonio Neri, ceo Hpe

Chi pensa che si tratti di studi puramente accademici, è fuori strada. Prevedendo gli sviluppi climatici sul lungo termine, è possibile migliorare le decisioni in molti comparti. Per esempio, l’agricoltura potrebbe essere indirizzata verso coltivazioni che risultino compatibili con l’evoluzione climatica e la disponibilità d’acqua prevista per determinate zone. Altra possibilità è adeguare la progettazione delle infrastrutture all’evoluzione climatica prevista per una regione. È recente il caso della rete ferroviaria inglese, dove molte linee sono andate in tilt a causa dell’ondata di caldo che recentemente interessa l’Europa e anche la Gran Bretagna, con temperature superiori ai 40 gradi per diversi giorni. Cosa che ha portato alcuni sistemi elettronici di controllo linea a surriscaldarsi, ma anche alcune rotaie a deformarsi per il calore imprevisto.

Un’altra infrastruttura che beneficerà del supercalcolo è quella della rete di distribuzione elettrica. Con l’arrivo di centinaia di migliaia di microstrutture di produzione (impianti solari, eolici, eccetera) e con il collegamento di milioni di auto elettriche la sera per la ricarica, le necessità di distribuzione cambieranno radicalmente e gli algoritmi di gestione della rete andranno reinventati. Il sistema dovrà essere molto più adattivo di oggi, e questo si può ottenere solo impiegando intelligenza artificiale e machine learning. Con il deep learning, che gira sui supercomputer, si potranno analizzare gli enormi set di dati che riguardano produzione e consumi, per realizzare i modelli e da qui gli algoritmi di Ia che dovranno gestire in modo ottimale l’infrastruttura, letteralmente “prevedendo” quanta energia verrà generata da ogni impianto, quanta ne verrà consumata dai vari utilizzatori nelle varie fasce orarie, eccetera.

«Su infrastrutture di questo livello di complessità, è impossibile per un umano creare un modello che permetta di simulare in modo corretto tutte le variabili in gioco – puntualizza Kothe – È per questo che serve l’intelligenza artificiale, la macchina è in grado di analizzare le enormi quantità di dati e “scoprirne” le correlazioni, elaborando quindi un modello tramite il quale procedere a fare simulazioni e previsioni. Potremo simulare per esempio il guasto di una grossa centrale e vedere come reagirebbe la rete, e quali azioni andrebbero intraprese per stabilizzare il sistema». Allo stesso modo, si potranno simulare altri sistemi complessi: dai mercati finanziari alle filiere di fornitura delle merci, fino alle “smart cities“. Tutti sistemi che fino a oggi venivano simulati in modo molto approssimativo, per l’enorme quantità di dati in gioco, l’impossibilità di eseguire tutti i calcoli su singoli sistemi, e la necessità di svelare correlazioni non immediatamente individuabili dalla mente umana.

Supercomputing e Intelligenza Artificiale anche per le startup

Jonas Andrulis, fondatore e Ceo di Aleph Alpha

«Sono rimasto impressionato, dal fatto che oggi è disponibile una nuova generazione di modelli in grado di fare cose che fino a tre anni fa erano ritenute impossibili da me e da tutti i ricercatori con cui ho parlato – ha detto Jonas Andrulis, fondatore e Ceo di Aleph Alpha, startup tedesca impegnata sulle tecnologie ‘AI di frontiera – Oggi abbiamo sistemi AI che sono in grado di capire la parola umana, il linguaggio, il nostro mondo in un modo che pensavamo fosse al di là di ogni possibilità. Questo segnerà una nuova generazione di interazioni uomo-macchina, ed è nostro compito quello di far sì che questo futuro sia il migliore possibile. Collaboriamo con Hpe perché questi algoritmi, questi modelli con cui lavoriamo hanno bisogno di enormi quantità di dati, di enormi quantità di potenza di calcolo. Inoltre volevamo costruire la nostra infrastruttura hardware sulla quale far girare i nostri modelli, e quindi avevamo bisogno di un partner che non fornisse solo il bare metal ma una collaborazione end to end». Tra l’altro, essendo Aleph Alpha una startup, la spesa per dotarsi di un’infrastruttura hardware con un acquisto “tradizionale” sarebbe probabilmente stata fuori dalla loro disponibilità. Invece, con GreenLake l’infrastruttura viene pagata “a consumo”, eliminando la necessità di un proibitivo investimento iniziale.

Il “prodotto” di Aleph Alpha si potrebbe definire in prima approssimazione un language model, ma in realtà è molto di più: è un sistema multi-linguaggio e multi-modale, che è in grado di interpretare, o “leggere tra le righe”, un testo, estraendone il significato come farebbe una persona. Un esempio fatto dal Ceo è quello della tipica “mappa del tesoro”. Il sistema è in grado di capire cosa è scritto nella mappa, di rispondere a domande sul contenuto, e può anche spiegare dov’è il tesoro. Ora, noi tutti, avendo visto tutti i film della serie “Pirati dei Caraibi”, sappiamo che il tesoro è invariabilmente indicato sulla mappa da una grande “X” rossa. Ma come può saperlo il computer? Ebbene, lo sa proprio perché questo modello, esattamente come il cervello umano, ragiona basandosi sul contesto. Una cosa che fino a non molto tempo fa era impossibile per l’Ai. Una dettaglio molto interessante è che il sistema di Aleph Alpha è “naturalmente” multilinguaggio. Questo perché nella fase di ingestione ha potuto leggere un enorme numero di testi in varie lingue e ha quindi “interiorizzato” ciò che fa funzionare una lingua umana. La quale è costruita per veicolare tutto ciò che vogliamo comunicare, tutte le nostre conoscenze, tutto ciò di cui ci importa come singoli ma anche come società. Il linguaggio “trasporta” la nostra conoscenza, e il sistema di Aleph Alpha, leggendo milioni di testi, ha potuto capire tutto questo. Tanto che non solo risponde correttamente nella lingua in cui è interrogato, ma – conoscendo i contesti, i valori e la cultura – se per esempio chiedo di parlare di sport senza specificare quale, il modello mi parlerà di calcio, o baseball in base alla lingua nella quale la domanda è stata formulata.

«Ogni lingua veicola un diverso set di valori e cultura, per questo non possiamo pensare di effettuare il training di modelli di questo tipo sulla sola base di dataset in inglese – spiega Andrulis – la rivoluzione dell’intelligenza artificiale deve arrivare in tutti i Paesi, anche in quelli piccoli, e in Europa ne abbiamo molti. Stiamo entrando in una nuova fase del rapporto uomo-macchina. In passato, le macchine lavoravano in modo rigido, if-then-else, query, campi da compilare, e noi abbiamo imparato a lavorare nel linguaggio delle macchine. Ora le macchine stanno imparando il nostro modo di esprimerci e lavorare, ed è veramente una nuova generazione di collaborazione uomo-macchina. Oggi abbiamo modelli AI collegati a una knowledge base aziendale: la documentazione interna, magari la casella di email. Il modello ha letto tutto e quindi potete fargli domande, o dirgli di fare delle cose relativamente a ciò che ha letto. In futuro, si prevede che entro il 2030 avremo sistemi di Transformative AI, definiti come modelli capaci di eseguire circa la metà di quello che oggi chiamiamo lavoro d’ufficio. Questo trasformerà radicalmente il modo in cui useremo le informazioni e in cui interagiremo con i sistemi». Tutto ciò dunque avrà un impatto altissimo sulla vita delle persone e sul modo di concepire il lavoro. Secondo Hotard, «le stime dicono che entro il 2030 l’Intelligenza artificiale contribuirà al Pil globale per 15,7 trilioni di dollari». Per questo, l’Ia non sarà più un optional, o un fattore di vantaggio competitivo: sarà una tecnologia necessaria a ogni azienda che voglia restare competitiva sul proprio mercato.

Risolvere il problema della disponibilità del supercalcolo

Trish Damkroger, chief product officer Hpc and AI business unit di Hpe

Secondo Trish Damkroger, chief product officer Hpc and AI business unit di Hpe, fino a non molto tempo fa i supercomputer erano poco disponibili, magari installati presso grandi laboratori statali, istituzioni scientifiche, e non erano alla portata di tutte le aziende. Col tempo, i supercomputer erano diventati più comuni, ma sfruttare la loro potenza di calcolo rimaneva difficile. Il problema era la mancanza di una soluzione completa, un “full solution stack”. Non si tratta semplicemente di fornire dell’hardware, ma di dare anche l’expertise necessaria per abbreviare il tempo necessario al cliente per arrivare a delle risposte, per velocizzare il processo che porterà un prodotto sul mercato, per completare una ricerca scientifica. L’esigenza quindi è che il fornitore risolva le problematiche rapidamente e che possa consegnare la soluzione dall’Edge al Cloud, al Data Center, all’Hybrid. «Molti clienti hanno grandi necessità computazionali all’Edge, e non sanno come risolvere il problema. Hpe lo sa fare» afferma Damkroger, che prima di entrare in Hpe si occupava dei supercomputer al famoso Livermore Lab.

Gli esempi di problematiche che richiedono potenza all’edge sono molti. Uno è il mercato finanziario. «Le banche usano la loro griglia di calcolatori per realizzare le simulazioni con le quali preparano i portfolio di azioni, obbligazioni e altri strumenti finanziari destinati ai loro analisti – dice Damkroger – poi, di notte, usano le stesse macchine per tenere la contabilità. Un altro esempio è quello dei call center. C’è ancora molta strada da fare, ma già oggi molti usano il Natural Language Processing al fine di migliorare la customer experience. Nel settore delle bioscienze, c’è chi ha usato le nostre soluzioni di supercalcolo per la Cryo-EM (microscopia crioelettronica), per velocizzare la ricerca sui vaccini anti-covid o per cercare cure e trattamenti efficaci contro malattie diffuse a livello globale». Tra l’altro, l’identificazione della proteina Spike del virus Covid è stata fatta proprio su un supercomputer Hpe, che l’ha mappata in pochi minuti.

Fornire la soluzione completa

A fronte di tanti utilizzi diversi, il punto focale per Hpe è sempre quello di fornire non una macchina ma una soluzione completa, che comprenda anche gli strumenti che servono al cliente per arrivare più rapidamente ai risultati, permettendo di usare l’Ai in modo più rapido e produttivo. Un esempio di questi strumenti è il sistema di “Swarm Learning“. «La cosa importante è che lo Swarm Learning è un modo per raggruppare le informazioni ma contemporaneamente proteggerne la privacy – spiega Damkroger – Un caso tipico è quando viene usato da un ente sanitario, che può inviare i dati delle cartelle cliniche per accelerare la ricerca sull’Alzheimer o sul cancro, proteggendo contemporaneamente la privacy dei pazienti. Un altro esempio è quello delle istituzioni finanziarie, che possono usare i dati dei loro clienti allo scopo di proteggersi dalle frodi, sempre mantenendo la loro privacy. Sono solo un paio di esempi ma chiariscono come poter usare tecnologie Ia e di Swarm Learning all’edge consenta ai nostri clienti di risolvere più rapidamente questi problemi».

Ma forse, fino a oggi, il problema che più preoccupava gli aspiranti utilizzatori dei supercomputer era il loro costo, di acquisto e di esercizio. Oggi, questo problema è risolto dalla formula GreenLake. «In Hpe abbiamo anche GreenLake for Hpc – conferma Damkroger – Potete scegliere il bare metal, portare specifici workload che volete esaminare, magari volete usare cryo-EM o d3VIEW per le simulazioni di crash, insomma ci sono tante possibilità di soddisfare le proprie necessità pagando solo il proprio workload. E questa è anche un’ottima soluzione se non disponete di risorse Hpc in-house: per acquisire gli skill necessari serve tempo, e questo è quindi un buon modo di provare il sistema e vedere se è proprio quello che vi serve. Un’altra cosa cui teniamo molto è lo sviluppo di un ambiente software Open Source, pensiamo sia importante e vogliamo che gli sviluppatori lavorino con noi. Crediamo che insieme si possa fare molto per far progredire la scienza. L’Oak Ridge Lab è un esempio, lì abbiamo una importante community di sviluppatori che lavora con noi».

La combinazione di una disponibilità elevatissima di potenza di calcolo e di software di Ia in grado di sfruttarla per “capire” meglio l’essere umano cambierà molto il panorama dell’utilizzo delle tecnologie digitali nei prossimi anni. «L’era dell’Exascale ci spingerà nella Nuova Età degli Insight – conferma Hotard – Quello che stiamo facendo in Hpe è di combinare i più potenti computer con grandi progressi nell’Ai e nell’Hpc. Questo porterà a grandi conquiste. Ma questo non succederà se non ci saranno grande collaborazione e co-innovazione. È qualcosa di più dell’essere aperti, è mettersi insieme e creare nuove partnership. E in Hpe siamo convinti che il progresso e l’innovazione verranno solo se collaboriamo. Per questo sosteniamo l’Open Source, contribuiamo agli standard, e cerchiamo sempre nuovi modi per continuare a farlo. E su questo tema aspettatevi degli annunci nei prossimi mesi».

(Ripubblicazione dell’articolo pubblicato il 26 luglio 2022)














Articolo precedenteCloud e Smart Working: così Project Informatica punta al mezzo miliardo di fatturato
Articolo successivoInvestimenti, assunzioni e… che cosa vuole fare Oracle in Italia?






LASCIA UN COMMENTO

Per favore inserisci il tuo commento!
Per favore inserisci il tuo nome qui