Data center, Hpe e Nrel insieme per migliorare efficienza operativa e sostenibilità

Hewlett Packard Enterprise e il National Renewable Energy Laboratory collaboreranno a un progetto di R&D su Ai Ops per ottimizzare i centri di elaborazione dati

Un progetto in grado di sviluppare nuove tecnologie che impatteranno sulla prossima era dell’innovazione con l’exascale computing e le relative esigenze operative, che si concentri sull’intelligenza artificiale e sul machine learning per l’automazione e il perfezionamento dell’efficienza operativa – compresi resilienza e consumi energetici – nei data center.

È questo l’obiettivo della collaborazione tra Hewlett Packard Enterprise e il National Renewable Energy Laboratory (Nrel) del Dipartimento di Energia statunitense (DoE), che si concentrerà sulla ricerca e sviluppo di soluzioni AI Ops. L’iniziativa rientra nella mission del Nrel quale leader nelle tecnologie per l’efficienza energetica e le energie rinnovabili, per la creazione e implementazione di nuovi approcci alla riduzione dei consumi di energia e all’abbattimento dei costi operativi.







«Abbiamo la passione di sviluppare nuove tecnologie che impatteranno sulla prossima era dell’innovazione con l’exascale computing e le relative esigenze operative – ha dichiarato Mike Vildibill, vice president dell’Advanced Technologies Group di Hpe – Siamo convinti che il nostro percorso verso lo sviluppo e i test AI Ops con Nrel, uno dei nostri partner storici più innovativi, permetterà al settore di creare e mantenere data center per supercomputing più efficienti e smart continuando a scalare potenza e prestazioni».

Hpe e Nrel dispongono di dati raccolti in oltre cinque anni per un totale di più di 16 terabyte raccolti dai sensori presenti nei supercomputer Nrel, Peregrine ed Eagle, e nella propria facility per addestrare i modelli di rilevamento delle anomalie allo scopo di prevedere e prevenire i problemi prima che si verifichino. La collaborazione affronterà anche il futuro dei consumi di acqua ed energia all’interno dei data center, consumi che solamente negli Stati Uniti raggiungeranno rispettivamente i 73 miliardi di kWh e 174 miliardi di galloni (circa 660 miliardi di litri d’acqua) entro il 2020. Hpe e Nrel si concentreranno sul monitoraggio dei consumi energetici per ottimizzare l’efficienza e la sostenibilità misurata da parametri come PUE (Power Usage Effectiveness), WUE (Water Usage Effectiveness) e CUE (Carbon Usage Effectiveness).vI primi risultati ottenuti dai modelli basati sui dati storici sono riusciti a prevedere o identificare con successo eventi già accaduti in passato all’interno del data center Nrel, dimostrando quanto possa essere promettente l’impiego dell’analytics predittiva nei data center del futuro.

«Siamo entusiasti di collaborare con Hpe – ha commentato Kristin Munch, manager del Data, Analysis and Visualization Group del National Renewable Energy Laboratory – in questa iniziativa pluriennale e contiamo di poter creare le condizioni per un data center smart e avanzato dopo averne dimostrato le tecniche nel nostro data center attuale». Il progetto AI Ops è scaturito dal lavoro di ricerca e sviluppo di Hpe nell’ambito di PathForward, un programma sostenuto dal Dipartimento statunitense dell’Energia per accelerare la roadmap tecnologica nazionale in direzione dell’exascale computing, che rappresenta il prossimo grande balzo nel campo dei supercomputer. Hpe si è resa conto della necessità di sviluppare capacità di automazione e AI per poter gestire e ottimizzare gli ambienti data center exascale. Applicare operazioni basate su AI a un supercomputer exascale – che lavorerà a velocità un migliaio di volte superiori rispetto a quelle dei sistemi attuali – permetterà di rendere le operazioni efficienti dal punto di vista energetico e migliorare le caratteristiche di resilienza e affidabilità per mezzo di capacità automatiche e smart.

Il progetto si avvarrà di software e librerie open source come TensorFlow, NumPy e Sci-kit per sviluppare algoritmi di machine learning. Il progetto si concentrerà sulle seguenti aree: monitoraggio (raccolta, elaborazione e analisi di enormi volumi di dati relativi a IT e facility da fonti diverse prima dell’applicazione degli algoritmi ai dati in tempo reale);  analytics (tecniche di big data analytics e machine learning saranno utilizzate per analizzare i dati da diversi tool e dispositivi all’interno di tutto il data center); controllo (saranno applicati algoritmi per permettere alle macchine di risolvere i problemi autonomamente oltre che per automatizzare intelligentemente attività ripetitive ed effettuare manutenzione predittiva sia sull’IT sia nella struttura del data center); operazioni di data center (AI Ops evolverà per diventare un tool di convalida per le attività CI (Continuous Integration) e CD (Continuous Deployment) delle funzioni IT base presenti nella struttura di un data center moderno).














Articolo precedenteEx Ilva: pronto il piano del Governo, protagonista l’impresa pubblica
Articolo successivoMike Manley numero uno di Acea






LASCIA UN COMMENTO

Per favore inserisci il tuo commento!
Per favore inserisci il tuo nome qui