I segreti dei data center sottomarini di Microsoft

di Marco Scotti ♦ Meno consumi energetici, minor impatto ambientale, rapido accesso ai dati: si può fare, sottacqua. Nel mare delle isole Orcadi, con il progetto Natick, prosegue la sperimentazione per verificare la convenienza di localizzare al largo delle coste i centri per custodire gli archivi di dati, le struttura fisiche su cui poggia il cloud computing

L’idea è tanto semplice quanto innovativa: installare e gestire datacenter sott’acqua, diminuendo l’impatto ambientale e riducendo la necessità di energia. È questo il cuore del progetto Natick, una rivoluzione che Microsoft ha iniziato a sperimentare nel 2015 e che ora, dopo una prima tranche di test andata a buon fine, sta vivendo la fase due nelle Isole Orcadi. Si tratta di un progetto che prevede che l’intera alimentazione dei datacenter avvenga attraverso energie rinnovabili, in particolare quella eolica e delle maree, per provare a risolvere uno dei temi più “spinosi” dei moderni server: quello dell’impatto ambientale e della loro robusta fame di energia. «All’inizio – racconta in esclusiva a Industria Italiana Ben Cutler, il responsabile del progetto – anche io ero un po’ sbalordito: ma come, mi dicevo, costruire dei datacenter sott’acqua con tutte le difficoltà che un procedimento di questo tipo può comportare? In realtà, la collaborazione tra industria tecnologica e navale è piuttosto antica. Basta pensare al comparto dell’oil&gas, dove si fanno estrazioni fino a 3.000 metri di profondità. Noi, al confronto, stiamo realizzando qualcosa di molto più “semplice”, dato che ci spingiamo, almeno per ora, fino a 36 metri sotto il livello del mare».

 







L’involucro del data center sottomarino

Il progetto

Project Natick nasce con l’intento di garantire accesso rapido ai dati, ottimizzare i costi e ridurre l’impatto ambientale. Per questo motivo si è scelto il mare: perché la oltre metà della popolazione vive entro i 200 km dalla costa. Pensare di abbandonare i tradizionali datacenter per produrne di nuovi, tendenzialmente più vicini – e quindi più rapidi nel fornire risposte, abbassando i tempi di latenza – è stato il motore che ha fatto muovere Microsoft. Nel 2015 è stata avviata la Fase 1 uno del progetto, è stata verificata la fattibilità di questa idea e, al contempo, sono stati testati i requisiti minimi di sicurezza. I primi test sono stati svolti a un km dalla costa pacifica statunitense. Con la Fase 2, invece, il team monitorerà il funzionamento del datacenter e ne valuterà la praticabilità da un punto di vista economico, ambientale e logistico.

«La fase uno – spiega Cutler – era indirizzata fondamentalmente a verificare che un datacenter potesse effettivamente essere immerso nell’acqua. E la risposta è stata positiva. Adesso ci spingiamo decisamente oltre: per almeno un anno ci concentreremo per capire se possano essere stipati in questo datacenter 864 server. Il problema principale, una volta accertata la fattibilità è di tipo economico: conviene davvero proseguire su questa strada? Noi ovviamente siamo convinti di sì, ma dobbiamo verificarlo sul campo. Al momento il datacenter si trova a una profondità di 36 metri, ma potremo arrivare fino a 40 metri senza dover ricorrere a strumentazioni particolarmente costose. In un secondo momento potremo arrivare fino a 100 metri. La cosa particolare è che non prevediamo manutenzione on-site: i datacenter verranno lasciati in mare per cinque anni e solo allo scadere di questo periodo di tempo li faremo emergere per effettuare qualsiasi tipo di intervento». Alla fase due dovrà poi far seguito una Fase 3, quella di sperimentazione finale, sulla quale però Cutler ancora preferisce non sbilanciarsi: «Siamo molto concentrati sul futuro – afferma – ma adesso è fondamentale pensare alla seconda fase».

 

Una fase della posa sotto la superficie marina

Impatto ambientale e minore consumo

Uno dei problemi che si stanno rendendo sempre più di attualità in relazione agli enormi datacenter che monitorano e gestiscono i miliardi di dati che ogni secondo transitano attraverso di loro riguarda l’inquinamento ambientale e l’energia necessaria per alimentarli. Project Natick intende offrire una risposta con datacenter che, immersi, possano beneficiare di energia rinnovabile ed essere raffreddati in modo maggiormente ecologico. «I datacenter – spiega Cutler – al momento non sono esattamente affidabili per la rete elettrica. Inoltre sono soggetti a elevati sbalzi di temperatura, generando una produzione di calore che è elevatissima. Infine, altro dettaglio da non trascurare, i datacenter inquinano, generano polveri sottili che vengono immesse nell’atmosfera e possono causare danni anche piuttosto rilevanti. In mare invece tutto questo non succede. Prima di tutto, perché la temperatura a cui operano è incredibilmente bassa: stiamo parlando di 10 gradi in meno della superficie, oltretutto con una maggiore stabilità rispetto al paradigma tradizionale. Ancora: i datacenter tradizionali hanno gravi problemi di corrosione che, tramite il raffreddamento ad acqua, vengono totalmente eliminati. Per quanto riguarda il consumo energetico, i datacenter tradizionali consumano fino a 1,8 PUE, mentre quelli marini possono fermarsi a 1,07».

Con PUE si intende il rapporto tra la potenza totale assorbita dal datacenter e quella usata dal solo apparato IT. La misura ottimale di riferimento definita con 1 sta a indicare che tutta l’energia assorbita dall’impianto viene utilizzata per gli apparati IT. In base alle valutazioni del consorzio Green Grid, il valore medio attuale di PUE per i data center in tutto il mondo si aggira intorno a 1,8, ad indicare che in consumi energetici non-dedicati all’impianto IT (come il condizionamento degli ambienti, l’illuminazione, le perdite energetiche, ecc.) sono mediamente pari all’80% del valore PIT, ovverosia a circa il 45% della potenza complessivamente assorbita dal data center.

Il data center che presenta il valore di PUE più basso (1,08, consumi non-PIT pari a circa il 7,5% di PT) appartiene a Yahoo! ed è stato costruito nelle vicinanze delle Cascate del Niagara, dunque in condizioni climatiche particolarmente favorevoli, ma è comunque possibile costruire data center che presentino valori di PUE particolarmente bassi anche in ambienti meno idonei e con costi di realizzazione non superiori a quelli di data center con valori di PUE più alti, come dimostrerebbe il data center “Merlin”, costruito da Capgemini a Swindon (tra Londra e Bristol) in una ex-cartiera, che presenta un valore di PUE pari a 1,1 (consumi non-PIT pari a circa il 9% di PT).

 

Le isole Orcadi: uno dei pochi luoghi sulla Terra in grado di garantire l’intero fabbisogno energetico della popolazione attraverso energie rinnovabili

Perché nelle isole a nord della Scozia

La scelta delle Isole Orcadi, a nord della Scozia, per avviare la seconda fase del progetto non è ovviamente casuale. Si tratta infatti di uno dei pochi luoghi sulla Terra in grado di garantire l’intero fabbisogno energetico della popolazione attraverso energie rinnovabili, in particolare tramite eolico. Durante il periodo di sperimentazione alle Orcadi il team di Microsoft si misurerà quindi con le esigenze energetiche dei datacenter e con la compatibilità delle risorse provenienti dalle rinnovabili. Una volta concluso anche questo passaggio, ci si sposterà nelle isole più a nord delle Shetland, che presentano condizioni particolarmente difficili. «Sappiamo – scherza Cutler – che se qualcosa che viene posto qui può sopravvivere, allora vuol dire che il nostro progetto è sufficientemente buono da poter essere impiegato ovunque». Nelle Orcadi è ospitata la sede del Centro di energia marittima europeo,  un sito di test per turbine che studia la possibilità di generare energia dalle correnti marine. In questo modo si sfruttano le onde – che abitualmente sono superiori a 3 metri e che possono arrivare fino a 20 nel caso di condizioni particolarmente turbolente.

La partnership con Naval Group

Elaborata la strategia e scelto anche il luogo in cui procedere alla seconda fase, era necessario che qualcuno procedesse alla posa dei cavi. «Microsoft – ricorda Cutler – è una IT company, non possiede delle navi che siano in grado di fornire la posa e la sistemazione dei cavi e del datacenter nelle profondità marine. Per questo abbiamo avviato un processo di selezione molto competitivo per trovare aziende che fornissero questo tipo di soluzione al posto nostro. Al termine di questo procedimento l’azienda aggiudicataria è stata Naval Group, anche perché è quella che ha una storia più solida e perché può contare su diverse divisioni, ognuno con una precipua specializzazione».

 

La messa a punto dei rack del datacenter sottomarino

Il fabbisogno di data center

In uno scenario in cui il cloud computing è sempre più utilizzato e rappresenta un driver di crescita economica, il ruolo dei datacenter diventa sempre più cruciale, soprattutto per le aziende che sono alla continua ricerca di soluzioni per lo storage dei dati in grado di garantire un alto livello di performance e che, al contempo, siano sostenibili dal punto di vista ambientale. «Quando ti trovi all’interno di una curva di crescita esponenziale, si può tranquillamente affermare che la maggior parte dei datacenter che costruiremo nella storia dell’umanità non sono ancora stati assemblati. Questo perché, secondo alcune proiezioni, è verosimile pensare che soltanto il 5% dei datacenter necessari siano già stati costruiti, mentre il restante 95% deve ancora essere pensato e realizzato». I datacenter sono la spina dorsale di internet, la struttura fisica su cui poggia il cloud computing.














Articolo precedenteEcco come l’intelligenza artificiale governera’ il mondo dei robot
Articolo successivoLeonardo: al via l’edizione 2018 del Premio Innovazione






LASCIA UN COMMENTO

Per favore inserisci il tuo commento!
Per favore inserisci il tuo nome qui