Il dato? E’ il tassello su cui poggia l’intera rivoluzione industriale che stiamo vivendo in questo momento storico

di Filippo Astone e Marco Scotti♦ Intervista a Sergio Crippa, Hpe IoT e Industry 4.0 country manager

«Nel mondo tecnologico in cui viviamo, rendersi conto che i dati sono tanti è dirimente per qualsiasi azienda che voglia affrontare una transizione tecnologica e quindi rimanere competitiva. Ad esempio, per effettuare una semplice lettura di temperatura in una specifica data servono 32 byte ogni volta. Il che significa che in un anno si avranno 20 terabyte. Una quantità enorme di dati che ha bisogno di una duplice logica: edge e cloud. Con l’avvento del 4.0, i dati non nascono più nel datacenter, ma vicino a dove vengono generati.»

«Il concetto di dato, poi, è legato in maniera profonda a quello di real time. E quindi, per ora, la soluzione migliore da questo punto di vista è l’edge. Ma tutte queste parole, senza un approfondito discorso a proposito della cybersecurity, diventano inutili. Ora che tutto è connesso, è necessario prendere coscienza del fatto che la prospettiva si ribalta: l’attacco non è più una possibilità, ma una certezza. Bisogna imparare a proteggersi sapendo che qualunque dispositivo può fungere da porta d’accesso». Sergio Crippa, Hpe IoT e Industry 4.0 country manager, spiega in un’approfondita intervista a Industria Italiana perché il dato è il tassello su cui poggia l’intera rivoluzione industriale che stiamo vivendo in questo momento.







 

Sergio_Crippa_HPE
Sergio Crippa, Hpe IoT e Industry 4.0 country manager

 

Il dato in edge

L’imperativo categorico di Hpe resta fermo: una buona dose dell’attività di elaborazione dei dati generati dai macchinari industriali debba essere svolta on edge, cioé vicino agli stessi. Questo perché il concetto stesso di datacenter è cambiato e oggi i dati non convergono più da un unico punto ma vengono generati in diversi luoghi. «Quando si lavora su un concetto di raccolta dei dati dal campo – spiega Crippa – bisogna cambiare approccio rispetto al passato. Prima avevamo dati che provenivano tutti dalla stessa sorgente, che era l’informatica. Poteva trattarsi di un ordine, di una transazione, o di una riga da aggiungere al database. Con l’avvento del 4.0, invece, i dati non nascono più nel datacenter, ma vicino a dove vengono generati.»

«Edge non vuol dire altro che luogo, posto. Può essere la fabbrica o può essere in mobilità tramite telefonino. Questa nuova modalità di generazione dei dati va di pari passo con un altro concetto, che è quello di real time. Si vuole raccogliere e analizzare i dati in tempo reale, perché se succede qualcosa durante la fase produttiva è fondamentale intervenire subito sul macchinario per evitare il blocco della produzione. Quindi: il concetto più corretto è “neartà“, ovvero la crasi tra near e real time. Due temi che si sposano male, almeno per ora, con il cloud, che ha ancora tempi di elaborazione troppo lunghi per questo tipo di esigenze. Troppo spesso dimentichiamo che le moli di dati sono veramente enormi dal punto di vista del peso in byte: ogni numero intero è 8 byte. Se si vuole tenere nota della temperatura di un motore e della data stiamo parlando di 20 terabyte di spazio necessario ogni anno.»

«Per analizzare un volume di dati così mastodontico serve un’infrastruttura collegata all’edge. Occorre quindi un server, che è la prima parte. La seconda, invece, riguarda il lavoro di backend e di analisi comparativa dei dati analitici. Non più real time, questa volta, ma a livelli diversi per vedere il funzionamento dei singoli componenti in un sistema complesso. Insomma è indispensabile una rete funzionante e funzionale: bisogna rifare l’intera infrastruttura delle fabbriche perché sono state progettate almeno 10 anni fa (in realtà, molte sono ancora più vecchie, ndr), quando il volume di traffico era infinitamente inferiore. E tutto questo, ovviamente, deve essere “condito” dalla cybersecurity, che deve garantire che tutti i dispositivi connessi non si trasformino in potenziali vettori per le infezioni provenienti dall’esterno».

 

Server di HPE
Server Hpe

Le soluzioni per il manifatturiero

Hpe propone una serie di soluzioni per il manifatturiero che vanno dai software con elevata capacità computazionale fino alle soluzioni di intelligenza artificiale, passando per deep e machine learning per fare il training di tutti i dati raccolti. Proprio la raccolta e la lavorazione del dato sono i due passaggi fondamentali per la manifattura. «In questi momenti – aggiunge l’ Hpe IoT e Industry 4.0 country manager – è fondamentale la collaborazione con chi crea i macchinari, i sensori e le reti e con chi invece realizza i software. Solo in questo modo la raccolta dei dati può essere efficace per le esigenze di quella singola fabbrica. Non è un caso che abbiamo partecipato recentemente al Forum del Software industriale, perché noi forniamo la parte hardware su cui questi software devono girare, e il dialogo tra le diverse componenti è fondamentale. Così come è fondamentale capire che è necessario fare quattro diversi passaggi a seconda delle esigenze: edge, core, datacenter e cloud. Non esiste una sola soluzione, ma un mondo ibrido che noi di Hpe abbiamo sempre raccontato come nostro mantra».

Il mondo ibrido

Hpe è l’azienda pioniera nella sostegno del cloud ibrido come più aderente ai bisogni reali delle aziende. La flessibilità del cloud con la sicurezza della localizzazione del dato on premise viene garantita tramite soluzioni di Flexible Capacity. Hpe può installare tutta la capacità richiesta – anche per i momenti di picco – nei data center del cliente, facendo pagare solo a consumo. In un’ottica che si rivolge al manifatturiero, la digitalizzazione dei processi di produzione nelle fabbriche e negli impianti produttivi crea numerosi vantaggi, ma le applicazioni tradizionali sono spesso complesse e difficili da modernizzare.

«Il mondo è ibrido – prosegue Crippa – ci sono tanti use case che determinano il fatto che le informazioni possono essere processate in maniera differente a seconda che vengano elaborate nel cloud o sul server. Analizzare terabyte di dati in millisecondi non è per ora un’operazione che possa essere svolta in cloud, a causa della latenza. Al contrario, se c’è un solo dato da analizzare, per di più in un determinato momento della giornata, il cloud è lo strumento perfetto. Sembra una banalità, ma le moli di dati sono enormi e devono essere trattate in maniera corretta. E anche la cybersecurity rimane un tema di grande importanza da tenere in considerazione».

 

Hpe-Synergy

Edge e IoT

Secondo quanto affermato dalla società di ricerche Idc, la spesa mondiale in IoT arriverà nel 2021 a 1,4 trilioni di dollari, mentre per il 2017 ci si attestava a 800 miliardi; gli investimenti più significativi interesseranno aree come produzione industriale, trasporti e utility. Le soluzioni messe a punto da Abb e Hpe vanno proprio in questa direzione, cercando di far funzionare i processi di acquisizione dati, analisi e controllo nelle vicinanze delle apparecchiature industriali per evitare problemi di latenza, sicurezza e affidabilità tipici dei sistemi IT remoti. «Per quanto riguarda l’edge – prosegue Crippa – abbiamo disegnato una linea di prodotti specifica. I datacenter sono stati creati per operare a determinate condizioni di temperatura, umidità e così via. Ma se sono in fabbrica, dove ci sono vibrazioni, urti, liquidi che si rovesciano e così via è necessario gestire la situazione. C’è bisogno di server diversi, che siano scalabili, che abbiano capacità di calcolo, ma anche Ip protection e gradi di protezione differenti per poter vivere in un ambiente esterno. Non solo: devono anche essere in grado di collegarsi con macchinari che non sono nativi It».

 

Hpe Edgeline EL8000 Converged Edge System

Unione fra It e Ot

Due mondi un tempo difficilmente conciliabili, oggi It e Ot stanno vivendo una fase di progressivo avvicinamento. I progetti di Industria 4.0 prevedono una convergenza tra questi due comparti, tanto che, secondo Crippa, «dal lato cliente è necessario che l’it manager e il direttore della produzione inizino a collaborare fattivamente per la realizzazione di progetti di Industria 4.0. Inoltre, è necessaria la compartecipazione con altri operatori, come nel caso dell’Iot, che devono loro stessi cooperare per raggiungere l’obiettivo di un completo ammodernamento della fabbrica in ottica 4.0. Hpe da sola non può riuscire a realizzare un progetto di industria 4.0, si tratta di creare un ecosistema che deve per forza essere il prodotto di una compartecipazione di diverse forze».

Le partnership

Molte le partnership attivate da Hpe, da Microsoft a Sap passando per l’italiana Elmec. Tre in particolare quelle da segnalare: quella con Siemens, quella con Eni e quella con Abb. «Dal punto di vista del networking industriale – ci spiega Crippa – abbiamo avviato una significativa collaborazione con Siemens. Un conto è collegare i macchinari, un conto è la raccolta dei dati e il trasferimento dei medesimi, anche perché con le politiche di cybersecurity il nuovo modello vincente sarà quello della collaborazione e non della rivalità».

 

Il Green Data Center di Eni di Ferrera Erbognone
Hpe ed Eni

La collaborazione tra Hpe e Eni ha l’obiettivo dell’implementazione del supercomputer commerciale più potente del mondo, in grado di raggiungere un picco di prestazioni pari a 18,6 Petaflop. Il nuovo supercomputer supporterà Eni nel processo di trasformazione digitale attraverso l’intera catena del valore – dalla fase di esplorazione e sviluppo dei giacimenti di petrolio e gas, alla gestione dei big data generati da tutti i beni produttivi. Denominato HPC4, è in grado di quadruplicare la potenza dell’intera infrastruttura già esistente rendendola la più potente al mondo a livello industriale e, associata a quella del sistema di supercalcolo già operativo (HPC3), la porterà a raggiungere una disponibilità di potenza di picco pari 22,4 Petaflop, vale a dire 22,4 milioni di miliardi di operazioni matematiche svolte in un secondo. Installato presso il Green Data Center di Eni di Ferrera Erbognone il sistema ospita l’intero ecosistema di algoritmi sviluppati internamente dall’Eni.

Hpe e Abb

Per quanto concerne l’accordo con Abb, l’obiettivo è portare intelligenza all’interno degli impianti industriali, basandosi sulle soluzioni di hybrid IT di Hpe. In questo modo le aziende potranno avere a disposizione soluzioni in grado di generare insight pratici da un’enorme quantità di dati industriali, allo scopo di aumentare l’efficienza e la flessibilità delle operazioni. La partnership tra le due aziende consentirà di ricavare insight approfonditi e azioni automatiche dai dati industriali, accelerando l’elaborazione di enormi quantità di dati; gestire e controllare i processi industriali attraverso la supply chain, facendo leva sull’hybrid IT per permettere l’accesso ai dati critici a qualsiasi livello, dall’edge al cloud fino al core. Inoltre, nell’ottica di uno sviluppo dei data center, Abb e Hpe hanno messo a punto due soluzioni: una di automazione, che consente ai sistemi di alimentazione degli edifici dei data center di adattarsi automaticamente a incidenti o variazioni delle esigenze IT; la seconda consente un’ottimizzazione dei processi ed è elaborata appositamente per portare una capacità IT di livello enterprise nel punto di raccolta dati e controllo macchina.














Articolo precedenteNuovamacut racconta l’era digitale
Articolo successivoBest Airport 2019: in Italia vince Venezia. Singapore sempre il migliore scalo al mondo






LASCIA UN COMMENTO

Per favore inserisci il tuo commento!
Per favore inserisci il tuo nome qui