Macchine che svolgono compiti prima inconcepibili? Ci sono, e possono far guadagnare le aziende. Purche’…

hpe-machine-prototype-780x439

di Filippo Astone e Marco Scotti ♦ Bassoli (Hpe): digital transformation significa innovazione profonda di tutti i processi di business. E i data center hanno un ruolo chiave. I principali cambiamenti tecnologici e le strategie per sfruttarli

«Il problema che hanno oggi molte aziende è che il 70-80% dei costi è dedicato alla gestione ordinaria dell’infrastruttura tecnologica, mentre solo il 20-30% viene speso per creare innovazione. Il nuovo obiettivo è far sì che questa percentuale venga invertita completamente». La fotografia, puntuale, del mondo dell’IT applicato alle aziende (indipendentemente dalle dimensioni) è di Claudio Bassoli, Vice President HPE, che in una approfondita intervista ci ha raccontato come il momento che stiamo vivendo, di grande discontinuità tecnologica, stia portando a un repentino cambio di paradigma che si traduce in macchine «che fanno cose che prima non esistevano».

 







Claudio Bassoli, Vice President HPE

 

Dottor Bassoli, non è vero che la tecnologia è tutta uguale e siamo di fronte a un punto di svolta. Ma i consumatori se ne sono accorti?

Se ne accorgono eccome perché sono i primi fruitori di questi cambiamenti tramite le applicazioni che utilizzano quotidianamente. Questo avviene sia nella visione macro (auto a guida assistita, metropolitana che viaggia senza conducente) sia in una visione più “tascabile”, come nel caso della possibilità di avere sul proprio dispositivo in tempo reale fotografie o filmati di qualsiasi angolo dell’universo o come quando posso avere informazioni puntuali relative al luogo in cui mi trovo in questo momento.

Azioni che svolgiamo quotidianamente e che ci sembrano quasi scontate…

In realtà dietro a questo tipo di servizio ci sono delle aziende che cambiano i loro modelli di business e un’infrastruttura che sta cambiando in molto rapido, vivendo un momento di enorme discontinuità. Nell’IT ci si sta attrezzando per gestire una mole di dati che a breve sarà molto più grande di quella gestita nella storia dell’Information Technology. Servono quindi dei “contenitori” in cui inserire i dati in maniera più agile. D’altro canto, la capacità di elaborare queste informazioni attraverso applicativi che hanno bisogno di maggiore capacità computazionale costringe a rivedere l’intero processo. Una delle cose che la discontinuità tecnologica sta dando è innanzitutto la modalità con cui vengono costruiti i costi dell’IT. Oggi molte aziende dedicano il 70-80% dei loro budget alla gestione ordinaria o al “dialogo” tra le diverse applicazioni in modo che si scambino dati, mentre solo il 20-30% viene speso per creare innovazione, quella che dà valore aggiunto. Il nuovo tema, quindi, è far sì che questa percentuale venga completamente ribaltata, cioè che la gestione ordinaria di questa infrastruttura non dreni risorse, ma rimanga limitata.

Ci faccia un esempio di questa nuova visione dell’IT

Gliene posso fare molti. Pensiamo, ad esempio, quando scarichiamo delle app sugli smartphone: non ci poniamo neanche il problema che interagiscano tra loro e non siamo inclini a spendere né tempo né denaro perché questo avvenga. La tecnologia a monte permette questo dialogo. Basta pensare a LinkedIn che, “parlando” con le mail, è in grado di suggerirle gli utenti che potrebbe conoscere e con cui potrebbe essere interessato a creare un collegamento.

Come HPE, come vi state muovendo in questo rinnovato scenario?

Quello che stiamo facendo è offrire le tecnologie che permettano ai datacenter di ottimizzare le risorse e, al tempo stesso, forniamo infrastrutture che consentano di far interagire tra loro applicazioni in modalità open-source. Le tecnologie che forniamo sono sempre più potenti e più sicure, e fanno in modo che le app utilizzino in tempo reale le componenti di cui necessitano senza drenare risorse e senza l’utilizzo di personale deputato. Prendiamo ancora l’esempio dello smartphone: siamo abituati a scaricare app che poi “girano” sui nostri device. Ma non vanno tutte contemporaneamente: se ricevo una telefonata, gli altri programmi vengono rallentati, altrimenti avremmo un ritardo nella comunicazione. La tecnologia che stiamo portando all’interno dei data center offre ai clienti un cambiamento importante, per far sì che le applicazioni interagiscano con l’infrastruttura allocando le componenti di memoria, di storage e computazionali che servono, minimizzandole quando invece non servono più.

[boxinizio]

Dobbiamo completamente distruggere le barriere che si sono create tra un “silos” e l’altro  perché in questo modo si liberano risorse da investire nello sviluppo di nuove soluzioni tecnologicamente avanzate

[boxfine]

I datacenter hanno una complessità superiore o lavorano come se fossero dei potentissimi smartphone?

No, sicuramente la complessità è molto più alta, anche se i meccanismi di base sono simili. Uso l’esempio del telefonino perché è di impiego quotidiano, ma nei grandi datacenter le applicazioni possono essere nuove o trovarsi nel server da 10, 20 e perfino 30 anni. Dunque si deve dare al cliente garanzia di continuità e di interazione efficace. Questo tema va sotto il cappello della “Composed Infrastructure” che abbiamo lanciato l’anno scorso con HPE Synergy, la prima piattaforma di Composed Infrastructure. Si tratta del primo passo verso la rivoluzione della tecnologia dei datacenter, cioè The Machine. Alla base c’è una totale rifondazione nel modo di costruire la macchina: al centro infatti c’è una memoria unica, mentre oggi ne abbiamo di diverso tipo che però pongono un problema quando si vogliono analizzare in tempo reale grandi moli di dati. Prendiamo ad esempio l’analisi del rischio da parte delle banche. Per farlo c’è bisogno di impiegare una serie di computazioni che richiedono un certo tempo. Ma con la soluzione di The Machine noi siamo in grado di offrire un nuovo tipo di tecnologia di storage che consente di fare in pochi secondi quello che oggi si fa in decine di minuti e a volte perfino in giorni.

 

 

Hpe Synergy
Hpe Synergy
Ci spieghi meglio le peculiarità di Synergy

Ha da poco compiuto un anno e ha la sua forza nelle componenti intelligenti che permettono alla parte applicativa di poter interagire con l’infrastruttura in maniera automatica, autonoma e in tempo reale. Porta una riduzione significativa dei costi di gestione perché oggi questa attività viene svolta in modo oneroso, magari dovendo acquistare delle componenti software o hardware e, inoltre, non potendo contare sul tempo reale. Quando impiego delle componenti di memoria computazionale per queste attività, esse rimangono bloccate fino a che – manualmente – non le vado a sbloccare. Questo crea anche un problema per quanto riguarda il time to market: quando voglio lanciare delle nuove applicazioni c’è un tempo necessario per svolgere tutte le attività sull’infrastruttura sottostante. Con le nuove soluzioni infrastrutturali questo tempo si riduce. Generiamo quindi un vantaggio economico perché il cliente usa solo quello di cui ha bisogno e un vantaggio nelle tempistiche, perché rendo disponibile in tempo zero quello che prima necessitava di attese a volte anche molto lunghe.

[boxinizio]

La discontinuità è realizzare qualcosa che prima non c’era, rispondere a esigenze che finora sono state inevase

[boxfine]

Altri vantaggi di questa nuova piattaforma?

Ci sono degli enormi benefici nel momento in cui creo una nuova applicazione cloud-based con i linguaggi di programmazione più innovativi, ma anche nel momento in cui programmi sviluppati anni addietro vengono aggiornati come se fossero nuovi. Inoltre c’è un impatto sui modelli di business, perché la nostra visione, come abbiamo dichiarato a più riprese, è quello dell’hybrid IT. Esiste un mondo del cloud, nato negli ultimi anni, e anche un mondo on premise, ovvero quello fisico in cui il cliente immagazzina informazioni che preferisce tenersi vicino per logiche di riservatezza o di praticità. La nostra filosofia è ibrida perché noi forniamo al cliente una serie di soluzioni cruscotto che permettono di gestire contemporaneamente la parte in cloud e quella on premise. Dobbiamo completamente distruggere le barriere tra un “silos” e l’altro che si sono create perché distruggendo le barriere i miei soldi non vengono spesi per far parlare tra loro sistemi o applicazioni, ma anche perché in questo modo si liberano risorse da investire nello sviluppo di nuove soluzioni tecnologicamente avanzate.

E dal punto di vista dei dati?

Questo è forse l’aspetto più importante e più significativo. Distruggere le barriere posso gestire tutti i dati contemporaneamente, avendo una visione olistica. Oggi se ho delle informazioni che risiedono in diversi silos e voglio elaborarle insieme, devo avviare un processo che può essere lungo e oneroso e, in alcuni casi, perfino impossibile. Abbattere questi ostacoli mi consente di avere tutta la base di dati su cui lavorare contemporaneamente. Pensi alla comodità di poter capire perché sono cambiate le esigenze di clienti diversi che risiedono su silos differenti mettendo a fattor comune tutte le informazioni in mio possesso invece che dovendo lanciare una difficile “caccia al dato” che potrebbe rivelarsi infruttuosa. Anche dal punto di vista competitivo, chi riesce ad abbattere le barriere ha immediatamente un vantaggio rispetto a un competitor che non è così bravo a raccogliere i dati. E magari si può pensare di offrire alla clientela soluzioni più efficaci, aumentando il proprio giro di affari.

 

Dopo queste asserzioni, mi sembra quasi naturale chiederle che cosa sia per lei la discontinuità

Prima di tutto la necessità di avere infrastrutture tecnologiche avveniristiche, non del passato. Con l’intelligent edge che sta prendendo sempre più piede siamo abituati a gestire molti applicativi in mobilità, anche perché negli ultimi anni molti oggetti sono diventati digitali e permettono di poter ricevere e fornire informazioni su quello che l’oggetto fa durante la sua vita, cosa che in precedenza non era possibile fare. Se non si è in grado di raccogliere questi dati, non si ha la possibilità di capire le esigenze della clientela e si rischia di perdere possibilità di business. Il problema è che fino a qualche anno fa l’intelligent edge non c’era proprio, non è che non fosse sviluppato. Quindi per rispondere alla sua domanda, la discontinuità è realizzare qualcosa che prima non c’era, rispondere a esigenze che finora sono state inevase.

 [boxinizio]

Noi non stiamo solo dando più potenza, ma stiamo permettendo di fare qualcosa che prima non era possibile. Offriamo soluzioni che consentono di abbattere i costi e di essere molto più veloci nel rilasciare nuove applicazioni

[boxfine]

Una grossa mano alle imprese la può dare il pacchetto Industria 4.0 ?

È vero: se ho una fabbrica e la trasformo grazie agli incentivi previsti, sono in grado di raccogliere informazioni che prima non ero in grado di collezionare. Però, se non si è poi in grado di elaborare i dati raccolti, in realtà l’investimento in macchinari di ultima generazione è stato completamente inutile. Se manca una rete efficace per portare le informazioni dalle macchine al data center o per elaborarle sul campo, non posso ad esempio impiegare un’altra straordinaria tecnologia che genera discontinuità: la manutenzione predittiva. Oggi posso affrontare una gestione più oculata sui macchinari intervenendo direttamente sul pezzo problematico senza aspettare che si rompa definitivamente, mettendo in ginocchio la produzione. Certo però che una discontinuità tecnologica di questo tipo mette di fronte a nuove esigenze.

Ci può fare un esempio

La prima che mi viene in mente è quella della sicurezza. Se da un lato c’è la possibilità di raccogliere i dati in maniera più efficace, dall’altro bisogna avere reti affidabili, più difficili da penetrare. Da questo punto di vista anche oggetti già esistenti possono avere una funzione diversa. Pensiamo ad esempio alle telecamere di sicurezza. Fino a qualche anno fa non c’era modo di utilizzarle per capire qualsiasi tipo di evento se non ex-post. Di fronte a un evento, tendenzialmente grave, si chiedeva a un uomo di analizzare quella specifica telecamera per capire meglio che cosa fosse successo. Non sarebbe stato possibile, infatti, garantire un monitoraggio continuo di tutte le sorgenti. Oggi invece possiamo automatizzare l’intero processo e inviare alert nel momento stesso in cui si verifica un’anomalia.

 

HPE_Family_Frame001
La famiglia dei server ProLiant G10

 

 

Un altro esempio sempre in tema di sicurezza è quello dei server. A fianco di quelli tradizionali, che continuiamo a produrre, abbiamo introdotto anche una nuova generazione di server, i Gen10, che ci hanno consentito di aggiungere due componenti. La prima riguarda la cybersecurity: abbiamo introdotto un layer legato alla componente firmware della macchina, come una sorta di impronta digitale del firmware stesso. Chiunque voglia tentare un attacco viene immediatamente fermato anche se in possesso delle credenziali. L’altra innovazione che abbiamo introdotto è quella, in collaborazione con Intel, di realizzare chip più efficienti che abbassano il costo del singolo processo, consentendo al cliente di far firare più macchine virtuali con la stessa CPU, risparmiando cifre significative. In Aruba abbiamo inserito dei sistemi di intelligenza artificiale per garantire la sicurezza intrinseca della rete. Ci si protegge con tutti i vari software, ma se qualcuno ruba un’identità digitale può entrare nel sistema. Con i sistemi tradizionali questo non era evitabile, mentre con la sicurezza che possiamo garantire noi vengono studiati anche i comportamenti. L’intelligenza artificiale segnala eventi anonimi a un amministratore, il quale può decidere se si tratti di intrusioni, di normale attività o di altri eventi che necessitino un supplemento di verifiche. Questo prima non era possibile farlo, oggi invece sì. In questo modo, offriamo ai clienti e alle persone con cui lavorano una tecnologia completamente nuova.

[boxinizio]

Industria 4.0, a mio avviso, è stata ed è un’ottima legge e una grande opportunità, ma il rinnovamento deve essere a 360° sia sulle macchine di produzione, sia sui sistemi intelligenti che mi permettono di elaborare i dati

[boxfine]

Queste innovazioni sono soltanto di HPE o l’intero mercato dei server si sta muovendo in questo modo?

Il paradigma della centralità del dato e la possibilità di avere strumenti più efficienti è un tema che riguarda tutta l’industria, non soltanto HPE. Noi però su The Machine stiamo investendo da circa dieci anni, non è una cosa recente. La sua ideazione e realizza]zione è stata possibile grazie alla convergenza di diversi settori del R&D di HPE. Abbiamo fuso infatti componenti relative al silicio, al chip, alla fotonica, all’architettura della infrastruttura e alla memoria. Alla fine, siamo riusciti a mettere insieme silicio e fotonica, facendo in modo che la comunicazione non avvenga più tramite cavi tradizionali. Si tratta di un’innovazione tecnologica importante: tutto avviene tramite fasci di fotoni che portano a un aumento della velocità e a una riduzione dei costi industriali di gestione, anche perché la maggior parte dei problemi che insorgono nei server è legata proprio ai collegamenti. Abbiamo dato più capacità computazionale, più memoria, più spazio di disco, maggiore rapidità di raffreddamento. Inoltre, abbiamo introdotto anche un tema relativo al memory store, ovvero una nuova tipologia di memoria che andrà a sostituire la memoria centrale collegata alla CPU divenendo più persistente e immediatamente utilizzabile, non come avviene oggi con le memorie di massa come i dischi o le unità di backup.

In questo mondo interconnesso abbiamo sempre pensato che, soprattutto nell’hardware, sia difficile mantenere questo vantaggio competitivo. Un competitor può prendere la vostra tecnologia e realizzare qualcosa di simile, no?

In realtà no. È passato più di un anno da quando abbiamo annunciato Synergy e nessun competitor oggi è in grado di fare lo stesso. Quello che vediamo è che se si investe in tecnologia pura, si hanno vantaggi competitivi di anni, non di qualche mese.

Sfatiamo quindi un grande luogo comune della tecnologia. L’altro è che sia sostanzialmente una commodity…

Come ho già detto prima, stiamo vivendo un momento di discontinuità tecnologica: noi non stiamo solo dando più potenza, ma stiamo permettendo di fare qualcosa che prima non era possibile. Noi offriamo soluzioni che consentono di abbattere i costi e di essere molto più veloci nel rilasciare nuove applicazioni. Un circolo virtuoso che a sua volta permette di fare nuovi business o di offrire un migliore servizio rilasciando nuove applicazioni. Altri concorrenti impiegano gli stessi chip dei server Gen10, ma nessuno di loro offre le soluzioni che diamo noi.

 

HPE: The Machine

Torniamo a parlare del pacchetto 4.0: il tema dell’ammortamento e dell’iperammortamento vi aiuterà ad incrementare il vostro business?

La legge è sicuramente molto importante ed estremamente positiva per innovare e per progredire nella direzione di un’industria 4.0, facendo entrare la digitalizzazione nell’ambito delle fabbriche, dei servizi e della distribuzione non rimanendo indietro rispetto ad altri paesi. Da parte nostra c’è un grande interesse nell’innovare le componenti di produzione basiche: dobbiamo lavorare con un approccio olistico, facendo nascere la comprensione che è necessario ammodernare non tanto e non solo il macchinario, ma le infrastrutture che collegano le componenti rinnovate alla capacità elaborativa. Altrimenti il rischio è che le componenti nuove portino soltanto un beneficio limitato. Negli ultimi anni le aziende che hanno avuto successo e sono riuscite a superare la crisi sono quelle che hanno saputo rinnovarsi non solo nell’ambito della produzione, ma anche nella capacità di leggere i dati e di rispondere alle nuove esigenze dei mercati. Oggi possiamo offrire servizi eccezionali semplicemente imparando a gestire correttamente i dati. Se permette le farei un esempio personale…

Prego, sentiamo

La mia auto ha oltre 12 anni. Qualche tempo fa il produttore del mio veicolo mi ha inviato una mail (che è arrivata molto prima della raccomandata cartacea) in cui mi avvertiva che era stato scoperto un difetto strutturale dell’airbag lato passeggero. Per questo motivo avevano richiamato la mia auto. Ovvio che io mi ricorderò di quel brand, che naturalmente mi ha mandato quell’informativa per tutelarsi in caso di incidente. Ma loro sono stati bravi: hanno storicizzato una serie di dati e di problemi, l’auto l’ho acquistata usata ed era passata da più proprietari e loro sono stati in grado di seguire il flusso informativo dei dati. Industria 4.0, a mio avviso, è stata ed è un’ottima legge e una grande opportunità, ma il rinnovamento deve essere a 360° sia sulle macchine di produzione, sia sui sistemi intelligenti che mi permettono di elaborare i dati.

[boxinizio]

 Se si è rimasti fermi per molti anni ho solo una scelta: essere disruptive. Se invece c’è già stata negli anni precedenti una spinta innovativa, allora si può pensare di gestire il passaggio in maniera più graduale

[boxfine]

 

La Pubblica Amministrazione come sta vivendo questa discontinuità?

La PA ha un ruolo fondamentale nel rinnovamento dell’economia del paese, perché, date le sue dimensioni, nel momento in cui procede al cambiamento “trascina” dietro di sé anche altre realtà, dando uno stimolo a tutto il resto del paese. Dal nostro punto di vista vediamo che la pubblica amministrazione si sta muovendo a macchia di leopardo, con alcune zone all’avanguardia e altre un po’ ferme. Negli ultimi anni si sono succeduti molti annunci, come nel caso dell’agenda digitale. Penso però che il prossimo governo dovrà necessariamente mettere in pratica quanto finora è rimasto solo sulla carta. Serve un cambiamento radicale delle infrastrutture, per permettere lo sviluppo di nuovi servizi evoluti e sicuri. Un suggerimento è inserire nei capitolati di gara la necessità di utilizzare e predisporre tecnologie innovative.

Questo ritardo è dovuto a una mancanza di risorse?

Sinceramente non sono un esperto delle risorse necessarie per digitalizzare la PA. Ma con un po’ più di coraggio si può affrontare il procedimento con maggiore mordente e velocità.

 

Hpe Antonio-Neri
Il nuovo CEO Hpe Antonio Neri

Si parla tanto di digital disruption: a suo avviso l’introduzione di nuove tecnologie deve essere graduale o disruptive?

Dipende da quanto si è allineati con l’evoluzione digitale del mondo. Se si è rimasti fermi per molti anni ho solo una scelta: essere disruptive. Se invece c’è già stata negli anni precedenti una spinta innovativa, allora si può pensare di gestire il passaggio in maniera più graduale. Prendiamo l’esempio di Synergy: per funzionare appieno necessita di componenti evoluti che lavorino in modo automatico e con un elevato grado di automazione . Se l’azienda in cui deve essere introdotta ha già un’infrastruttura evoluta, si tratterà di operare solo qualche aggiustamento, se però non è mai stata preparata, serve necessariamente essere disruptive.

Ultima domanda: le pmi sono pronte?

Le piccole e medie imprese in questo momento hanno un grande vantaggio: le barriere di ingresso sono state abbattute. Da un lato, infatti, le nuove tecnologie, anche grazie ai cloud che consentono di federarle, non necessitano di grandi investimenti d’ingresso. Le pmi, quindi, possono avere un grado tecnologico paragonabile a quello di una grande azienda. Dall’altro lato, però, il rischio è che le rendite di posizione crollino più rapidamente proprio per la facilità di ingresso in queste nuove tecnologie. Uno dei nostri pregi, intendo come italiani, è quello di avere creatività e intelligenza, che ci vengono riconosciuti in tutto il mondo. Dobbiamo però stare attenti: perché con una maggiore accessibilità tecnologica il rischio di essere tagliati fuori è più concreto.














Articolo precedenteCisco porta visibilità e intuizione nel punto più cieco dell’IT: la WAN
Articolo successivoLa politica di coesione per il futuro dell’ Europa






LASCIA UN COMMENTO

Per favore inserisci il tuo commento!
Per favore inserisci il tuo nome qui