Il futuro della manifattura? È tutta (o quasi) questione di Big Data

di Marco de' Francesco ♦︎ Tramite l’analisi dei dati, le imprese misurano le prestazioni delle macchine e ottimizzano i processi decisionali. In particolare, gli Oem possono realizzare apparecchiature più performanti. Mentre gli end-user possono migliorare l’intera catena di approvvigionamento. Se ne è parlato al webinar del Made. Presenti Rockwell Automation e T4V

La mancanza di metodi per misurare il valore dei dati inibisce decisioni effettivamente informate su investimenti in dati, integrazione e analisi.
La mancanza di metodi per misurare il valore dei dati inibisce decisioni effettivamente informate su investimenti in dati, integrazione e analisi.

La guerra, diceva Napoleone, è per il 90% informazione. Ciò valeva ad Austerlitz, e vale oggi sul campo di battaglia globale della manifattura: vince chi, “sfrondando” miliardi di dati provenienti soprattutto (ma non solo) dallo shopfloor, riesce a controllare i processi, a individuare trend e ciclicità, e a prendere decisioni di successo sul business.

Ma come può un’azienda manifatturiera sfruttare la miniera di informazioni utili che si celano nei Big Data? Occorre organizzare una architettura a cinque livelli. Il primo è quello della raccolta, grazie a sensori sempre più efficienti e precisi; il secondo, quello della preparazione: i dati vanno “puliti” at the edge, eliminando doppioni e inconsistenze, e riempiendo i vuoti; il terzo è quello dell’archiviazione, che oggi avviene grazie a tecnologie che esprimono una capacità di storage impensabile fino a pochi anni fa; il quarto è quello dell’intelligenza, e cioè dell’esame grazie ad analytics avanzatissimi; l’ultimo è quello delle decisioni, che si prendono sulla scorta  di strumenti di visual reporting & analysis, che consentono una relazione interattiva con le informazioni, tale per cui si possono fare ulteriori analisi ad esempio allargando o restringendo l’ambito temporale di interesse. Può sembrare molto complicato; ma in realtà tutte le tecnologie per realizzare una struttura del genere sono già sul mercato. E i system integrator sono in grado di “assemblarle”.







Se ne è parlato di recente nel webinar “Big Data Analytics applicata all’industria manifatturiera” organizzato da Made, centro di competenze tecniche e manageriali guidato dal Politecnico di Milano che supporta le imprese nel loro percorso di trasformazione digitale verso l’Industria 4.0. Mette a disposizione un ampio panorama di conoscenze, metodi e strumenti sulle tecnologie digitali che spaziano sull’intero ciclo di vita del prodotto. Sono intervenuti Alberto Ascoli, consulente tecnologico automazione di Rockwell Automation e Stefano Ciavatta, Ceo di T4V e membro del Comitato Tecnico Scientifico del competence center. Ha moderato Claudio Cusano, docente al dipartimento di Ingegneria Industriale e dell’Informazione dell’Università di Pavia.

 

Big Data Analytics, il processo di analisi di grandi volumi di dati per estratte informazioni nascoste

Marco Taisch, presidente del Made e professore al Politecnico di Milano

Fin dal crepuscolo degli anni Cinquanta, si parlava di business intelligence. Anche allora i processi industriali producevano dati. Se ne raccoglievano pochi, fisicamente, in forma tabellare, e li si confrontavano, per valutare nuovi scenari competitivi, o individuare informazioni strategiche. Con la rivoluzione informatica, i dati potevano essere portati da un luogo all’altro più agilmente, grazie a nuovi supporti, come i floppy disk. Ma il cambiamento vero si ebbe con internet, o meglio con l’IoT, l’internet delle cose: qualsiasi macchina industriale interconnessa può produrre una quantità notevolissima di informazioni, con frequenza al millisecondo, su temperatura, pressione, umidità, fluidità e tantissimo altro. E poi sono arrivati i wearable, e tanti altri device che trasmettono dati.  Che sono esaminati vicino alla fonte, at the edge, per operazioni real time sul campo; o sul cloud, per l’analisi di serie storiche e altro. Appunto perche si tratta di vagliare volumi giganteschi, questa operazione non può essere più compiuta su tabelle, ma va affidata a software che contengono algoritmi. Questi sono elenchi finiti di istruzioni che risolvono ciascuno un determinato problema attraverso un numero definito di passi elementari. I “problemi” che si considerano sono quasi sempre caratterizzati da dati di ingresso variabili, su cui l’algoritmo stesso opererà per giungere fino alla soluzione.

Rispetto alla business intelligence, la Big Data Analytics ha il vantaggio che – comparando moli considerevoli di dati anche provenienti da fonti eterogenee – può scovare informazioni nascoste, ottenere intuizioni originali sulle condizioni di mercato, sul comportamento dei clienti o predizioni, e quindi i futuri trend. Ma quali sono gli obiettivi della Big Data Analytics? Sono cinque, qui indicati in ordine di complessità e corrispondenti ad altrettante modalità di analisi. Anzitutto, quella descrittiva, tendente a una rappresentazione realistica dei dati storici per comprendere meglio gli accadimenti che hanno riguardato l’azienda. Un esempio immediato è il Roic, il rendimento sul capitale investito: bastano tre dati, reddito netto, dividendi e capitale totale, per ottenere una percentuale di facile comprensione. Quando un’azienda è molto grande, questo genere di esame si rende necessario per misurarne le prestazioni. In secondo luogo, quella diagnostica. Qui si cerca di capire non solo cosa, ma anche come è perché un avvenimento è accaduto. Si cercano le cause scatenanti di eventi o comportamenti, grazie alla correlazione tra dati talora eterogenei. Ancora quella in tempo reale. In questo caso, non si lavora su dati archiviati, ma su quelli che fluiscono all’istante e che sono analizzati da software a bordo macchina per operazioni sul campo. In quarto luogo, quella predittiva. Questa si avvale di tecniche statistiche e di modelli di apprendimento automatico per analizzare fatti storici e attuali e fornire predizioni sul futuro o su eventi sconosciuti. Infine quella prescrittiva. Qui l’obiettivo è ottimizzare il processo decisionale dell’azienda, in modo tale che questa possa fare delle scelte in grado di porla in una situazione di successo. Si tratta di trarre vantaggio dai risultati delle analisi descrittive e predittive; grazie a complicati modelli matematici, si specificano sia le azioni necessarie per raggiungere i risultati che gli effetti correlati di ogni decisione.

 

Tecniche e tecnologie per visualizzare e esaminare i Big Data

Claudio Cusano, docente al dipartimento di Ingegneria Industriale e dell’Informazione dell’Università di Pavia

Quali sono, dunque, le tecniche correlate alla Big Data Analytics? Anzitutto, il machine learning. È l’apprendimento automatico: il sistema impara dall’esperienza. Grazie a particolari algoritmi, è in grado di svolgere ragionamenti induttivi, elaborando regole generali definite associando l’input all’output corretto. Ancora, il data mining, che serve a estrarre correlazioni tra più variabili, informazioni utili o a rivelare modelli nascosti da grandi quantità di dati. Tra le metodologie più utilizzate in questo ambito, il citato machine learning, ma anche altre di cui parleremo più avanti, come le reti neurali o gli alberi di decisioni. Poi, il data fusion o data integration, che consiste nella capacità di processare informazioni provenienti da una molteplicità di fonti eterogenee. Si pensi ai dati estratti dai tanti sensori diversi presenti su un impianto industriale. Infine, la time-series analysis, e cioè l’analisi delle serie storiche, insieme di variabili casuali (e cioè che possono assumere un valore diverso in rapporto a circostanze aleatorie) ordinate rispetto al tempo. Vengono studiate sia per interpretare un fenomeno, individuando componenti di trend, di ciclicità, di stagionalità e di accidentalità, ma anche per prevedere il suo andamento futuro.

Quanto invece alle tecnologie correlate ai Big Data, queste sono il Cloud Computing, un paradigma di erogazione di servizi offerti su richiesta da un fornitore a un cliente finale grazie a internet a partire da un insieme di risorse preesistenti, configurabili e disponibili in remoto sotto forma di architettura distribuita. Sul cloud si possono innestare i software per archiviare, elaborare e trasmettere i dati. C’è poi il Data Warehouse, repository di informazioni che possono essere utilizzate per analisi e cui si può accedere grazie a strumenti intelligenti. Ad esempio, i report presenti sui pannelli di controllo in azienda sono basati sui DW. Infine, la Cyber Security. Quanto a quest’ultima, è stato appunto l’interconnessione delle macchine a mutare profondamente il genere di rischi che corre l’azienda. Sempre più, nell’industria si parla di convergenza tra It e Ot. Ci si riferisce ad un fenomeno di grande rilievo, quello della crescente interdipendenza tra la rete industriale, grazie alla quale un’azienda può gestire l’attività una pluralità di macchinari, e quella It, che serve a memorizzare, recuperare, trasmettere e manipolare dati. Per anni, queste due reti sono state gestite secondo criteri diversi. Erano mondi separati. Finché l’Ot non era interconnesso, la cyber security era un insieme di tecnologie per proteggere gli asset informatici. Oggi invece possono accadere fenomeni come lo spear phishing. Una mail viene inoltrata da un cyber-criminale ad un dipendente dell’azienda, di cui il primo conosce gli interessi. Nel momento in cui il dipendente apre un allegato infetto, scatta il malware (“malicious software”, che significa letteralmente “software malintenzionato”): una volta aperta una breccia nel sistema, il criminale può bloccare la produzione.

 

L’architettura dei Big Data

Gli spazi del competence center Made

Come si fa a fare un progetto di Big Data? Come una azienda manifatturiera si deve organizzare per trarre vantaggio da tutto questo? L’idea è quella di disporre di una architettura che, dal basso verso l’alto, porti dalla raccolta delle informazioni alla fase decisionale. È possibile immaginare una composizione in cinque strati. Alla base, le fonti dei dati, che tendenzialmente possono essere sia interne (ad esempio l’anagrafica dei clienti o fornitori) che esterne alle aziende (i social, gli open data della pubblica amministrazione); e che possono riferirsi a informazioni strutturate, e cioè riconducibili ad un formato tabellare, o non strutturate, come mail, documenti in testo libero, immagini, suoni e filmati. Nella manifattura però, il ricorso a matrici esterne e non strutturate è improbabile: l’origine dei dati è rappresentata essenzialmente dai sensori. Il livello successivo è quello della preparazione dei dati. Occorre raccoglierli, integrarli con informazioni di fonti diverse e “pulirli”, eliminando i doppioni e le inconsistenze e riempiendo i vuoti. Per esempio, se una persona risulta titolare di tre cellulari, si può cercare di capire se questi numeri siano ancora tutti operativi. Insomma, per i passaggi successivi, «i dati devono risultare completi, precisi e affidabili» – ha affermato Ciavatta. La preparazione è un lavoro che in “fabbrica” viene svolto at the edge, quando i dati sono ancora in motion: questo consente di ottenere, al contempo, report sulla situazione attuale dell’impianto (con generazione di allarmi in caso di anomalia) che per avere delle risposte autonome da parte del sistema, che per esempio spegne un motore nel caso in cui le variabili di una macchina siano fuori norma. A questo punto, le informazioni vanno stivate: il terzo livello è quello del data storage, che nella manifattura viene anche detto data at rest. I dati real time, per natura, non sono destinati alla conservazione; ma nel caso in cui il flusso sia troppo veloce per essere integralmente processabile al momento, se ne possono custodire alcune sezioni, le cosiddette “code”. Tutti gli altri dati possono essere stivati con diverse tecnologie: data lake, e quindi il repository di informazioni nel loro formato naturale; data warehouse, e cioè l’aggregazione di dati strutturati o data mart, sottoinsieme che raccoglie l’immagine dei dati di un warehouse.

La scelta della particolare tecnologia dipende dal tipo di informazioni e dal genere di analisi che si intende realizzare. Il livello successivo è quello dell’intelligenza, il data modeling. Quello più basico è quello deterministico: con operatori molto semplici, si svolgono somme, sottrazioni, divisioni, medie. Poi ci sono i modelli analitici “tradizionali”, e cioè quelli che attengono alla matematica e alla statistica e che sono molto diffusi, come il citato data mining. Infine, ci sono gli analytics avanzati, come quelli di machine learning, di intelligenza artificiale ed altri. «In realtà anche queste ultime sono tecnologia abbastanza consolidate; ma trovano solo oggi, grazie agli attuali livelli di potenza computazionale, un utilizzo “pratico” per l’industria manifatturiera» – ha chiosato Ciavatta. Una volta applicato il modello ai dati, si ottengono i risultati. E qui si arriva all’ultimo livello, quello delle decisioni. Gli esiti possono essere inseriti in report, nella forma contemporanea di visual reporting & analysis, che consentono una relazione interattiva con le informazioni, tale per cui si possono fare ulteriori analisi ad esempio allargando o restringendo l’ambito temporale di interesse. I risultati possono essere esportati ai partner: possono cioè, essere messi a disposizioni di clienti, fornitori e altri, come dati di ingresso per le loro personali analisi. Altrimenti possono essere trasferiti su altre piattaforme dell’azienda stessa, come il Crm (software di gestione delle relazioni con la clientela), ad esempio per definire l’ambito dei clienti rispetto ai quali fare una promozione o una campagna pubblicitaria. In vista della realizzazione di questa architettura, l’azienda deve decidere se affidarsi a soluzioni cloud o on premise, cioè su un server locale. Vanno affrontate le problematiche di Cyber Security, già descritte sopra, e quelle derivanti da una corretta applicazione del Gdpr, il regolamento europeo sulla protezione dei dati.

 

Benefici della Big Data Analytics per Oem e end-user

Alberto Ascoli, consulente tecnologico automazione di Rockwell Automation

Quali processi industriali traggono maggior beneficio dalla Big Data Analytics in ambito manifatturiero? Bisogna distinguere tra Oem, i costruttori di macchine originali, e gli end-user, le aziende che tali strumentazioni utilizzano per produrre beni finiti. L’obiettivo principale dei primi è quello di realizzare una apparecchiatura che risulti sempre più performante, e che distingua da quello che offre il mercato. Le macchine utensili sono sempre più veloci ed efficienti, ma la meccanica e l’elettronica stanno raggiungendo un limite naturale, che difficilmente sarà superato. Il valore, pertanto, si sposta verso altre finalità: una delle tendenze è sicuramente quella di equipaggiare le strumentazioni con sensori e dispositivi in grado di fornire informazioni sullo stato di salute della macchina e sul momento più opportuno per la manutenzione. Con l’industrial IoT si assiste ad un considerevole aumento dei volumi di dati; la capacità di estrarli sarà, secondo Ascoli, il vero differenziatore sul mercato.

Quanto agli end-user, in un contesto globale e interconnesso affrontano la complessa problematica della catena di approvvigionamento; e ciò comporta l’ottimizzazione del completo processo produttivo – dal momento di ingresso delle materie prime a quello in cui il bene è portato ai distributori. Con la giusta analisi dei Big Data, gli end-user possono concentrarsi sui singoli segmenti del processo, ed esaminare le catene di approvvigionamento nei minimi dettagli, identificando i colli di bottiglia, e rilevando componenti sottoperformanti. La Big Data Analytics è peraltro alla base (con altre tecnologie) di un nuovo imperativo categorico, quello della personalizzazione di massa, una strategia di produzione di beni e servizi orientata a soddisfare i bisogni individuali dei clienti e contemporaneamente preservare l’efficienza della mass production, in termini di bassi costi di produzione e quindi prezzi di vendita contenuti. Per fare un esempio, nel 1850 un’automobile era costituita da un mezzo creato appositamente da più artigiani per il proprietario. Il modello T della Ford, invece, primo esempio di produzione di massa, era identico per tutti: a Detroit, dalla catena di montaggio dotata di nastro trasportatore, si producevano solo auto di quella forma e di quel colore. Un’Audi A3, oggi, presenta invece 1,1 per 10 alla trentottesima varianti teoriche. Nuovi algoritmi, infine, saranno in grado di rendere più efficienti particolari modelli di controllo predittivo dei processi.

 

Sviluppi dell’analisi predittiva

Abbiamo accennato sopra al machine learning, e al fatto che si basi su algoritmi di intelligenza artificiale. Che in genere sono supervised, e cioè sono addestrati con set di informazioni etichettate, con l’obiettivo che il sistema identifichi una regola generale che colleghi i dati in ingresso con quelli in uscita; ma possono anche essere anche unsupervised: i dati in questa seconda modalità vengono conferito all’AI senza alcuna indicazione del risultato desiderato. Spetta all’intelligenza artificiale scoprire il paradigma logico nascosto. C’è un terzo paradigma, il reinforcement learning: gli algoritmi sono addestrati con un sistema di ricompensa. Si restituisce un feedback quando l’agente di intelligenza artificiale esegue la migliore azione in una particolare situazione. Ma quali sono questi modelli di algoritmi utilizzati per le predizioni? Ascoli ne ha illustrati tre.  Uno è la rete neurale. Questa è un modello matematico composto da tanti neuroni artificiali, che per certi versi replicano il funzionamento di quelli biologici, e cioè delle piccole componenti del cervello che ci consentono di ragionare. Come nel caso del cervello umano, il modello artificiale è costituito da interconnessioni di informazioni. Ora, in un normale contesto informatico, le informazioni vengono immagazzinate in una memoria centrale ed elaborate in un luogo definito: con la rete neurale, invece, si cerca simulare il comportamento dei neuroni con connessioni analoghe alle sinapsi di un neurone biologico tramite una funzione di attivazione, che stabilisce quando il neurone invia un segnale. In pratica, le informazioni sono distribuite in tutti i nodi della rete. Nella forma più semplice, questa funzione di attivazione può essere di generare un “1” se l’input sommato è più grande di un certo valore, o al contrario uno “0” se il segnale ricevuto rimane sotto la soglia della funzione di attivazione.

Si parla di “connessionismo”. Dunque, come può funzionare? In natura l’uomo e gli animali in genere ricevono stimoli dall’ambiente, percepiti tramite gli organi di senso (vista, olfatto, udito, tatto e altri) ed elaborati dai neuroni, che sono interconnessi in una struttura che non è lineare, e che varia a seconda del tipo di stimolo che proviene dall’esterno. Ugualmente, la rete neurale riceve segnali dall’esterno; questi vengono ricevuti da nodi di ingresso, che sono unità di elaborazione; e che sono collegati a altri nodi interni, che procedono con ulteriori elaborazioni. Insomma, alla fine l’output risulta assai più accurato. Un altro modello molto rilevante e utilizzato è l’albero decisionale.  Anche in questo caso sono presenti dei nodi, che sono collegati tramite frecce o linee. Ognuno di essi esprime un valore, e può essere collegato ad un numero variabile di nodi figli, mentre le frecce indicano le possibili decisioni. Dunque, a seconda della strada che si intraprende, della regola di classificazione che si segue, ci saranno conseguenze diverse. Per questo, l’albero serve a supportare il decision making. «Gli alberi – ha affermato Ascoli – sono molto semplici da comprendere e da interpretare; ma sono un po’ “instabili”, perché un piccolo cambiamento nei dati può comportare a grandi variazioni nelle decisioni». Per ovviare a questo problema, si è data vita, in questi ultimi anni, alla “random forest”, raccolta di alberi decisionali: si prende randomicamente una piccola parte del dataset, si realizzano più alberi decisionali, e alla fine si applica un meccanismo di “votazione” per arrivare alla decisione finale. L’ultimo modello è più matematico, ed è quello della Support Vector Machine.  Siamo nel contesto dell’apprendimento automatico. Si utilizzano algoritmi per ottenere una classificazione a due gruppi. Dopo aver fornito al sistema un insieme di dati di training, etichettati per ciascuna delle due categorie, il modello funziona da sé: in base a certe coordinate, ad esempio, il modello distingue nuovi dati in quanto appartenenti a questa o a quella sezione di un grafico. È possibile realizzare anche una versione tridimensionali, dove le essenze diverse saranno poste sopra o sotto un certo piano.














Articolo precedenteLuciano Floridi: «L’Intelligenza Artificiale è già parte integrante della nostra quotidianità»
Articolo successivoEtica e intelligenza artificiale: il matrimonio che crea valore economico






LASCIA UN COMMENTO

Per favore inserisci il tuo commento!
Per favore inserisci il tuo nome qui