Intel: come allevare un algoritmo

di Marco dè Francesco ♦ Il corretto funzionamento nelle diverse situazioni di elaborazione dati nei processi  manifatturieri di questo elemento – fondamentale nella trasformazione digitale – è uno dei temi del Forum “Industry X.0”. A San Marino il 9 e 10 maggio, tra gli esperti a confronto ci sarà anche  anche Daria Loi, Principal Engineer presso il colosso americano dei microprocessori. Ci spiega come scegliere un dataset e le differenze per l’elaborazione tra Cloud ibrido e Edge computing

«Un algoritmo deve essere visto per essere creduto», ripete spesso Donald Knuth, matematico e informatico di Stanford. Deve essere messo alla prova, per capire se ci è utile. Quel procedimento logico risolve veramente il nostro problema? È questa la domanda che le aziende dovrebbero porsi, dato che gli algoritmi sono ingredienti fondamentali dell’intelligenza artificiale, del machine learning e dell’apprendimento profondo, e cioè di tecnologie strategiche per la trasformazione digitale.

La novità è che secondo Intel dipende anche da noi. L’algoritmo all’inizio è come un “bambino”, che va nutrito con dataset di immagini, video, suoni, testi, tutti corredati da adeguata descrizione. Ma dove si reperiscono? E quelli che si trovano online sono tutti adeguati ad uno sviluppo efficiente dell’algoritmo? Pare di no. Bisogna saper cercare, e per questo le aziende devono dotarsi di competenze all’altezza. Altrimenti si rischiano fallimenti ed acquisti inutili, di dataset e di tecnologie. Così la pensa il colosso da 70 miliardi di dollari, noto a livello globale per i microprocessori e i circuiti integrati per schede-madre. Se ne saprà di più a San Marino, in occasione del forum “Industry X.0 – La trasformazione digitale come driver di sviluppo che si terrà i prossimi 9 e 10 maggio. All’evento parteciperà anche Daria Loi, Principal Engineer ad Intel Labs, i laboratori di ricerca e sviluppo della multinazionale di Santa Clara (California), che abbiamo intervistato.







 

Daria Loi, Principal Engineer ad Intel Labs

 

Sensori, machine learning e deep learning

Com’è noto, l’intelligenza artificiale (argomento già trattato da Industria Italiana, ad esempio in questo articolo e in questo) contempla due branche particolari: il machine learning e il deeplearning. Il primo è l’apprendimento automatico: il sistema impara dall’esperienza. Grazie a particolari algoritmi, è in grado di svolgere ragionamenti induttivi, elaborando regole generali definite associando l’input all’output corretto. Il secondo è invece quel campo di ricerca che si basa su diversi livelli di rappresentazione, corrispondenti a gerarchie di caratteristiche di fattori o concetti, dove i concetti di alto livello sono definiti sulla base di quelli di basso. In pratica, ciascun livello utilizza l’output del livello precedente come input.

Tra le architetture di apprendimento profondo si annoverano le reti neurali. Queste sono costituite da un modello matematico composto da tanti neuroni artificiali, che per certi versi replicano il funzionamento di quelli biologici, e cioè delle piccole componenti del cervello che ci consentono di ragionare. Come nel caso del cervello umano, il modello artificiale è costituito da interconnessioni di informazioni. Ora, in un normale contesto informatico, le informazioni vengono immagazzinate in una memoria centrale ed elaborate in un luogo definito: con la rete neurale, invece, si cerca simulare il comportamento dei neuroni con connessioni analoghe alle sinapsi di un neurone biologico tramite una funzione di attivazione, che stabilisce quando il neurone invia un segnale. In pratica, le informazioni sono distribuite in tutti i nodi della rete.

 

Ma a che servono queste tecnologie in azienda?

Servono a interpretare le informazioni provenienti dai sensori e tecnologie disseminate nello shopfloor. Secondo la Loi, «sensori e tecnologie includono per esempio telecamere in grado di rilevare l’impronta termica o i movimenti, microfoni che rilevano variazioni sonore o sensori che controllano movimento e contesto. I dati possono essere utilizzati per esempio ad evidenziare il malfunzionamento di una macchina. Gli operatori esperti utilizzano sensi ed esperienza per capire quando c’è qualcosa che non va sullo shopfloor, ma non è immaginabile che siano dovunque in fabbrica. Dunque occorrono strumenti in grado di aumentare la percezione e le capacità degli operatori. Queste tecnologie inoltre non sono solo rilevanti per analizzare eventi correnti; ma possono essere utilizzati per valutare flussi e traiettorie nel tempo. Si pensi alla manutenzione preventiva e a quella predittiva».

Il problema è: queste valutazioni hanno un valore assoluto? «In realtà la questione si pone così: grazie all’analisi dei dati, e a queste nuove tecnologie, è possibile customizzare i processi in modo piuttosto sofisticato. Esistono inoltre contesti dove certi parametri possono variare con il tempo. Ciò che è ottimale oggi, può non esserlo tra un anno. Questo dunque significa che bisogna puntare su sistemi in grado di adattarsi». Va detto che Intel offre soluzioni per accelerare e semplificare l’implementazione del deep learning su particolari infrastrutture ottimizzate e verificate (Apache Spark): per esempio Intel® Select Solutions for BigDL on Apache Spark, che combina processori Intel® Xeon® Gold, SSD Intel® e Schede di rete Ethernet Intel®. Secondo l’azienda, si tratta di una soluzione completa, con un costo totale di proprietà alla portata di piccole aziende.

 

Come nutrire gli algoritmi

«Inizialmente, un algoritmo è come un bambino». Ed in effetti occorre una fase di addestramento, che in genere è supervisionato. Un “insegnante” fornisce all’algoritmo un dataset completo per l’allenamento. «Ad esempio, migliaia di immagini. Immaginiamo che un algoritmo stia per esempio analizzando l’immagine di un uomo, in piedi davanti ad un albero. Grazie alla visione di tante illustrazioni con attributi simili – uomo, in piedi, albero – e ai metadata che descrivono gli attributi contenuti da ogni immagine, l’algoritmo apprende che cosa sia un uomo, cosa lo distingua da una donna o da un bambino, cosa sia un albero e le caratteristiche specifiche di ciò che viene rappresentato. Solo dopo questo processo di apprendimento l’algoritmo può interpretare quell’immagine e capire che rappresenta un uomo in piedi davanti ad un albero».

Dunque, una volta che una azienda si sia dotata di tecnologie come quelle descritte, deve anche attrezzarsi con un numero adeguato di dataset. C’è però un problema. «Per quanto ci siano open dataset e sempre più società che, per mestiere, realizzano dataset, i dati sono spesso generici, incompleti e incoerenti con la specifica realtà dello shopfloor aziendale ,perché sono stati realizzati in laboratorio, scaricate da open access libraries, ed etichettati in modo inconsistente Questo può portare ad imprecisioni nella definizione e classificazione di questo o quell’oggetto». Oggi la maggior parte delle aziende acquistano i dataset, non li producono in casa, perché « Alla fine, è un’operazione costosa, non alla portata di una Pmi». Questo può creare notevoli problemi se non si fa attenzione a che tipo di dataset vengono utilizzati per “istruire” gli algoritmi.

 

Dove operano gli algoritmi: Cloud ibrido e Edge computing

Ma dove avviene l’elaborazione dei dati? Può avvenire su un server in Cloud, o altrimenti at the edge, e cioè in prossimità delle macchine che li generano. Intel offre soluzioni per il Cloud ibrido, quello che combina il Cloud privato, e cioè l’infrastruttura locale, e quello pubblico, di cui si parla quando server e risorse di archiviazioni sono gestiti da provider di servizi Cloud appartenenti a terzi, che li distribuiscono via web. Secondo l’azienda, Intel® Select Solutions for HybridCloud è semplice da implementare, ed offre i vantaggi dei servizi Cloud per data center in sede locale. Tra le tecnologie correlate, i processori scalabili Intel® Xeon®, l’Intel® Solid State Drives for Data Centers (che consente di eliminare i colli di bottiglia con specifiche soluzioni di archiviazione), e Intel® Ethernet Products, che consiste in schede di rete ethernet, controller e accessori che secondo l’azienda consentono agilità all’interno del data center per fornire servizi efficienti.

Secondo la società di consulenza strategica Gartner entro il 2022 il 75% dei dati aziendali saranno creati e processati con questa modalità, contro l’attuale 10%. D’altra parte, come potrebbe accadere diversamente? Se l’interazione relativa all’attività umana su Facebook vale 4 petabyte, quella relativa ad una macchina semi-autonoma, con la telecamera, i sensori ad ultrasuoni, il radar frontale, la camera agli infrarossi, i sensori d’urto e tutto il resto, vale 40mila petabyte al giorno. Si sostiene che assisteremo ad un aumento esponenziale dei dati, e che perciò diventerà difficile e costoso esaminare tutte queste informazioni in un ambiente lontano, il tradizionale data center centralizzato o cloud. Anche trasferirle, potrebbe diventare complicato. Solo una selezione di dati sarà portata in Cloud per ulteriori analisi. Questo le multinazionali dell’informatica lo hanno capito bene. E lo ha compreso anche una società come Intel, che fa processori. Anche per questo motivo Intel ha in portafoglio processori di ultima generazioni come gli Intel Xeon D-1600 e i nuovi FPGA Intel Agilex che sono strutturati per l’edge computing. Il primo lavora a 2,9 Ghz, e sopporta 128 Gb di memoria; il secondo offre, secondo l’azienda, prestazioni del 40% più importanti dei predecessori, con una spesa energetica minore del 40%.

 

 

L’IoT di Intel

L’analisi delle informazioni ha un peso particolare quando si parla di internet delle cose – che peraltro è fondamentale per la trasformazione digitale: le aziende iniziano ad automatizzare i processi, e poi ad avanzare nella digitalizzazione, grazie all’estrazione e all’esame dei dati dalle macchine. D’altra parte, l’IoT rende possibile la promessa di una tecnologia avanzata in grado di semplificare le operazioni, ridurre i costi, aumentare i ricavi e trasformare l’esperienza dei clienti in numerosi settori. Intel ha sviluppato soluzioni scalabili Iot Market Ready, pronte per l’implementazione sul mercato. Nel settore industriale, si intende ottimizzare la produzione sbloccando l’efficienza operativa.

Si pensi alla collaborazione con l’azienda tedesca Azeti, che produce un software (Machina) in grado di estrarre dati da controllori di macchina (Plc) esistenti e di elaborarli in Cloud. Monitoraggio Kpi, rilevamento di trend e di anomalie consentono un rapido retrofit, e permettono di evitare i fermi macchina nonché di predisporre la manutenzione predittiva e preventiva. La soluzione contempla anche MachinaGate, il gate basato su Intel. Si pensi anche a IoT-Predict, strumentazione dell’azienda irlandese ActionPoint che svolge un monitoraggio multi-sensore e che è adatta per apparati critici che producono grandi volumi di dati. Questi sono estratti at the edge ed elaborati dall’IoTAzure di Microsoft. Anche qui, la funzione principale è la manutenzione predittiva, e anche qui lavorano i sensori di Intel.

 

Consigli alle Pmi

Secondo la Loi, l’azienda che intende intraprendere un percorso di trasformazione digitale deve disporre di almeno due figure: un esperto in tecnologie intelligenti e uno che curi del rapporto tra tali tecnologie e le persone che le fruiscono. «Se l’azienda non dispone delle competenze tecniche necessarie, rischia di fare le scelte sbagliate nell’implementazione di nuove strumentazioni e modalità operative. Trascurare l’elemento umano può essere fatale. Le dinamiche umane sono complesse, variabili e in continua evoluzione e la loro interazione con la tecnologia aumenta la complessità notevolmente, rendendo fondamentale la conoscenza di tali interazioni uomo-macchina». Occorre poi pianificare per periodi medio-lunghi. «Una Pmi non può fare tutto in una volta, perché in genere non possiede i mezzi per modificare tutto in parallelo. Deve anzitutto fissare il punto di arrivo ottimale, e cioè che cosa intende realizzare con la digitalizzazione; poi, con un processo a ritroso, stabilire gli step necessari. E procedere passo dopo passo, con pazienza».

[boxinizio]

 

Il Forum “Industry X.0 – La trasformazione digitale come driver di sviluppo”

Faranno capolino dalle parti del Monte Titano executive di Cisco, Ibm, Intel, Oracle, Ansaldo Energia, Ima Group, Abb, BSH Hausgeräte, Rittal, Lima Corporate, e tante altre aziende di rilievo. Parleranno di smart manufacturing, intelligenza artificiale e machine learning, digitalcapabilities, lean production e altro. L’evento, patrocinato dal Governo di San Marino, si pone l’obiettivo di presentare, attraverso numerose testimonianze, le opportunità di cambiamento e sviluppo derivanti dalla trasformazione digitale per la crescita e la competitività delle aziende coinvolgendo Ceo, Coo, Cio, Cdo, Cpo, direttori di produzione, manager della supplychain e degli impianti di realtà aziendali diverse per settore e dimensione. Il forum è organizzato da Carisma Rct, società di ricerca, consulenza e formazione, nata in Gran Bretagna oltre 10 anni fa ed ora presente con una nuova sede anche nella Repubblica.Cliccare qui per maggiori informazioni sull’evento.

Intel

Intel Corporation è una multinazionale americana di tecnologia con sede a Santa Clara, in California, nella Silicon Valley. È il secondo produttore al mondo di chip di semiconduttori più grande e secondo per entrate dopo essere stato sorpassato da Samsung. Ha inventato i microprocessori della serie x86, presenti nella maggior parte dei personal computer. Intel si è classificata al 46 ° posto nell’elenco Fortune 500 (del 2018) delle maggiori società statunitensi per fatturato, attorno ai 70 miliardi di dollari (con 21 miliardi di net income). Il Ceo è Robert H. Swan; il presidente, Andy Bryant; quello emerito e co-fondatore, Gordon Moore. Ha circa 110mila dipendenti. Intel fornisce processori per produttori di sistemi informatici come Apple, Lenovo, HP e Dell. Intel produce anche chipset per schede-madre, controller di interfaccia di rete e circuiti integrati, memoria flash, chip grafici, processori incorporati e altri dispositivi relativi alle comunicazioni e all’elaborazione.














Articolo precedenteRondi: l’Italia dei robot. E del Governo che non ha capito niente
Articolo successivoOmron lancia i nuovi inverter serie RX2 ad alte prestazioni






LASCIA UN COMMENTO

Per favore inserisci il tuo commento!
Per favore inserisci il tuo nome qui