Intelligenza Artificiale generativa a portata di pmi? Lo promette Ibm. E lavora sul Quantum Computing…

di Renzo Zonin ♦︎ watsonx consente di “industrializzare” la realizzazione di applicazioni generative: riduce le risorse necessarie e allarga la platea degli utilizzatori. Foundation model: riconfigurazione dei processi operativi per aumentare efficienza e produttività. Il nodo della governance e il problema delle competenze. Quantum Computing: 2-5 anni per avere soluzioni operative business-ready in vari settori. Ne parliamo con Stefano Rebattoni, Alessandro Curioni,Tiziana Tornaghi

Quantum System One alla clinica Cleveland

Sono tempi complicati per chi deve fare business. All’incertezza della situazione geopolitica si sommano sfide di ogni genere, dalla lotta al cambiamento climatico agli imperativi dell’inclusione. Niente di strano quindi se le aziende, per rispondere a queste sfide e mantenere (o migliorare) la proprie efficienza e competitività sui mercati, si affidano alla tecnologia: storicamente, l’adozione di tecnologie innovative, se non rivoluzionarie, ha sempre costituito un punto di svolta per superare le crisi e aprire nuovi scenari – pensate alla macchina a vapore, all’elettricità, al nucleare, all’informatica.

Fra le tecnologie sulle quali molte aziende scommettono per uscire da questo periodo di crisi, la più importante è probabilmente quella dell’AI, in particolare nella sua forma più recente, l’AI Generativa, esplosa nel mercato consumer negli ultimi mesi grazie al successo di siti come ChatGPT. Il problema dell’AI generativa, fino a oggi, era la difficoltà di realizzare applicazioni, dovuta a una sorta di “artigianalità” degli strumenti di programmazione (Api) e alle basi dati usate per istruire i modelli, che mancano di adeguate certificazioni. A questi (e altri) problemi ha posto rimedio lo scorso luglio Ibm, lanciando la sua soluzione Watsonx per l’IA generativa business. Questa soluzione in un certo senso consente di “industrializzare” la realizzazione di applicazioni generative, riducendo le risorse necessarie ed allargando la platea dei possibili utilizzatori.







Ma se l’AI è lo strumento di oggi, il prossimo è già all’orizzonte: parliamo del Quantum Computing, che potrebbe costituire la più grossa rivoluzione nel mondo digitale dagli anni ‘70 a oggi. Anche in questa tecnologia, Ibm ha un ruolo di leader, come è emerso chiaramente durante il “Think” di Milano, l’evento durante il quale Big Blue ha presentato alle aziende italiane le sue migliori tecnologie. La roadmap di Ibm per il Quantum Computing è stata finora rispettata tappa per tappa, e indica un lasso di tempo di 2-5 anni per avere soluzioni operative business-ready in vari settori. Ne abbiamo parlato, durante il Think, con Stefano Rebattoni, numero uno di Ibm Italia, con Alessandro Curioni, Vp e direttore del laboratorio di ricerca Ibm di Zurigo, e con Tiziana Tornaghi, managing partner Ibm Consulting Italia.

L’avvento della IA generativa

Milano Ibm Studios Stefano Rebattoni amministratore delegato Ibm Italia

Negli ultimi mesi, è emersa con forza una tecnologia potenzialmente dirompente, che – nonostante fosse studiata e sviluppata in laboratorio almeno dagli anni ‘80 dello scorso secolo, ancora non era riuscita ad esprimere il suo vero potenziale. Parliamo dell’Intelligenza Artificiale o AI, e soprattutto di quella branca che ha risvegliato l’interesse di tutti gli utenti: l’IA “Generativa”, resa popolarissima da Open AI con il suo ChatGPT. Finalmente, con i sistemi generativi, si è dimostrato che l’IA non era più un oggetto da laboratorio, ma qualcosa che può contribuire positivamente alla vita di tutti. Purtroppo, l’IA generativa proposta da ChatGpt (ma anche dai suoi “emuli” messi sul mercato a stretto giro da aziende come Google e altre), per come è strutturata difficilmente si presta a un uso business. Di fatto, quelle che si vedono oggi su Internet sono applicazioni finali, specializzate per uno specifico compito o per pochi compiti, realizzate addestrando un modello con una massa di dati le cui origini sono, per usare un eufemismo, piuttosto oscure. Per ottenere un’applicazione che possa svolgere un compito specifico partendo da questi software, bisogna più o meno ripartire da zero. Con queste basi, lo sviluppo di applicazioni AI è un processo artigianale. Qualche mese fa, le cose sono cambiate all’improvviso: Ibm ha infatti presentato il sistema Watsonx, una soluzione di AI generativa che pone rimedio ai vari difetti di gioventù della tecnologia, fornendo di fatto una serie di strumenti che consentono di gestire in modo sofisticato i dati utilizzati nel training dei modelli, una serie di Foundation Model personalizzabili e dei tool di governance.

In questo modo, Ibm ha di fatto “industrializzato” la produzione di applicazioni di AI generativa, che in questo modo diventa sfruttabile da aziende di ogni dimensione. Il perché di questo impegno di Ibm lo ha spiegato Stefano Rebattoni, numero 1 di Ibm in Italia, al recente “Think” di Milano, l’evento durante il quale Ibm mostra le sue più importanti novità. «Oggi chi fa impresa, chi ha un rapporto che sia di business, di servizio o di prodotto, deve operare all’interno di un quadro di incertezza» ha dichiarato Rebattoni, citando sfide quali la situazione geopolitica, la sostenibilità ecologica, il cambiamento climatico e l’inclusione sociale. «Quindi è chiamato a investire su alcune linee di indirizzo, che gli permettevano di navigare in un quadro, ripeto, di difficile lettura e di incertezza. La prima è creare le condizioni per avere maggiore competitività sul mercato, per abilitare la crescita, quindi come aumentare il market share, come trovare delle muove linee di ricavo, come aumentare le linee di spesa della base dei consumatori o magari allargare la base di consumo. Secondo il tema enorme della componente di crescita degli utili, l’efficienza, quindi la riduzione di costo operativi e tutto il tema della produttività, che vuol dire riuscire a gestire meglio i propri processi operativi con meno risorse. Il terzo e ultimo è quello della resilienza e della continuità operativa, che vuol dire avere infrastrutture che possono gestire eventi inattesi, ed essere sempre affidabili».

Aggiungiamoci pure le sfide della sostenibilità, ambientale e sociale, e il quadro certo non è dei più facili. «Se mettiamo insieme questi tre obiettivi delle imprese, l’incremento di competitività, l’efficienza e produttività, e la sostenibilità, capiamo quanto oggi il digitale, l’informazione e l’innovazione tecnologica, siano lo strumento abilitante per queste sfide – continua Rebattoni – Ibm ha pubblicato recentemente uno studio che si chiama Seven Bets (lo trovate qui, Seven Bets | IBM, NdR), che sono le sette scommesse che i nostri clienti hanno identificato come trend tecnologici che in qualche modo possono abilitare queste sfide. Si è parlato di cloud ibrido, quindi di avere infrastrutture resilienti ma anche aperte e flessibili, per poter gestire situazioni di carico ormai sempre più difficili da poter prevedere. Si è parlato di automazione, si è parlato di cyber security, ma un capitolo enorme all’interno di queste Seven bets è quello dell’AI, e in particolare l’AI di tipo generativo». E in effetti, anche durante Think Milano è stato l’argomento del giorno. Ma l’AI generativa è davvero qualcosa di concreto, o l’argomento è sopravvalutato? «C’è un grande hype oggi sul mercato, legato chiaramente al fenomeno ChatGPT, che secondo me ha avuto un effetto paragonabile a quello di Netscape a suo tempo per Internet e per il World Wide Web. E oggi noi abbiamo questa attenzione sull’AI generativa, proprio perché ognuno di noi, come utilizzatori finali, ha avuto modo di sperimentare che cosa vuol dire, interagire con questo tipo di tecnologia». La vera sfida, però, è di portare l’AI generativa nelle aziende, trasformarla in uno strumento di business. «Oggi con i modelli fondativi, i foundation model, l’IA generativa è più accessibile, molto più fruibile anche da quello strato del piccole e medie imprese che magari fino oggi faticavano per risorse da mettere in campo, per costi, per difficoltà anche tecniche nel capire e comprendere cosa questi strumenti potrebbero portare, cioè una riconfigurazione dei loro processi operativi, e qual è il valore che invece ne possono trarre».

watsonx rende l’IA generativa facilmente disponibile: modernizzazione delle applicazioni. Dai centri di calcolo agli strumenti di governance: chatbot per gestione servizi e fornitori. Per la manifattura: strumenti di robot process automation e cyber security. Ibm Institute for business value: su scala globale il 50% di aziende utilizzano già IA. Intervista a Stefano Rebattoni, presidente e ceo Ibm Italia

Le parole d’ordine sono efficienza e produttività

Chip Ibm Telum per accelerazione HW di processi IA

Gli strumenti di AI generativa oggi nativamente hanno la possibilità di generare efficienza e produttività, e sono capaci di liberare migliaia di ore uomo da attività oggi magari routinarie, poco differenzianti, permettendo di dedicare queste risorse ad attività a maggior valore. Che vuol dire supportare meglio la componente umana nel fare oggi il proprio lavoro, a patto di riqualificarsi per sapere utilizzare, sviluppare, distribuire queste nuove tecnologie, e al tempo stesso dando la grande opportunità di poter riqualificare il proprio contributo in azienda, su attività di maggior valore. Ma quali potrebbero essere li primi utilizzi di questi strumenti in azienda? «Ne vediamo tre. I primi sono i cosiddetti lavori digitali o digital labor. Tutto ciò che oggi è intensivo da un punto di vista di utilizzo e gestione di dati. Mi riferisco ad attività di backoffice, ad attività amministrative, a processi di human resource, ma anche a generazione di contenuti grazie ai large language model. Quindi ci spingiamo fino al marketing, alla comunicazione. E con una customizzazione di quelli che sono poi i servizi sempre più amplificata non più per quel profilo di clientela, ma esattamente per quel cliente.

Il secondo sono tutti gli use case relativi al customer care o ai servizi alla clientela finale, sia essa una clientela interna, come servire meglio un dipendente, o una clientela esterna, come poter seguire meglio chi oggi compra da me o interagisce con me. Pensate alla gestione degli strumenti di ticketing legati a problemi IT all’interno di un’azienda. Terzo e ultimo è la grande casistica dell’IT for IT, ovvero tutto ciò che passa attraverso lo sviluppo di software, di codice, la migrazione di ambienti, e quindi chiaramente mettere a disposizione di sviluppatori e tecnici quegli strumenti che possono accelerare di due ordini di grandezza l’ammodernamento delle piattaforme, delle applicazioni, per tornare e poter generare agilità, efficienza, produttività sul mercato. Questo, dal mio punto di vista, è il bello del trend della AI generativa». Tra parentesi, proprio durante il Think è stata annunciata la prima referenza in Italia di Watsonx Assistant, con Wind3, che ha implementato queste soluzioni ottenendo un beneficio enorme di produttività dei propri lavoratori.

Il problema delle Pmi

Ma in che senso Watsonx consente l’accesso all’IA generativa anche alle Pmi? E poi, sono davvero così in ritardo? «Le tecnologie basate su modelli fondativi e pre-trained module, permettono di rendere la tecnologia accessibile anche alla piccola media impresa, perché quell’enorme lavoro che si faceva prima, di classificazione e qualificazione dei dati, che solo le grosse aziende potevano gestire, oggi invece viene attivamente indirizzato dalla tecnologia – spiega Rebattoni – In Italia quando si parla di adozione dell’intelligenza artificiale non siamo molto difformi dal dato globale, siamo al 50%: una azienda su due utilizza già l’AI. Il problema è la distribuzione. Le grandi imprese la utilizzano in maniera ancora più estensiva, al 60-70%, mentre la piccola media impresa, per i vincoli di cui parlavo prima, è sotto il 20%. Questo indica una grande opportunità, anche a livello Paese, nel poter generare competitività e produttività su tutti i segmenti e su tutte le dimensioni di azienda. Non importa la loro dimensione, non importa la loro scala».

Ecco spiegati i motivi per cui Ibm ha presentato in luglio la suite Watsonx, andandola a posizionare sul segmento dell’intelligenza generativa per il business su tre dimensioni fondamentali: quella della gestione dei dati, Watsonx.data; quella della generazione degli use case da un punto di vista di applicazioni, su quelle che erano le attività citate prima, Watsonx.Ai; e terza dimensione, altrettanto importante, su tutto il tema della governance, ovvero Watsonx.Governance. «Questo perché in Ibm pensiamo che ci debba essere oltre che una AI for business, una giusta AI for business – puntualizza Rebattoni – Quindi un’intelligenza artificiale che sia sviluppata in modalità aperta, in modalità trasparente, “bias free”, dunque senza avere pregiudizi di sorta da un punto di vista di sviluppo di applicazione, e chiaramente trusted».

Schema a blocchi di Watsonx

Modelli fondativi e sviluppo semplificato

Alessandro Curioni, direttore del Laboratorio di Ricerca Ibm di Zurigo

E perché i modelli fondativi sono così importanti per scalare l’adozione dell’AI verso il basso? «Per creare modelli di intelligenza artificiale fino a ieri avevamo bisogno di un sacco di dati, di un sacco di manodopera, di un sacco di annotazioni per creare modelli molto specifici che risolvevano un solo task – spiega Alessandro Curioni, direttore del Laboratorio di Ricerca Ibm di Zurigo – Quindi se io li voglio applicare nell’ambito del business, devo metterci un sacco di soldi e un sacco di tempo per creare una soluzione che funziona per un task semplice, e che magari quando è pronta è diventata già vecchia. Le AI basate su deep learning richiedevano un sacco di intervento manuale per la notazione, quindi il ritorno di investimento nel business c’era ma in campi particolari, e se affrontavo un altro problema dovevo ricominciare tutto da zero. I foundation model con self-supervised learning ci permettono di creare prima questi grandi modelli, senza quasi intervento umano. Quindi otteniamo modelli molto migliori, con più dati, senza un grosso investimento a livello di risorse umane. Poi, una volta che ho creato questi modelli, posso specializzarli nel business per diverse applicazioni semplicemente aggiungendo pochissime annotazioni e dati».

Quindi prendere l’intelligenza artificiale e portarla nel business oggi diventa realmente possibile, e lo diventa per qualsiasi processo. Cominciando dai più facili, quelli che hanno un ritorno di scala maggiore come il digital labor, il customer care eccetera. «Stiamo vedendo le prime applicazioni – continua Curioni – e abbiamo già visto che per riuscire a creare intelligenza artificiale per il business dobbiamo anche tenere conto di alcuni altri fattori. Per esempio, l’intelligenza artificiale deve essere responsabile. Significa che se io creo un grande modello da cui parto per generare tutti gli altri, devo essere sicuro che i dati che utilizzo per creare questo modello siano di mia proprietà, o che qualcuno mi abbia dato l’autorizzazione a usarli. E che io abbia cercato di proteggere l’intellectual property dietro questi dati. Questo è un motivo per cui, quando abbiamo creato la piattaforma Watsonx, abbiamo inserito una componente per l’organizzazione e la cura dei dati, che è in grado di aiutarmi se inserisco dei dati nuovi dei quali ho le necessarie autorizzazioni, ma che mi aiuta anche quando avessi bisogno di toglierli se l’autorizzazione viene negata».

Il nodo della governance

Watsonx contiene un modulo apposito che si occupa di governance. Ma il problema è parecchio più ampio, andando a toccare aspetti relativi anche a regolamentazioni o di tipo specificamente legislativo. Il modulo di governance fornisce una tecnologia che continua in tempo reale ad analizzare i dati, analizzare i nuovi modelli e qualsiasi cosa succeda permette all’azienda che lo utilizza di adattare un modello di intelligenza artificiale generativa in tempo reale, senza smettere o creare interruzioni nell’uso del modello stesso. Ma c’è molto di più. «È chiaro che quando una tecnologia diventa trasformazionale, gli effetti positivi si amplificano, ma anche gli effetti negativi – ammette Curioni –

Quindi c’è un grosso discorso in cui Ibm è coinvolta, che consiste in incontri e discussioni con diversi partner di business, con il mondo accademico ma anche con i governi, per cercare di regolamentare questa intelligenza artificiale. Ma con una regolamentazione che deve essere di precisione. Non può essere una regolamentazione per categorie. Certo, dobbiamo guardare i rischi e le cose più rischiose vanno regolamentate fortemente. Ma le applicazioni, non gli algoritmi. Sarebbe un errore fondamentale regolamentare di algoritmi. Dobbiamo fare il modo che chiunque crea questi modelli di intelligenza artificiale, in un modo o nell’altro, si prenda la responsabilità per la creazione dei modelli stessi. Secondo noi, cercare di sviluppare questa intelligenza artificiale in modo trasparente e open è la cosa migliore che possiamo fare».

Ibm Quantum Apps Roadmap

La questione delle competenze

Tiziana Tornaghi, managing partner Ibm Consulting Italia

Big Blue sta anche mettendo in campo competenze e consulenza per assistere le aziende nell’adozione dei nuovi strumenti. E in questo processo l’Italia gioca un ruolo importante. «Stiamo investendo molto, a livello globale abbiamo un centro di competenza importante in termini di AI generativa, ma anche in Italia abbiamo un gruppo significativo di persone e di architetti principalmente competenti in quest’area – concorda Tiziana Tornaghi, managing partner Ibm Consulting Italia – Siamo facendo leva sui nostri centri di innovazione di Napoli e di Bari per formare una factory di information AI generativa, e stiamo procedendo velocemente. Ma stiamo utilizzando lo strumento anche al nostro interno, cioè quello stesso percorso che stiamo facendo con i nostri clienti lo stiamo utilizzando all’interno per due motivi: primo, per migliorare la nostra efficienza nel realizzare le operazioni/contratti su cui siamo impegnati, e stiamo vedendo dei risultati significativi, e secondo proprio per riqualificare le nostre competenze, per crescere. Quindi siamo impegnati su un piano di formazione molto importante basato proprio su questi studenti»

Il futuro è nel Quantum Computing

E per il futuro? Quali saranno le prossime tecnologie che faranno fare un salto in avanti all’industria? Lasciando da parte eterne promesse come la fusione nucleare, che “sarà disponibile fra vent’anni” fin dagli anni ‘70, il volano della prossima trasformazione dell’industria sarà sicuramente il Quantum Computing. E ci sono buone probabilità che anche per il QC si ripeta il fenomeno già visto con l’IA, ovvero il repentino passaggio dai laboratori all’uso generalizzato. «Quello io posso dire che se anni fa noi avevamo una visione, adesso abbiamo una roadmap sia di hardware, di middleware, di software e di applicazioni, pubblicata, che noi stiamo seguendo e dal 2016 non abbiamo mancato una singola tappa – dichiara Curioni – Questa roadmap dice che all’inizio avevamo 56 qubits, adesso ne abbiamo 400, all’inizio dell’anno prossimo 1000, poi 4.000 e siamo convinti che avremo una macchina con più di 100.000 qubits per il 2032». Se un’azienda come Ibm pubblica una roadmap, potete essere sicuri che la seguirà e la realizzerà. «Soprattutto, noi sappiamo che il ritorno, il vantaggio – sia dal punto di vista scientifico che di business – avverrà tra adesso e i prossimi 2-5 anni – spiega Curioni – Questa è una una stima obiettiva, perché ci sono applicazioni in cui potrebbe succedere molto prima, altre in cui siamo meno sicuri; però in due/cinque anni siamo abbastanza sicuri che riusciremo a dimostrare un vantaggio concreto. Che non vuol dire riuscire a fare qualcosa meglio di un classical computer, parlo di un vantaggio concreto nella scienza e nel business».

Ibm Quantum Roadmap

Il fatto è che, superate le iniziali difficoltà inerenti alla realizzazione dell’hardware, e messa a punto una prima base di software (firmware, middleware, algoritmi eccetera), Ibm sta procedendo a tappe forzate verso la realizzazione del primo servizio commerciale di Quantum Computing. La roadmap di Big Blue, pubblicata nel 2019 e recentemente aggiornata, è stata finora rispettata in pieno, e se oggi il processore quantistico di Ibm ha 433 Qubits, il prossimo – nome in codice Condor – sarà da 1121 Qubits ed è atteso entro fine anno. Alcune macchine sono già operative in laboratori di ricerca e anche in entità private, come la Cleveland Clinic, e Ibm offre già un servizio di calcolo quantistico via cloud a università e altri enti, in preparazione del dispiegamento del servizio commerciale nei prossimi 2-5 anni. Secondo gli esperti, l’importanza del Quantum Computing non sta tanto nel permettere di fare le cose più rapidamente di quanto possano farle i computer tradizionali, bensì nel poter fare cose pressoché impossibili alle macchine attuali. E uno di questi utilizzi riguarderà da vicino proprio l’intelligenza artificiale. La capacità del QC di lavorare in modo non binario infatti favorirà l’esecuzione di processi AI complessi con un impiego di risorse fortemente ridotto rispetto alle necessità attuali. «Ci sono diversi campi di applicazione per il QC, dalla simulazione del mondo fisico all’ottimizzazione globale, ma dal mio punto di vista il campo in cui questo vantaggio diventerà più reale, più tangibile e anche più trasformativo, sarà probabilmente l’intersezione tra il Quantum Computing e l’intelligenza artificiale – sostiene Curioni – Perché è un campo che sta esplodendo, è un campo dove noi vediamo anche a livello intuitivo un grandissimo valore. Il quantum computer è in grado di trovare connessioni nascoste tra i dati, anche se la quantità dei dati è piccola, in maniera molto più efficiente di un classical computer. Questo perché lo spazio in cui è in grado di elaborare cresce esponenzialmente con il numero di Qubit della macchina. Ed è proprio lì che gli algoritmi di intelligenza artificiale hanno problemi, perché se io voglio avere uno spazio virtuale abbastanza grande per trovare connessioni nascoste, devo utilizzare una elevata quantità di risorse. Quindi quello sarà secondo me il campo di cui vedremo la trasmutazione maggiore» conclude Curioni.














Articolo precedenteEdge computing: safety e cybersecurity sono le principali sfide da affrontare per Red Hat
Articolo successivoCybersicurezza, al via il centro operativo di Leonardo per DG Connect (Commissione UE)






LASCIA UN COMMENTO

Per favore inserisci il tuo commento!
Per favore inserisci il tuo nome qui