Sorpresa: l’Europa si accorge dell’intelligenza artificiale

di Chiara Volontè ♦︎ L’Ue detta regole e prova a circoscrivere il fenomeno. Ma le misure sono antistoriche

C’è una data, il 9 aprile, e c’è una sede, Bruxelles: sono le coordinate spazio-temporali che dovrebbero segnare l’inizio delle linee guida etiche per realizzare a livello europeo un’intelligenza artificiale degna della nostra fiducia (in inglese Trustworthy Artificial Intelligence). Si tratta di un protocollo elaborato dal gruppo europeo indipendente di esperti di alto livello, composto da 52 persone tra cui 5 italiani, presentato il 9 aprile scorso a Bruxelles.







Un testo che, sulla carta, dovrebbe normare i quattro principi fondamentali dell’intelligenza artificiale e del rapporto dell’uomo con essa: il rispetto dell’autonomia umana; il principio della prevenzione del danno; il principio di equità; il principio di esplicabilità. A leggere questi nomi, sembra di incontrare concetti condivisibili. Chi vorrebbe un’intelligenza artificiale alienante pronta a distruggere l’umanità?

Ma come ci ha raccontato il professor Luciano Floridi in una intervista in due “puntate” (qui e qui), il modo stesso che ha l’Europa di intendere l’intelligenza artificiale è vecchio e apocalittico. Ci si immaginano subito robot pronti a prendere il potere e a ridurre in catene la razza umana. Una sorta di film fantascientifico ambientato nel futuro in cui l’uomo sarà stato messo all’angolo dall’intelligenza artificiale.

Per questo, i quattro capisaldi si trasformano immediatamente in qualcosa di grottesco. Il primo punto, infatti, prevede che la libertà e l’autonomia debbano essere preservati e, si legge nel testo, «questi principi dovranno essere difesi e rispettati anche nello sviluppo e poi nell’utilizzo di sistemi di intelligenza artificiale».

Poco più di un’ovvietà. Così come l’idea che l’AI possa causare dei danni: in questo caso il testo approvato a Bruxelles invita a prestare attenzioni «alle situazioni in cui i sistemi di IA possono causare o aggravare gli impatti negativi dovuti ad asimmetrie di potere o di informazione, ad esempio tra governi e cittadini, aziende e consumatori, datori di lavoro e dipendenti. La prevenzione dei danni implica anche la tutela dell’ambiente naturale e di tutti gli esseri viventi».

Il principio di equità postula che «lo sviluppo, la diffusione e l’uso dei sistemi di IA devono essere equi. Pur riconoscendo che esistono molte interpretazioni diverse dell’equità, riteniamo che l’equità abbia una dimensione sia sostanziale che procedurale. La dimensione sostanziale implica un impegno a: assicurare una distribuzione equa dei benefici e dei costi, e a garantire che gli individui e i gruppi siano liberi da pregiudizi, discriminazioni e stigmatizzazioni ingiuste».

Mentre il quarto, quello di esplicabilità, sostiene che questo concetto sia «fondamentale per costruire e mantenere la fiducia degli utenti nei sistemi AI. Ciò significa che i processi devono essere trasparenti, le capacità e lo scopo dei sistemi di IA comunicati apertamente e le decisioni, per quanto possibile, spiegabili a coloro che ne sono direttamente o indirettamente interessati. Senza queste informazioni, una decisione non può essere debitamente contestata».

A leggere questi punti, quindi, ci si accorge subito dello scollamento sempre più netto tra chi con l’intelligenza artificiale ci lavora, ormai da tempo – perché è da almeno 20 anni che questo tipo di software viene impiegato quotidianamente – e chi invece si trova improvvisamente proiettato in una nuova narrazione che vede “le macchine”, i robot, l’automazione esclusivamente come un pericolo. Un periodo di transizione, difficile, ci sarà sicuramente. Immaginare però che questo si trasformi in un futuro apocalittico pare davvero eccessivo.














Articolo precedenteHuawei: obiettivo automotive. E i conti volano
Articolo successivoMitsubishi mette in commercio la nuova stampante 3D per metalli






LASCIA UN COMMENTO

Per favore inserisci il tuo commento!
Per favore inserisci il tuo nome qui