A.I., Google corre ai ripari

intelligenza-artificiale2

In risposta alle preoccupazioni di numerosi scienziati, Deep Mind, il think-tank di Google, ha assunto degli esperti per monitorare i rischi posti dallo sviluppo dell′ Intelligenza Artificiale.

DeepMind, il laboratorio londinese sull’ Intelligenza Artificiale, acquistato da Google nel 2014 per 400 milioni di sterline e dedicato alla costruzione di sistemi computerizzati che possono imparare e pensare da soli, ha  inserito nel suo team nuovi scienziati  nel tentativo allontanare le preoccupazioni che lo sviluppo dell’ Intelligenza Artificiale possa tramutarsi in qualcosa di pericoloso. Fino ad ora gli algoritmi sviluppati da Deep Mind sono stati utilizzati per battere gli esseri umani a complessi giochi da tavolo come Go, e hanno aiutato Google a tagliare la sua alta bolletta dell’ elettricità, ma Deep Mind, ovviamente, non ha in progetto di fermarsi qui. L’ ultimo obbiettivo è definire al massimo le potenzialità dell’ Intelligenza Artificiale  per fare del mondo un  luogo migliore.

hal_A.I.
Hal, il computer del film di Stanley Kubrick 2001 Odissea nello Spazio

A.I. pericolosa?

Ma dato che alcune delle piu’ brillanti intelligenze mondiali, tra cui Stephen Hawking e il fondatore di Tesla, Elon Musk, hanno sollevato più volte la preoccupazione che le macchine superintelligenti – ben descritte nel libro “Superintelligence” del filosofo dell’ università di Oxford Nick Bostrom –possano sovvertire l’ordine delle cose, Deep Mind, in un tentativo di minimizzare la possibilità che venga creata una intelligenza artificiale pericolosa, ha arruolato tre esperti di primo piano:  Viktoriya Krakovna, Jan Leike, e Pedro Ortega. Faranno pare, secondo il sito Business Insider, di un ” Safety Group “, appositamente creato  per fare i conti con l’eventualità indesiderata. La preoccupazione di Hawking e di Elon Musk è che l’ A.I. potrà alla fine rappresentare una delle più grandi minacce per l’ umanità e che le macchine potranno surclassare gli umani nel giro di pochi decenni e decidere che non siano più necessari.







Dei tre nuovi arruolati in Deep Mind, Krakovna è stata cofondatrice del Future of Life Institute in Boston, creato appositamente per mitigare i rischi esistenziali cui puo’ essere esposta l’ umanità dallo sviluppo delle macchine pensanti.














Articolo precedenteIndustriamo l’ Italia a Venezia
Articolo successivoUn ponte aereo per la diga di Guatapè






LASCIA UN COMMENTO

Per favore inserisci il tuo commento!
Per favore inserisci il tuo nome qui