Intelligenza artificiale: un universo ancora troppo inesplorato per fidarsi ciecamente dei robot

Una volta costruito un supercalcolatore planetario, lo scienziato – immaginato dallo scrittore di fantascienza Frederic Brown in un suo racconto – lo accende e gli rivolge una domanda: “Esiste Dio?”. Dopo un paio di minuti una fredda voce metallica gli risponde: “Sì, adesso esiste”.

In realtà, oggi, l’Ia (Intelligenza artificiale) e la robotica incontrano ancora grossi limiti rispetto all’intelletto umano. A spiegarlo è il futurologo, Martin Ford, autore di Architects of intelligence (ed. Packt Publishing), in una raccolta di interviste a 23 dei maggiori esperti mondiali di intelligenza artificiale: da Demis Hassabis (capo di Google DeepMind) a Fei Fei Li dell’Università di Stanford, al transumanista Ray Kurzweil.

Nella raccolta vengono trattati alcuni degli aspetti più interessanti della robotica e del futuro che ci attende e vengono approfonditi tutti gli elementi che, ad oggi, non sono sufficienti a far si che i robot raggiungano l’intelleto umano.

Robot

“Gli esperti – dichiara Martin Ford in un’intervista rilasciata a laRepubblica – sono sicuri che prima o poi svilupperemo un’intelligenza artificiale generale (Agi), ragionatrice e creativa come e più di noi. E sarà la nostra ultima invenzione – prosegue Ford – perché a quelle successive potrà pensarci la stessa macchina. Ma c’è discordia sulla presumibile data”. Secondo Ray Kurzweil potrebbe avvenire già nel 2029.

“Oggi, i più avanzati algoritmi di deep learning riescono nelle traduzioni e nel riconoscimento vocale, ma non vanno oltre la superficie della comunicazione: non sono in grado di capire le intenzioni di chi parla”. Se io dico – continua il futurologo – ‘la stampante ha finito la carta’, un uomo capisce subito che lo sto invitando a rifornire la stampante, la macchina ancora no”.

Potrebbe interessarti anche: L’interazione tra robotica e neuroscienza per aiutare la mente umana
Potrebbe interessarti anche: Tu lo conosci M.A.R.I.O.?

L’autore di The Lights in the Tunnel (2009) accenna poi alla differenza tra l’uomo e la macchina. “La differenza sta nel trasferimento di conoscenze da un dominio con cui si ha dimestichezza a un altro del tutto nuovo. Quando una persona affronta un nuovo lavoro, non parte da zero: è capace di sfruttare la conoscenza di aspetti simili di lavori che già conosce e di applicarla per quanto possibile ai nuovi compiti. Per il computer questa capacità è ancora poco sviluppata”.

“Ma anche se ci vorranno 30 o 50 anni prima che la macchina diventi più intelligente dell’uomo, ce ne vorranno ancora di più per capire come manterne il controllo senza esserne sopraffatti”. Per questo studiosi del calibro di Nick Bostrom suggeriscono di iniziare la discussione sulla sicurezza dell’intelligenza artificiale. “I rischi da valutare, per quasi tutti gli esperti – aggiunge Ford – sono sono le armi autonome: per esempio i droni capaci di decidere da soli se colpire o meno un essere umano. Il grosso problema sta nella considerazione per la quale se hai dei normali droni e vuoi usarne 1.000 serviranno 1.000 uomini. Se, invece, usi droni autonomi è sufficiente la volontà di una sola persona per lanciarne un esercito”.

“Allora – chiede il giornalista a Martin Ford – a cosa si dovrà fare più attenzione quando avremo una macchina più intelligente di noi?”
“All’allineamento tra i suoi obiettivi e il benessere dell’umanità”.


LASCIA UN COMMENTO

Please enter your comment!
Please enter your name here