Intelligenza artificiale – intelligenza umana ?
Quello che gli scienziati chiedono oggi all’ Intelligenza Artificiale è qualcosa di molto diverso dalla capacità di calcolare tutte le soluzioni possibili per risolvere un problema. Poteva essere lo scopo di Deep Blue, il computer IBM che nel 1997 sconfisse agli scacchi il grande Kasparov; o quello del robot recentemente entrato nel Guinness dei Primati per aver risolto un cubo di Rubik in meno di un secondo.
Tuttavia, la cosiddetta “forza bruta” del computer, cioè la sua enorme capacità di calcolo ed elaborazione dei dati, è solo uno dei campi di ricerca sull’ Intelligenza Artificiale.
La frontiera attuale è arrivare a creare una piattaforma in grado di imitare il cervello umano nella sua capacità di interagire con l’ambiente e imparare dalle esperienze passate.
Lo ha fatto in parte Alpha Go, battendo il campione mondiale del gioco omonimo – una vittoria che ha presupposti completamente diversi da quelli del 1997. La vera sfida, in questo caso, era appunto assemblare una “mente” in grado di imparare dai propri errori e modificare autonomamente le proprie reazioni – perché al Go non si vince calcolando tutte le possibilità, ma usando l’intuito.
La sostanziale differenza tra Alpha Go ed un’ intelligenza artificiale veramente in grado di interagire con l’ambiente riguarda un elemento molto concreto (e ingombrante): la presenza di un supporto fisico, cioè di un corpo. Un programma necessita di un supporto fisico minimo per compiere la sua funzione, ma se vogliamo un’ intelligenza artificiale che collabori con gli umani – per esempio in situazioni di emergenza, nell’assistenza ospedaliera o in quella domestica – allora la componente fisica diventa una variabile fondamentale, che influenza la performance dell’IA stessa.
Ma le telecamere collocate negli occhi del robot sono solo l’inizio: quando si guarda attorno, iCub vede il mondo in maniera molto diversa da come lo vediamo noi. “ICub vede intorno a sé oggetti potenziali, che ai suoi occhi appaiono come macchie colorate. Diventano oggetti solo quando ad essi viene associato un nome.”
Quello che gli scienziati chiedono oggi all’ Intelligenza Artificiale è qualcosa di molto diverso dalla capacità di calcolare tutte le soluzioni possibili per risolvere un problema. Poteva essere lo scopo di Deep Blue, il computer IBM che nel 1997 sconfisse agli scacchi il grande Kasparov; o quello del robot recentemente entrato nel Guinness dei Primati per aver risolto un cubo di Rubik in meno di un secondo.
Tuttavia, la cosiddetta “forza bruta” del computer, cioè la sua enorme capacità di calcolo ed elaborazione dei dati, è solo uno dei campi di ricerca sull’ Intelligenza Artificiale.
La frontiera attuale è arrivare a creare una piattaforma in grado di imitare il cervello umano nella sua capacità di interagire con l’ambiente e imparare dalle esperienze passate.
Lo ha fatto in parte Alpha Go, battendo il campione mondiale del gioco omonimo – una vittoria che ha presupposti completamente diversi da quelli del 1997. La vera sfida, in questo caso, era appunto assemblare una “mente” in grado di imparare dai propri errori e modificare autonomamente le proprie reazioni – perché al Go non si vince calcolando tutte le possibilità, ma usando l’intuito.
La sostanziale differenza tra Alpha Go ed un’ intelligenza artificiale veramente in grado di interagire con l’ambiente riguarda un elemento molto concreto (e ingombrante): la presenza di un supporto fisico, cioè di un corpo. Un programma necessita di un supporto fisico minimo per compiere la sua funzione, ma se vogliamo un’ intelligenza artificiale che collabori con gli umani – per esempio in situazioni di emergenza, nell’assistenza ospedaliera o in quella domestica – allora la componente fisica diventa una variabile fondamentale, che influenza la performance dell’IA stessa.
ICub: l’ Intelligenza Artificiale che imita la natura
Telecamere e microfoni li conosciamo: possiamo intuirne le funzioni su un robot. Quello che forse sorprende di più è la capacità di iCub di percepire sensazioni tattili. “ICub riesce a sentire forza e pressione su braccia e torso”, spiega Lorenzo, “grazie ad un tessuto flessibile collegato a sensori tattili” – praticamente, l’equivalente robotico della nostra pelle.
Non bisogna però pensare che l’hi-tech sia il deus ex machina capace di donare la vita a un corpo inerte fatto di alluminio, ferro e plastica: in ballo c’è la questione percettiva, un problema più complesso di quanto si possa immaginare. Per questo motivo ad iCub lavorano esperti di scienze della vita e del funzionamento del cervello – perché, nelle parole di Lorenzo, “è necessario studiare il cervello per risolvere il problema; e il cervello è la prova vivente che questi problemi possono essere risolti”.Ma le telecamere collocate negli occhi del robot sono solo l’inizio: quando si guarda attorno, iCub vede il mondo in maniera molto diversa da come lo vediamo noi. “ICub vede intorno a sé oggetti potenziali, che ai suoi occhi appaiono come macchie colorate. Diventano oggetti solo quando ad essi viene associato un nome.”
Un esempio è il modello di sistema visivo creato per controllare l’attenzione del robot. “Il cervello di iCub utilizza un modello bidimensionale per riconoscere gli oggetti e uno tridimensionale per muoversi nello spazio. È un modello ispirato alla biologia del sistema nervoso umano che, secondo le ultime ricerche, utilizza due percorsi di elaborazione visiva completamente diversi: a due e a tre dimensioni”.
ICub riesce a riconoscere fino a 30 oggetti grazie ad un sistema di interazione tra la posizione relativa delle dita e il peso esercitato sul polso (distinguendo, per esempio, tra una bottiglietta d’acqua piena e una vuota).
Tutte queste informazioni passano dai sensori al “cervello” del robot, che si trova (ovviamente) sulla testa ed è costituito da una CPU Intel® Core™ i5-4300 da 1.9 GHz. La scheda sulla testa si connette a sua volta ad un cluster esterno di cinque computer e un server, su cui vengono eseguiti una serie di moduli in parallelo: c’è un modulo che riconosce gli oggetti, un altro che controlla il bilanciamento e così via. I moduli prendono i dati dai sensori e, dopo averli elaborati, restituiscono un feedback al robot, che compie un’azione. Sulle CPU Intel vengono eseguiti i software per il coordinamento dei motori per camminare, controllare lo sguardo e gli algoritmi di visione e apprendimento (come il calcolo dell’attenzione o la visione stereo per la misura della distanza).
Commenti
Posta un commento