I recenti progressi nel campo dell’intelligenza artificiale
sono dovuti all’uso delle rete neurali convoluzionali, ovvero reti
virtuali ispirate al funzionamento del cervello umano e realizzate con
potenti computer in cui sono installate numerose GPU. I ricercatori del MIT hanno progettato un chip, denominato Eyeriss, che potrebbe essere utilizzato per implementare reti neurali sui dispositivi a bassa potenza, come gli smartphone.
Eyeriss è dieci volte più efficiente di una GPU mobile
e potrebbe consentire l’esecuzione locale degli algoritmi di
intelligenza artificiale, evitando l’upload dei dati su Internet per la
successiva elaborazione. Il nuovo chip offrirebbe anche altri vantaggi,
come riduzione della latenza e incremento delle prestazioni,
condivisione dei risultati e non dei dati più sensibili. La sua
progettazione ha ovviamente richiesto il rispetto di alcuni vincoli, tra
cui la riduzione dei consumi. L’efficienza di Eyeriss, formato da 168 core, è stata ottenuta minimizzando la frequenza con cui i core scambiano i dati con la memoria.
Mentre i core di una GPU condividono una memoria di grandi
dimensioni, ogni core Eyeriss possiede una propria memoria. Inoltre, il
chip integra un circuito che comprime i dati prima di
inviarli ai singoli core. Ogni core comunica solo con il suo vicino,
senza passare per la memoria principale. L’allocazione dei dati avviene
in modo tale da massimizzare il lavoro che ogni core può eseguire prima
del prelievo di altri dati dalla memoria centrale.
Nel corso dell’International Solid State Circuits Conference di San
Francisco, i ricercatori del MIT hanno mostrato il funzionamento di
Eyeriss, implementando una rete neurale in grado di riconoscere le immagini.
Grazie al nuovo chip, i calcoli complessi eseguiti dalle reti neurali
potrebbero essere trasferiti dal cloud al dispositivo mobile. Il
progetto è stata parzialmente finanziato dalla DARPA.
Commenti
Posta un commento