Google, l’AI mette da parte l’uomo e si auto-progetta i suoi chip

Google, l’AI mette da parte l’uomo e si auto-progetta i suoi chip


Nell’ennesimo parallelismo tra Skynet di Terminator e la realtà, Google ha annunciato ieri di essere riuscita a far progettare dei chip AI da… un algoritmo AI: i progetti del software sono stati definiti “paragonabili o superiori” a quelli creati dagli esseri umani, ma sono stati generati in tempi enormemente inferiori. Un lavoro che avrebbe richiesto mesi a un team umano ha impegnato la rete neurale per meno di sei ore. Detta in altre parole, l’AI contribuisce in modo sostanziale alla sua stessa evoluzione.

Google lavora a questa innovazione ormai da anni, ma quello pubblicato ieri su Nature è il primo successo concreto. Le TPU (Tensor Processing Unit) sviluppate dall’AI saranno effettivamente prodotte in massa e introdotte sul mercato – saranno di fatto i chip AI di prossima generazione del colosso di Mountain View. Le TPU di Google vengono usate internamente per ricerche sull’AI e sviluppo di funzionalità nei suoi prodotti software, oppure vengono offerte ai clienti dei servizi cloud della società.







Tecnologia
18 Mag


La fase specifica di progettazione dei chip assegnata dai googler all’AI è il cosiddetto floorplanning. Sostanzialmente, i designer devono realizzare il layout ottimale di un die per tutti i sottosistemi di un chip, come CPU, GPU e core di memoria. Il posizionamento dei vari componenti determina le prestazioni e l’efficienza di un chip; viste le dimensioni estremamente ridotte con cui si lavora, bastano spostamenti di pochi nanometri per avere un impatto profondo su entrambi i parametri.

Un aspetto affascinante dei processi AI è quanto diversi siano da quelli umani. L’abbiamo visto nel caso delle sfide al gioco Go dei sistemi di DeepMind: la vittoria in una delle partite è stata determinata proprio da una mossa apparentemente illogica, la famosa mossa 37. Più o meno lo stesso si è verificato anche con il design dei chip: gli umani tendono a produrre design ordinati e razionali, mentre le AI sembrano quasi distribuire i vari sottosistemi in modo casuale. Eppure, anche qui, il risultato finale è a favore dell’AI.

Secondo un editoriale di Nature stessa, la scoperta di Google potrebbe ritardare la fine della Legge di Moore, un assioma dell’informatica formulato mezzo secolo fa fa secondo cui ogni due anni il numero di transistor in un chip raddoppia. Magari l’AI non riuscirà a superare gli ostacoli fisici della miniaturizzazione dei processi produttivi, ma potrebbe trovare altri sistemi per migliorare le prestazioni di un chip alla stessa velocità.



Via: HDBlog

ilportaledelnerd

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *