di Alexandre Milli, 24 maggio 2024, 14:00 24 maggio 2024, 14:00
Durante il Build 2020, Microsoft ha annunciato di aver creato un supercomputer in collaborazione con OpenAI.
24 MAGGIO 2024 | A quattro anni di distanza dalla creazione Microsoft torna a parlare del suo supercomputer per addestrare l’AI. In quel momento era utilizzato per GPT-3 alimentato da circa 10000 GPU Nvidia. Lo scorso novembre contava su 14400 GPU mentre oggi appena sei mesi dopo secondo quanto riporta Microsoft ogni mese vengono implementati cinque volte quel quantitativo, per addestrare Copilot, GPT-4o e altri modelli – se foste interessati all’argomento trovate maggiori dettagli nel video in alto e a questo indirizzo.
Circa un anno fa a maggio, siamo entrati nei meccanismi del nostro supercomputer AI costruito nel 2020 per OpenAI per poter addestrare ed eseguire GPT-3 in quel momento. Ora quel sistema comprendeva effettivamente 10.000 GPU Nvidia V100 collegate in rete. E non è esagerato affermare che da allora molto è cambiato. Quelle dimensioni, quel sistema impallidiscono rispetto a quello che abbiamo costruito nel novembre 2023 per addestrare la prossima generazione di modelli di grandi dimensioni di OpenAI. Questo è stato classificato in modo indipendente da TOP500 come il supercomputer numero tre al mondo e il più grande supercomputer basato su cloud. Ci siamo assicurati quel posto con 14.400 GPU Nvidia H100 e 561 petaflop di elaborazione, che all’epoca rappresentavano solo una frazione della scala massima di quel supercomputer. Il nostro sistema di intelligenza artificiale è ora molto più grande e cambia ogni giorno e ogni ora. Oggi, appena sei mesi dopo, ogni mese implementiamo l’equivalente di cinque di questi supercomputer. Il nostro cablaggio ad alta velocità e InfiniBand che collega le nostre GPU sarebbe abbastanza lungo da avvolgere la terra almeno cinque volte.
14 MARZO 2023 | A quasi tre anni dall’annuncio, stando a un nuovo report, è emerso che Microsoft avrebbe speso centinaia di milioni di Dollari per il super computer parte della partnership con OpenAI, per la creazione dell’infrastruttura basata sulla piattaforma di cloud computing di Azure, necessaria per “addestrare” l’intelligenza artificiale. Microsoft ha annunciato di aver effettuato un aggiornamento al supercomputer con migliaia di unità di elaborazione grafica Nvidia per costruire l’hardware sul quale gira ChatGPT e il proprio modello di AI di Bing, al fine di migliorarne le prestazioni e l’efficienza.
La co-progettazione di supercomputer con Azure è stata fondamentale per ridimensionare le nostre esigenti esigenze di formazione sull’intelligenza artificiale, rendendo possibile il nostro lavoro di ricerca e allineamento su sistemi come ChatGPT.
Il supercomputer Microsoft
Microsoft ha annunciato di aver realizzato, in collaborazione con OpenAI, un Artificial Intelligence supercomputer basato su Azure. L’obiettivo è permettere a sviluppatori, data scientist e clienti business di accedere a questi ampi modelli di intelligenza artificiale, ai tool per l’ottimizzazione dell’addestramento e alle risorse del supercomputer tramite gli Azure AI Services e GitHub, per rendere la potenza dell’AI accessibile su vasta scala. Il Super computer si inserisce nella top 5 mondiale, rendendo la nuova infrastruttura disponibile in Azure e consentendo di “addestrare” modelli di intelligenza artificiale molto ampi. Il supercomputer creato per OpenAI è costituito da un unico sistema con una CPU composta da oltre 285.000 core, 10.000 GPU e una connettività di rete di 400 GB al secondo per ciascun server GPU. Inoltre, grazie ad Azure, il supercomputer beneficia di tutte le funzionalità dell’infrastruttura cloud di Microsoft, tra cui il deployment rapido, i datacenter sostenibili e i servizi di Azure.
Trovate maggiori dettagli sul supercomputer Microsoft a questo indirizzo. Che ne pensate? Ci girerà Crysis? Ditecelo nei commenti.
Articolo di Windows Blog Italia