Mentre aumentano le preoccupazioni legate alla sostenibilità della corsa all’IA, ElonMusk vorrebbe realizzare una nuova infrastruttura di supercalcolo di proporzioni inedite, alimentata da una quantità colossale di chip prodotti da NVIDIA. L’iniziativa, chiamata Colossus2, dovrebbe diventare operativa nel breve termine e mira a ridefinire gli standard globali della potenza computazionale.
La piattaforma includerà oltre 550.000 GPU di nuova generazione, in particolare i modelli Blackwell GB200 e GB300, considerati tra i più avanzati per l’elaborazione AI. Secondo le dichiarazioni di Musk, l’investimento necessario per costruire questo ecosistema potrebbe avvicinarsi ai 2.000 miliardi di dollari. L’obiettivo è arrivare entro cinque anni a un’infrastruttura paragonabile a 50 milioni di unità H100, in grado di generare circa 200 ExaFLOPS.
In un contesto in cui aziende come OpenAI e Meta stanno progettando enormi espansioni delle proprie capacità di calcolo, xAI sembra puntare su una rapidità esecutiva superiore. OpenAI mira a utilizzare oltre 100 milioni di chip IA nei prossimi anni, mentre Meta costruisce centri dati con capacità di svariati gigawatt. Tuttavia, xAI si distingue per la velocità di implementazione e la chiarezza della propria roadmap, con NVIDIA come partner tecnologico cruciale in una corsa che coinvolge anche attori istituzionali.
Dopo aver già ottenuto circa 10 miliardi di dollari in finanziamenti, xAI è impegnata a raccogliere ulteriori 12 miliardi, in collaborazione con Valor Equity Partners. I fondi serviranno per acquistare ulteriori GPU e realizzare una nuova struttura destinata all’addestramento di Grok. Tuttavia, alcuni investitori chiedono condizioni rigorose, tra cui la restituzione del capitale in tempi brevi.
Uno degli obiettivi dichiarati da Musk è svincolare xAI dall’utilizzo dei servizi cloud offerti da grandi aziende come Microsoft, Amazon o OpenAI. Per farlo, punta su una stretta collaborazione con NVIDIA, che ha già consegnato un primo lotto di 30.000 chip GB200.










