Categories: breaking News

Microsoft Maia 200: il nuovo chip per l’inferenza AI a 3nm

(Adnkronos) – Il settore tecnologico sta attraversando una transizione fondamentale: dalla fase di sperimentazione dei modelli di intelligenza artificiale alla creazione di un'infrastruttura solida e scalabile per l'uso reale. In questo contesto, Microsoft ha annunciato Maia 200, un acceleratore di AI di nuova generazione progettato per ottimizzare le prestazioni, ridurre i consumi energetici e abbattere i costi operativi su scala globale. Mentre l'addestramento dei modelli (training) ha dominato il dibattito tecnologico degli ultimi anni, l'attenzione si sta ora spostando sull'inferenza. Si tratta del processo in cui l'AI risponde concretamente ai prompt, genera contenuti o supporta decisioni in tempo reale. Maia 200 è stato sviluppato partendo dal presupposto che "l'inferenza è il momento in cui l'AI fa davvero la differenza". Sebbene tradizionalmente sia stato utilizzato hardware generico o mutuato dal training, spesso potente ma eccessivamente costoso e poco efficiente, Maia 200 si presenta come la prima piattaforma integrata "espressamente per l'inferenza AI, con l'obiettivo di migliorare in modo significativo costo, latenza ed efficienza energetica". Realizzato con il processo produttivo a 3 nanometri di TSMC, ogni chip Maia 200 integra oltre 140 miliardi di transistor. L'architettura è stata ridisegnata nei suoi elementi fondamentali: 
Gestione della memoria: sistema ottimizzato per mantenere i dati vicini ai core di calcolo, minimizzando i colli di bottiglia. 
Networking: infrastruttura di rete potenziata per ridurre la latenza nei carichi di lavoro distribuiti. 
Formati numerici: ottimizzazione di formati ridotti per elaborare i carichi di lavoro con minor dispendio energetico e di memoria. Secondo i dati tecnici forniti, il sistema garantisce "prestazioni per dollaro migliori del 30% rispetto all'hardware di ultima generazione", consentendo di eseguire i modelli generativi più complessi con un numero ridotto di chip e un costo per risposta inferiore. La distribuzione dei primi sistemi Maia 200 è già stata avviata nella regione Azure US Central, con una roadmap che prevede l'espansione verso la regione US West 3 e altri nodi globali nei prossimi mesi. L'impatto tecnologico sarà visibile direttamente nei servizi quotidiani. L'acceleratore supporterà infatti i workload di Microsoft 365 Copilot, la generazione di dati sintetici e le esperienze avanzate di Microsoft Foundry. L'obiettivo dichiarato è garantire che le capacità AI possano scalare "senza aumentare il consumo energetico o l'overhead operativo", rendendo la tecnologia "accessibile e pronta per la vita di tutti i giorni". 
—tecnologiawebinfo@adnkronos.com (Web Info)

staff

Recent Posts

FOMAL: Opportunità Educative e Professionali per Giovani in Italia – Scopri il Tuo Futuro!

FOMAL è una fondazione dedicata alla promozione della formazione professionale per i giovani, fornendo corsi innovativi e progetti all'avanguardia. La…

1 ora ago

Guida ai click day per i flussi d’ingresso 2026 in Italia

Preparati per i click day di febbraio 2026: informazioni essenziali per la tua domanda.

6 ore ago

Flussi d’Ingresso 2026: Guida Completa ai Click Day di Febbraio

I Click Day di Febbraio 2026: Scopri le Date e Come Partecipare ai Flussi d'Ingresso!

12 ore ago

Guida Definitiva al Supporto per Formazione e Lavoro: Risorse e Consigli Utili

Esplora il Supporto alla Formazione e al Lavoro per Potenziare le Tue Opportunità Professionali.

22 ore ago

TFR al Fondo di Tesoreria INPS: le nuove normative

Aggiornamenti importanti sulle modalità di versamento del TFR al Fondo di Tesoreria INPS.

24 ore ago

Guida Completa ai Bonus per Disoccupati 2026: Indennità e Sussidi Disponibili

Nel 2026, i bonus per disoccupati rappresentano un supporto essenziale per chi cerca lavoro. Scopri come accedere alle indennità e…

1 giorno ago