Nvidia apre l’ecosistema NVLink Fusion e amplia la propria presenza nell’IA a Taiwan grazie alla partnership con Foxconn.

Nvidia ha svelato una notevole espansione della sua strategia hardware per l’intelligenza artificiale con il lancio di NVLink Fusion, una piattaforma che consente ai processori di terze parti di funzionare senza problemi insieme alle GPU Nvidia.
In precedenza limitata ai chip di proprietà di Nvidia, la tecnologia di interconnessione NVLink ora supporterà le unità di elaborazione centrale (CPU) e i circuiti integrati specifici per l’applicazione (ASIC) di fornitori esterni.
La mossa, annunciata dall’amministratore delegato Jensen Huang durante il suo discorso principale al Computex 2025 a Taiwan, segna un cambiamento nell’approccio di Nvidia, che mira a consolidare la propria posizione al centro dell’infrastruttura AI di prossima generazione, anche in sistemi ibridi che non si basano esclusivamente sui suoi componenti.
MediaTek, Qualcomm e altri a bordo di NVLink Fusion
Il nuovo programma NVLink Fusion ha già assicurato il supporto di numerosi partner chiave. Tra i produttori di chip che si sono uniti all’iniziativa figurano MediaTek, Marvell, Alchip, Astera Labs, Synopsys e Cadence.
L’integrazione consente a clienti come Qualcomm Technologies e Fujitsu di collegare le proprie CPU alle GPU Nvidia negli ambienti dei data center dedicati all’intelligenza artificiale.
In questo modo, queste aziende possono trarre vantaggio dall’ecosistema e dalla larghezza di banda di interconnessione di Nvidia, pur mantenendo la flessibilità nella progettazione hardware.
Questo sviluppo consente ai clienti di creare sistemi di intelligenza artificiale semi-personalizzati, anziché affidarsi esclusivamente alle soluzioni standard di Nvidia.
Ray Wang, analista tecnologico statunitense, ha osservato che NVLink Fusion aiuta Nvidia a soddisfare la domanda di data center basati su ASIC, tradizionalmente considerati alternative ai processori grafici a scopo generale di Nvidia.
Wang ha affermato che il nuovo approccio “consolida la posizione di Nvidia come centro delle fabbriche di intelligenza artificiale di prossima generazione”, soprattutto considerando che colossi tecnologici come Google, Amazon e Microsoft continuano a sviluppare chip AI proprietari.
Nvidia risponde alla concorrenza dei chip personalizzati
Nvidia domina attualmente il mercato delle GPU utilizzate nell’addestramento generale dell’intelligenza artificiale, ma deve affrontare una concorrenza sempre maggiore da parte di aziende che investono in chip personalizzati.
La nuova strategia NVLink Fusion sembra essere una risposta diretta, che consente a Nvidia di mantenere un ruolo nei sistemi di elaborazione AI che integrano hardware diversi.
Secondo Rolf Bulk, analista azionario presso New Street Research, la flessibilità offerta da NVLink Fusion potrebbe ridurre la domanda di CPU Nvidia.
Tuttavia, ha sottolineato che a livello di sistema, questa funzionalità rende le GPU di Nvidia più appetibili per i clienti che esplorano architetture di sistema alternative.
Sebbene i rivali tecnologici AMD, Intel e Broadcom siano assenti dall’ecosistema Fusion, la disponibilità di Nvidia a collaborare con i chip dei concorrenti potrebbe contribuire a consolidare il suo dominio negli ambienti di elaborazione AI, anche se il panorama dell’architettura diventa sempre più frammentato.
Nuova piattaforma DGX Cloud ed espansione in Taiwan
Oltre a NVLink Fusion, Nvidia ha presentato anche DGX Cloud Lepton, una piattaforma progettata per offrire agli sviluppatori l’accesso a decine di migliaia di GPU attraverso un mercato globale unificato.
Il sistema mira a risolvere le carenze di approvvigionamento delle GPU e a semplificare l’accesso alla capacità di calcolo all’interno della rete cloud di Nvidia.
A sostegno dello sviluppo regionale, Huang ha annunciato anche la creazione di un nuovo ufficio e di un progetto di supercomputer basato sull’intelligenza artificiale a Taiwan, in collaborazione con Foxconn, ufficialmente nota come Hon Hai Technology Group.
Questa mossa rafforza il ruolo di Taiwan come centro globale dell’intelligenza artificiale e amplia la presenza di Nvidia in Asia, un mercato fondamentale per la sua catena di approvvigionamento e per i partner dell’ecosistema, tra cui la fonderia di chip TSMC.
Il prossimo sistema GB300 Grace Blackwell, la cui uscita è prevista per il terzo trimestre del 2025, offrirà un notevole miglioramento delle prestazioni per i carichi di lavoro dell’intelligenza artificiale e completerà ulteriormente la gamma di prodotti in continua evoluzione di Nvidia.