banner
Casa / Notizia / Intel minimizza la CPU ibrida
Notizia

Intel minimizza la CPU ibrida

Dec 02, 2023Dec 02, 2023

Quando Intel annunciò il suo progetto "Falcon Shores" per costruire un motore di calcolo ibrido CPU-GPU nel febbraio 2022 che consentisse il ridimensionamento indipendente della capacità di CPU e GPU all'interno di un singolo socket, sembrava che il produttore di chip si stesse preparando ad affrontare i rivali Nvidia. e AMD va avanti con i motori di elaborazione ibridi, che Intel chiama XPU, AMD chiama APU e Nvidia in realtà non li ha se vuoi essere severo su cosa sono i suoi "superchip" e cosa non sono.

Come abbiamo sottolineato all'epoca, questo approccio "Aurora in a socket" di inserire un mix mutevole di chiplet CPU e GPU in un socket Xeon SP con letteralmente la stessa memoria principale e un collegamento a latenza molto bassa tra i chiplet consente soluzioni più complesse L'inferenza AI rispetto all'unità matematica della matrice AMX in uno Xeon SP potrebbe gestire anche una maggiore elaborazione HPC in virgola mobile di quanto sia possibile in un'unità vettoriale AVX-512 senza costringere i clienti a ricorrere a una latenza più elevata, GPU discreta nella linea Max Series o addirittura una GPU discreta di Nvidia o AMD.

Quando Raja Koduri, che era direttore generale del business Accelerated Computing Systems and Graphics di Intel – che è stato interrotto in seguito all'uscita di Koduri da Intel nel marzo di quest'anno – Intel aveva promesso che Falcon Shores avrebbe offerto risultati 5 volte migliori. prestazioni per watt, densità di elaborazione più di 5 volte più elevata in un socket X86 e larghezza di banda e capacità di memoria più di 5 volte più elevate con quella che viene chiamata "memoria condivisa con larghezza di banda estrema". Presumiamo che questi numeri siano stati confrontati con un socket del server Xeon SP "Ice Lake", ed entrambi erano componenti di altissimo livello.

Falcon Shores era programmato per il 2024 e ampiamente previsto si collegherà direttamente alla stessa piattaforma server "Mountain Stream" utilizzata dai futuri Xeon SP "Granite Rapids". E abbiamo ipotizzato che Intel potesse fare qualcosa di pazzesco, come dare alla GPU un livello di emulazione che la facesse sembrare una grande e grossa unità matematica vettoriale AVX-512 per semplificare la programmazione. (O più probabilmente un'unità AMX, ora che ci pensiamo un po' di più.)

Nel marzo di quest'anno, mentre Koduri lasciava Intel, l'azienda ha iniziato a tornare indietro non solo offrendo quelli che sembravano cinque diversi mix di chiplet CPU-GPU all'interno di un socket Xeon SP, ma ha anche eliminato il kicker "Rialto Bridge" al GPU "Ponte Vecchio" Max Series che eseguirà la maggior parte dei 2 picchi di elaborazione exaflop nel supercomputer "Aurora" presso l'Argonne National Laboratory. All'epoca si vociferava che i primi dispositivi Falcon Shores sarebbero usciti nel 2025, e solo con chiplet GPU, rendendo il dispositivo sostanzialmente un discreto sostituto GPU del Ponte Vecchio al posto del Ponte di Rialto. Il Ponte di Rialto è stato cancellato perché Intel voleva passare a una cadenza GPU di due anni nelle sue tabelle di marcia, e ragionevolmente perché è quello che stanno facendo Nvidia e AMD.

Alla recente conferenza sul supercalcolo ISC23 ad Amburgo, Intel ha chiarito le sue intenzioni riguardo a Falcon Shores, confermando non solo che questo dispositivo sarebbe un motore di calcolo esclusivamente GPU, ma che i tempi per le XPU ibride non erano ancora maturi.

"La mia precedente spinta ed enfasi sull'integrazione di CPU e GPU in una XPU era prematura", ha spiegato Jeff McVeigh, direttore generale del Super Compute Group, nel briefing per l'evento ISC23. E francamente, McVeigh probabilmente si sta assumendo la responsabilità di qualcosa che è stata in realtà una decisione presa da Koduri e forse anche con Jim Keller nel mix, che ha lasciato per diventare amministratore delegato e ora responsabile della tecnologia della startup AI Tenstorrent più di due anni fa.

"E il motivo è", ha continuato McVeigh nella sua spiegazione, "ci sentiamo come se fossimo in un mercato molto più dinamico di quanto pensassimo anche solo un anno fa - tutta l'innovazione attorno ai modelli linguistici di grandi dimensioni dell'intelligenza artificiale generativa. Sebbene gran parte di ciò sia stato nello spazio commerciale, vediamo che viene adottato in modo molto più ampio anche nelle attività scientifiche. E quando ti trovi in ​​quel mercato dinamico, dove i carichi di lavoro cambiano rapidamente, non vuoi davvero forzarti lungo il percorso di una CPU fissa rapporto GPU.Non vuoi fissare i fornitori o anche le architetture utilizzate tra X86 e Arm - quali sono le migliori per consentire flessibilità, consentire un buon supporto software tra di loro - rispetto a quando ti trovi in ​​un mercato maturo. Quando i carichi di lavoro sono fissi, quando si ha un'ottima chiarezza su di essi, quando non cambieranno drasticamente, l'integrazione è eccezionale. Abbiamo fatto l'integrazione molte, molte volte. Aiuta con i costi, riduce potenza. Ma sei a posto: sei a posto con i fornitori di questi due componenti, sei a posto con il modo in cui sono configurati. E riteniamo che, considerando la situazione attuale del mercato, non sia il momento di integrarsi."