L’azienda di cloud computing continua a lanciare sul mercato soluzioni innovative come quelle di AMD, che hanno un’architettura potente e una suite software open source.
Seeweb ha introdotto nella sua proposta commerciale dei servizi di GPU cloud basati sui potenti chip AMD Instinct MI300X e sulla suite software ROCm, aprendo nuove frontiere per l’intelligenza artificiale e il calcolo ad alte prestazioni.
Seeweb è stata prima in Italia, e tra le prime in Europa, a mettere a disposizione degli utenti questi chip in modalità cloud.
Anche per l’AI, come per i carichi di lavoro più tradizionali, il modello in cloud si è affermato come il più adatto per semplicità, flessibilità e scalabilità anche temporanea. Il GPU cloud computing è particolarmente adatto ad una vasta gamma di applicazioni di AI inference, HPC e anche di AI training.
La soluzione basata su chip AMD ha prezzi competitivi e il software open source dello stack ROCm.
AMD Instinct viene proposto da Seeweb come server con 8 GPU si basa su otto chip MI300X – 265 vCPU, 2048 GB Ram, disco da 16 TB.
Il servizio è disponibile a questo indirizzo.
Il chip AMD MI300X
Nel 2024, AMD ha lanciato i chip MI300X, progettati per semplificare il processamento in applicazioni di AI e HPC. Questi chip combinano CPU e GPU con una memoria unificata, migliorando l’efficienza per attività di addestramento su larga scala. Le specifiche tecniche includono fino a 192 GB di memoria HBM3 e una larghezza di banda massima di 5.3 TB/s, rendendoli ideali per applicazioni intensive come sono i grandi modelli di intelligenza artificiale.
Il prezzo di questi chip non è stato ancora annunciato, ma si ritiene sarà significativamente inferiore a quello dei chip di punta di Nvidia.
L’architettura AMD Infinity, implementata con la tecnologia AMD Infinity Fabric, consente l’unificazione coerente e ad alta produttività delle tecnologie chiplet GPU e CPU AMD con memoria HBM3 impilata in singoli dispositivi e su piattaforme multi-dispositivo.
L’intera famiglia di chip fa attenzione all’efficienza energetica, migliorando le prestazioni per watt rispetto alla generazione precedente.
La suite software ROCm
Lo stack software ha un ruolo enorme e richiede continui adeguamenti ed investimenti. AMD continua ad investire nella sua suite software ROCm, ormai tecnicamente comparabile con il CUDA di Nvidia, che al momento è lo standard di settore e come tale è molto diffuso.
Si tratta di due suite profondamente diverse, principalmente perché la prima è open source e la seconda è più matura.
ROCm (Radeon Open Compute) è flessibile e relativamente economica, mentre CUDA (Compute Unified Device Architecture) ha i suoi costi ma offre un ecosistema maturo e una vasta comunità di sviluppatori. Le prestazioni sono date come similari, ma il risultato finale dipende dalle applicazioni e dalle singole implementazioni.
Carichi di lavoro AI e HPC
L’AMD Instinct MI300X è un chip estremamente versatile. La precisione mista (FP32, FP16, BF16, INT8) consente di ottimizzare le prestazioni per diversi tipi di carichi di lavoro. L’ampia e veloce memoria è adatta all’addestramento di LLM; inoltre la nuova architettura CDNA (Compute DNA) Versione 3 è idonea all’esecuzione di inferenze.
Sempre nel campo dell’AI troviamo l’imaging, compreso l’ambito medico, e il riconoscimento facciale e di oggetti.
Queste caratteristiche sono utili anche nel campo più propriamente HPC (High Performance Computing): MI300X svolge simulazioni complesse in vari campi, come la fisica, la chimica e la biologia, e più in generale per rendering 3D e visualizzazione scientifica. Il chip è anche idoneo ad applicazioni di data mining e analisi predittiva.
Le proposte per l’AI in cloud di Seeweb sono ora:
Maggiori informazioni sui servizi sono disponibili ai link soprastanti. Sul nostro blog trovate invece informazioni su L4S, NPU, Serverless GPU e molti altri argomenti.