GPU cloud computing: la rivoluzione di Seeweb con i chip AMD InstinctTM MI300X

Roma – Sta per iniziare una nuova fase nel mondo del cloud computing: Seeweb ha lanciato in anteprima per l’Italia servizi di GPU cloud supportati dai potenti chip AMD InstinctTM MI300X e dalla suite software ROCmTM, aprendo nuove opportunità per l’intelligenza artificiale e i calcoli ad alte prestazioni.

Seeweb si distingue in Europa come uno dei primi provider ad offrire soluzioni cloud basate su questi chip avanzati. Il servizio Cloud Server GPU con GPU AMD Instinct MI300X, inoltre, si avvale della tecnologia Lenovo ThinkSystem SR685a V3.

Il modello cloud si è consolidato come la soluzione ideale anche per l’intelligenza artificiale, così come per i carichi di lavoro più tradizionali, grazie alla sua semplicità, flessibilità e scalabilità, anche a breve termine. Il cloud computing con GPU è efficace per una vasta gamma di applicazioni, tra cui l’inferenza AI, il calcolo ad alte prestazioni (HPC) e il training dell’intelligenza artificiale.

La soluzione basata su chip AMD offre un ottimo rapporto qualità-prezzo, mentre il software open dell’ecosistema ROCm AMD Instinct è proposto da Seeweb su server equipaggiati con 8 GPU, ciascuna con chip MI300X. La configurazione include 265 vCPU, 2048 GB di RAM e 16 TB di spazio su disco.

Carichi di lavoro AI e HPC

Il chip AMD Instinct MI300X è stato sviluppato per ottimizzare i carichi di lavoro legati al calcolo ad alte prestazioni (HPC) e all’intelligenza artificiale (AI).

Grazie alla memoria dall’ampia capacità e la sua architettura particolarmente avanzata, si rivela particolarmente adatto in diversi ambiti, tra cui: simulazioni scientifiche, imaging in campo medico, data mining e analisi predittiva, rendering 3D, addestramento ed inferenza di modelli AI.

Il mercato globale del GPU cloud computing con AMD

L’adozione di modelli di intelligenza artificiale basati su chip AMD sta crescendo rapidamente, affiancando i modelli già consolidati. I sistemi che supportano queste soluzioni sono realizzati sia da fornitori tradizionali che da nuovi attori del settore. La lista dei principali operatori continua ad ampliarsi, e tra questi si possono notare sia piccole che grandi società.

Piccole realtà

Alcuni provider cloud, come RunPod.io (Texas) e TensorWave.com (Nevada), hanno iniziato ad incorporare i chip MI300X nei loro sistemi, con prezzi variabili in base alla configurazione per l’uso del cloud.

Grandi società

Già nel 2024, Oracle ha reso disponibili gli acceleratori AMD MI300X nella propria infrastruttura cloud, mentre IBM ha annunciato l’integrazione dei chip AMD Instinct MI300X nel suo servizio cloud a partire dal 2025. Microsoft, invece, propone il servizio ND MI300X su Azure.

Anche Meta ed OpenAI stanno considerando l’inserimento di questi chip nei loro ecosistemi.

L’offerta di Seeweb

Con l’integrazione delle GPU AMD MI300X nella propria offerta di servizi cloud per l’intelligenza artificiale, Seeweb ha ampliato le opzioni tecnologiche a disposizione delle aziende, mantenendo il suo impegno verso la libertà di scelta e l’assenza di vincoli o limitazioni tecnologiche, garantendo elevati livelli di affidabilità e prestazioni dell’infrastruttura.

Nello specifico, i nuovi Cloud Server GPU si basano sulla piattaforma Lenovo ThinkSystem SR685a V3, progettata per supportare GPU di ultima generazione ad alte prestazioni. A ciò si affianca un modello commerciale flessibile, che consente di usufruire del servizio in modalità on demand, con una tariffazione basata sull’effettivo utilizzo.

Antonio Baldassarra, CEO Seeweb ha affermato che l’integrazione delle GPU AMD MI300X nel cloud Seeweb espanderà l’offerta Cloud GPU, permettendo alle aziende di gestire carichi complessi con un’architettura avanzata e maggiore memoria, ideale per modelli LLM avanzati. ha poi confermato che l’infrastruttura Lenovo ThinkSystem SR685a V3 accelererà applicazioni in ricerca scientifica, modellazione e rendering ad alte prestazioni.

Massimo Chiriatti, CTIO di Lenovo ha affermato che l’azienda contribuisce attivamente allo sviluppo del mercato dell’intelligenza artificiale per le imprese italiane ed europee, collaborando con i professionisti di Seeweb per progettare soluzioni che combinano alte prestazioni ed efficienza operativa.

Grazie a questa partnership, Seeweb può contare su un leader globale del settore IT, beneficiando di strumenti e servizi per accelerare i risultati e migliorare la produttività aziendale.

Queste soluzioni rappresentano una scelta strategica per l’evoluzione del modello di business di Seeweb, rafforzandone la posizione nel mercato AI.

Per maggiori informazioni è possibile visitare: https://www.seeweb.it/prodotti/cloud-server-gpu

Altri articoli da non perdere
Xbox Game Pass: 3 serie da non perdere
Xbox Game Pass

Xbox Game Pass è un servizio stanziato da Microsoft nel 2017 e prevede una serie di piani che permettono al Scopri di più

Megaevoluzioni: le 3 più forti
Megaevoluzioni: le 3 più forti

Facciamo un viaggio del tempo di 12 anni, ripensando al 2013 ci viene in mente la sesta generazione di Pokemon Scopri di più

Nevada-tan, la vera storia del meme giapponese
La vera storia del meme giapponese Nevada-tan

Molti, navigando in rete, si sono imbattuti nel meme di una bambina giapponese con una felpa dell'Università del Nevada, soprannominata Scopri di più

Cosa sono le strisce Led e dove si possono installare
Cosa sono le strisce Led e dove si possono installare

Le strisce Led rappresentano un tipo di illuminazione molto decorativa e particolarmente versatile, poiché consentono di unire l'originalità del design Scopri di più

Investire nell’era di internet: 5 consigli per non correre rischi

Una nuova frontiera dell’economia digitale Negli ultimi anni, le criptovalute si sono affermate come una delle innovazioni più significative del Scopri di più

Stereotipi generazionali: boomer e giovani a confronto
Stereotipi generazionali, il divario tra boomer e ultime generazioni

Nel corso del tempo si sono susseguite una molteplicità di componenti, che hanno contribuito alla nascita di generazioni diverse, ciascuna Scopri di più

A proposito di Redazione Eroica Fenice

Vedi tutti gli articoli di Redazione Eroica Fenice

Commenta