Home Software GPT-5.3-Codex-Spark: il nuovo modello AI di OpenAI

GPT-5.3-Codex-Spark: il nuovo modello AI di OpenAI

0
33
GPT-5.3-Codex-Spark architettura chip Cerebras per coding AI veloce

OpenAI ha lanciato GPT-5.3-Codex-Spark, un modello di intelligenza artificiale progettato specificamente per il coding con tempi di risposta quasi istantanei. Inoltre, questa release segna la prima collaborazione significativa dell’azienda con un fornitore di hardware diverso da Nvidia, il tradizionale partner tecnologico. Il modello funziona su processori wafer-scale di Cerebras Systems, un’azienda californiana specializzata in carichi di lavoro AI a bassa latenza.

Grazie per avere letto questo articolo, non dimenticare di iscriverti al nostro feed!

GPT-5.3-Codex-Spark: una risposta alle sfide strategiche di OpenAI

GPT-5.3-Codex-Spark architettura chip Cerebras per coding AI veloce

Il lancio arriva in un momento delicato per OpenAI. Di conseguenza, l’azienda si trova a gestire una relazione tesa con Nvidia, critiche per l’introduzione di pubblicità in ChatGPT, un controverso contratto con il Pentagono e turbolenze organizzative interne. Nonostante ciò, l’azienda continua a innovare nel campo degli strumenti di sviluppo assistiti da AI.

Secondo un portavoce di OpenAI, le GPU rimangono fondamentali per training e inferenza. Tuttavia, Cerebras eccelle nei flussi di lavoro che richiedono latenza estremamente bassa. Pertanto, questa partnership mira a rendere l’esperienza di coding in tempo reale più fluida e reattiva durante le iterazioni.

Velocità senza precedenti: i compromessi di GPT-5.3-Codex-Spark

Il nuovo modello rappresenta il primo sistema OpenAI costruito appositamente per la collaborazione di coding in tempo reale. In particolare, l’azienda dichiara velocità di generazione 15 volte superiori rispetto al predecessore. Ciononostante, OpenAI non ha fornito metriche specifiche come time-to-first-token o tokens-per-second.

Questi guadagni di velocità comportano alcuni compromessi nelle capacità. Ad esempio, su benchmark come SWE-Bench Pro e Terminal-Bench 2.0, Codex-Spark mostra prestazioni inferiori rispetto al modello GPT-5.3-Codex completo. Tuttavia, OpenAI considera questo scambio accettabile: gli sviluppatori ottengono risposte abbastanza rapide da mantenere il flusso creativo.

Le caratteristiche tecniche includono:

  • Context window di 128.000 token
  • Supporto solo testuale (nessun input multimodale)
  • Disponibilità per abbonati ChatGPT Pro tramite app Codex, CLI e estensione Visual Studio Code
  • Accesso API limitato a partner selezionati per la fase di valutazione

L’architettura Cerebras elimina i colli di bottiglia tradizionali

L’architettura tecnica dietro il modello racconta una storia importante sull’economia dell’inferenza. Infatti, il Wafer Scale Engine 3 di Cerebras è un singolo chip grande quanto un piatto da portata, contenente 4 trilioni di transistor. Di conseguenza, elimina gran parte dell’overhead di comunicazione che si verifica quando i carichi di lavoro AI si distribuiscono su cluster di processori più piccoli.

Per il training di modelli massivi, l’approccio distribuito rimane necessario e le GPU Nvidia eccellono in questo. Allo stesso modo, per l’inferenza Cerebras sostiene che la sua architettura può fornire risultati con latenza drasticamente inferiore. Sean Lie, CTO di Cerebras, ha dichiarato che la partnership mira a scoprire nuovi pattern di interazione e casi d’uso fondamentalmente diversi.

Inoltre, OpenAI ha annunciato miglioramenti di latenza sull’intero stack di inferenza. Nello specifico, questi includono connessioni WebSocket persistenti e ottimizzazioni nell’API Responses. Come risultato, l’azienda ha ottenuto una riduzione dell’80% nell’overhead per round trip, del 30% nell’overhead per token e del 50% nel time-to-first-token.

Il megadeal da 100 miliardi con Nvidia si è arenato

La partnership con Cerebras assume ulteriore significato data la relazione sempre più complicata tra OpenAI e Nvidia. In particolare, lo scorso autunno Nvidia si era impegnata pubblicamente a investire 100 miliardi di dollari per supportare l’iniziativa infrastrutturale Stargate di OpenAI. Tuttavia, cinque mesi dopo, quell’accordo si è effettivamente arenato secondo molteplici fonti.

Nonostante il CEO di Nvidia Jensen Huang abbia negato tensioni, la relazione si è notevolmente raffreddata. Pertanto, OpenAI ha perseguito aggressivamente partnership con fornitori alternativi di chip, inclusi accordi separati con AMD e Broadcom. Dal punto di vista di OpenAI, ridurre la dipendenza da un singolo fornitore rappresenta una strategia aziendale prudente.

Un portavoce di OpenAI ha dichiarato che le GPU rimangono prioritarie per casi d’uso sensibili ai costi. Ciononostante, l’azienda continuerà a valutare i chip più performanti in termini di prezzo-prestazioni. Questa dichiarazione riflette uno sforzo attento per evitare di antagonizzare Nvidia preservando al contempo flessibilità strategica. Per approfondire le dinamiche del mercato AI, visita il blog di Digital Seeds.

Team di sicurezza sciolti e ricercatori dimissionari

Il lancio di Codex-Spark avviene mentre OpenAI affronta una serie di sfide interne. In primo luogo, questa settimana sono emersi report secondo cui OpenAI ha sciolto il suo mission alignment team, un gruppo istituito nel settembre 2024 per promuovere l’obiettivo dichiarato dell’azienda. Analogamente, OpenAI aveva precedentemente sciolto un altro gruppo focalizzato sulla sicurezza, il superalignment team, nel 2024.

Inoltre, l’azienda affronta le conseguenze della decisione di introdurre pubblicità in ChatGPT. La ricercatrice Zoë Hitzig si è dimessa questa settimana per quello che ha descritto come il “pendio scivoloso” dell’AI supportata da pubblicità. Allo stesso modo, Anthropic ha sfruttato la controversia con una campagna pubblicitaria durante il Super Bowl con lo slogan: “Le pubblicità stanno arrivando all’AI. Ma non a Claude.”

Separatamente, l’azienda ha accettato di fornire ChatGPT al Pentagono attraverso Genai.mil, un nuovo programma del Dipartimento della Difesa. Questi sviluppi hanno intensificato il controllo sulla direzione e i valori dell’azienda.

La visione futura: assistenti AI che gestiscono task multipli

Nonostante le turbolenze circostanti, la roadmap tecnica di OpenAI per Codex suggerisce piani ambiziosi. In particolare, l’azienda immagina un assistente di coding che combina perfettamente editing interattivo rapido con task autonomi a lungo termine. In altre parole, un’AI che gestisce correzioni rapide mentre orchestra simultaneamente più agenti che lavorano su problemi complessi in background.

Nel tempo, secondo OpenAI, le modalità si fonderanno. Di conseguenza, Codex potrà mantenere un ciclo interattivo stretto delegando lavoro a lungo termine a sotto-agenti in background. Questa visione richiederebbe non solo inferenza più veloce ma anche sofisticata decomposizione dei task e coordinamento tra modelli di dimensioni e capacità variabili.

Per ora, Codex-Spark opera con limiti di rate separati rispetto ad altri modelli OpenAI. Questo riflette la capacità infrastrutturale limitata di Cerebras durante l’anteprima di ricerca. Tuttavia, i limiti sono progettati per essere “generosi”, con OpenAI che monitora i pattern di utilizzo mentre determina come scalare.

Il test decisivo: velocità contro qualità del software

L’annuncio arriva in un momento di intensa competizione per strumenti di sviluppo basati su AI. Ad esempio, il prodotto Claude Cowork di Anthropic ha innescato un selloff nei titoli software tradizionali la scorsa settimana. Allo stesso modo, Microsoft, Google e Amazon continuano a investire pesantemente in capacità di coding AI integrate con le rispettive piattaforme cloud.

L’app Codex di OpenAI ha dimostrato un’adozione rapida dal lancio dieci giorni fa. In particolare, oltre un milione di download e utenti attivi settimanali in crescita del 60% settimana su settimana. Tuttavia, la domanda fondamentale che affronta OpenAI è se i miglioramenti di velocità si traducano in guadagni di produttività significativi o creino semplicemente esperienze più piacevoli senza cambiare i risultati.

In definitiva, l’accordo con Cerebras è una scommessa calcolata che hardware specializzato possa sbloccare casi d’uso che le GPU general-purpose non possono servire in modo economicamente efficiente. Per un’azienda che combatte simultaneamente concorrenti, gestisce relazioni tese con fornitori e affronta dissenso interno sulla sua direzione commerciale, è anche un promemoria che nella corsa all’AI rimanere fermi non è un’opzione.