La corsa agli armamenti dell’IA si intensifica con GPT‑5.3
All’inizio del 2026, stare al passo con le release di IA è diventato più difficile: gli aggiornamenti arrivano così spesso che i titoli possono sembrare obsoleti nel giro di pochi giorni. Un giorno l’attenzione è “ragionamento più solido,” il successivo su velocità e latenza inferiore, e subito dopo su un’IA che scrive codice più come un compagno di squadra. Entro il fine settimana, un concorrente pubblica una nuova scheda di sistema e la conversazione si sposta rapidamente su benchmark e discussioni su cosa conti come “vero” progresso.
L’ultima mossa di OpenAI in questa corsa a ritmo serrato è GPT‑5.3‑Codex — un modello incentrato sulla codifica agentica, il che significa che può pianificare, usare strumenti e portare a termine attività multi‑step con meno bisogno di guida. OpenAI lo descrive come la combinazione delle migliori prestazioni di codifica delle precedenti versioni di Codex con un ragionamento più forte e conoscenze professionali della famiglia GPT‑5, e un funzionamento più veloce del 25% per gli utenti Codex.
Vediamo cosa cambia con GPT‑5.3‑Codex, perché è importante e come stanno reagendo i grandi attori.
Perché GPT‑5.3 è una grande novità
Prima, un dettaglio piccolo ma importante: quando si dice “GPT‑5.3,” l’attuale release pubblica è GPT‑5.3‑Codex, un modello Codex pensato per creare software e svolgere lavoro al computer. È progettato per gestire compiti lunghi che includono ricerca, uso di strumenti ed esecuzioni complesse, più come un collega che puoi guidare che non un semplice chatbot da interrogare.
OpenAI aggiunge anche un’affermazione che suona come fantascienza, ma è nero su bianco: GPT‑5.3‑Codex è stato “determinante nel creare se stesso.” Il team Codex ha usato le prime versioni per fare debug dell’addestramento, gestire il deployment e diagnosticare i risultati dei test — il che significa che il modello ha contribuito ad accelerare il proprio ciclo di sviluppo.
Questo conta per una ragione: cicli di feedback. Quando gli strumenti di IA aiutano a costruire i successivi strumenti di IA più velocemente, il ritmo delle release può aumentare ancora. Se i progressi dell’IA ti sembravano già rapidi, questa è la parte in cui si mette i pattini a rotelle.
Data di rilascio, funzionalità principali e prezzi di GPT‑5.3‑Codex
OpenAI ha introdotto GPT‑5.3‑Codex il 5 febbraio 2026, descrivendolo come il suo modello di codifica agentica più capace fino a oggi, e sottolineando un guadagno di velocità (più veloce del 25%) oltre a prestazioni più solide su benchmark di codifica e agenti.
Per cosa è progettato GPT‑5.3‑Codex
OpenAI pone l’accento sul lavoro di lunga durata: attività che possono richiedere ore, coinvolgere strumenti e necessitare di molti passaggi.
Riporta inoltre prestazioni forti su benchmark usati per testare l’ingegneria del software reale e il comportamento degli agenti, tra cui SWE‑Bench Pro e Terminal‑Bench, e cita le prestazioni su OSWorld e GDPval (benchmark mirati a misurare capacità d’uso di strumenti nel mondo reale).
L’impostazione di sicurezza è più evidente di prima
La scheda di sistema include una frase chiara: OpenAI considera questo il suo primo lancio sotto un’etichetta di cybersicurezza ad alta capacità, con salvaguardie attivate.
È un segnale importante nella “corsa agli armamenti.” Le aziende competono sulla pura capacità, ma competono anche su framework di sicurezza, monitoraggio e credibilità.
Prezzi (API OpenAI) per GPT‑5.3‑Codex
Per il livello Standard, GPT‑5.3‑Codex è indicato come:
- $1.75 input / 1M di token
- $0.175 input in cache / 1M di token
- $14.00 output / 1M di token
Per il livello Priority, è indicato come:
- $3.50 input / 1M di token
- $0.35 input in cache / 1M di token
- $28.00 output / 1M di token
La velocità diventa un’arma: GPT‑5.3‑Codex‑Spark e la corsa alla latenza
Una settimana dopo il rilascio principale di GPT‑5.3‑Codex, OpenAI ha introdotto GPT‑5.3‑Codex‑Spark (12 febbraio 2026), definendolo un’anteprima di ricerca e il suo primo modello progettato per la programmazione in tempo reale.
OpenAI afferma che Codex‑Spark è ottimizzato per hardware a latenza ultra‑bassa e può erogare oltre 1000 token al secondo, puntando a un’esperienza quasi istantanea.
Al lancio, OpenAI dichiara:
- finestra di contesto da 128k
- solo testo
- in distribuzione come anteprima di ricerca per gli utenti ChatGPT Pro, con limiti di velocità separati durante l’anteprima
OpenAI afferma che Codex‑Spark gira su Cerebras Wafer Scale Engine 3, descrivendolo come una pietra miliare nella sua partnership con Cerebras.
OpenAI descrive anche lavori di backend per ridurre la latenza lungo l’intera pipeline, menzionando riduzioni come l’80% in meno di overhead per round trip e un miglioramento del 50% nel time-to-first-token grazie a cambiamenti quali connessioni persistenti e ottimizzazioni dello stack di inferenza.
La copertura indipendente evidenzia anche l’angolo strategico: usare Cerebras per questo deployment mette in luce gli sforzi per diversificare l’hardware di inferenza oltre uno stack tipicamente dominato da Nvidia.
In parole povere: la corsa ora include chip, networking e “time-to-first-token.” Che è una frase molto moderna, e anche un po’ divertente se ricordi quando “caricamento…” era normale.
GPT‑5.3 vs Claude Opus 4.6 vs Gemini 3.1 Pro: confronto nella corsa agli armamenti dell’IA
OpenAI non ha lanciato GPT‑5.3‑Codex in un’arena vuota. Nello stesso mese, anche i principali concorrenti hanno rilasciato grandi upgrade — spesso con proprie schede di sistema, dichiarazioni sui benchmark e note sulla sicurezza.
Anthropic: Claude Opus 4.6 punta su forte ragionamento e test di sicurezza
Anthropic ha annunciato Claude Opus 4.6 il 5 febbraio 2026 — lo stesso giorno di GPT‑5.3‑Codex — e ha indirizzato i lettori a una scheda di sistema con valutazioni dettagliate di capacità e sicurezza.
Anthropic sottolinea anche che gli incrementi di capacità non arrivano con un allineamento peggiore, affermando che Opus 4.6 mostra un basso tasso di comportamenti disallineati (inclusi inganno e piaggeria) nel suo audit comportamentale automatizzato, e menziona valutazioni di sicurezza ampliate e nuove salvaguardie.
Un tema rilevante è la cybersicurezza: Anthropic afferma che Opus 4.6 mostra capacità di cybersicurezza potenziate e che ha sviluppato sei nuove sonde di cybersicurezza per tracciare i modelli di abuso.
Così, mentre OpenAI segnala la capacità in ambito di cybersicurezza nel suo Preparedness Framework, Anthropic evidenzia nuovi test e sonde di cybersicurezza. Approcci diversi, stesso messaggio: questi modelli sono abbastanza potenti che il rischio cyber è ormai una parte standard della storia del rilascio.
Google: Gemini 3.1 Pro spinge su ragionamento e forza multimodale
Google ha introdotto Gemini 3.1 Pro in anteprima e afferma che è in rollout tra prodotti consumer e per sviluppatori.
Google evidenzia progressi nei benchmark, incluso un punteggio verificato del 77,1% su ARC‑AGI‑2, descrivendolo come più del doppio delle prestazioni di ragionamento di Gemini 3 Pro.
Per la corsa agli armamenti, la strategia di Google sembra essere: ragionamento + multimodale + ampia distribuzione nei prodotti (app Gemini, NotebookLM, strumenti per sviluppatori, canali enterprise).
Meta: Llama 4 mantiene la pressione del mercato con pesi aperti
La famiglia Llama 4 di Meta (rilasciata ad aprile 2025) ha ancora un ruolo importante nel 2026, perché i modelli a pesi aperti costringono tutti gli altri a muoversi più velocemente e a fare prezzi più aggressivi. Meta ha introdotto Llama 4 Scout e Maverick come modelli di IA nativamente multimodali.
La copertura mediatica nota anche che i modelli Llama 4 alimentano Meta AI in prodotti come WhatsApp e Instagram, e sottolinea dettagli come l’enorme finestra di contesto di Scout (riportata come 10 milioni di token in un report).
Il lato oscuro della corsa: scontri sulla distillazione, accaparramenti di dati e cause legali
Quando un mercato diventa così prezioso, si inizia a discutere delle regole, in particolare di quelle sui dati.
Un grande esempio è emerso nel febbraio 2026: Anthropic ha dichiarato che diverse aziende cinesi di IA hanno usato output di Claude per migliorare i propri modelli tramite “distillazione,” descrivendo un abuso su larga scala con circa 24.000 account falsi e oltre 16 milioni di interazioni, in violazione dei termini e delle restrizioni di accesso.
La distillazione può essere una tecnica normale nel machine learning. Ma quando utilizza output del modello chiuso di un’altra azienda senza permesso, si trasforma rapidamente in un conflitto di proprietà intellettuale e sicurezza. Poi ci sono le battaglie in tribunale. Il 24 febbraio 2026, Reuters ha riportato che un giudice statunitense ha respinto (per ora) la causa di xAI che accusava OpenAI di appropriazione indebita di segreti commerciali, concedendo a xAI tempo per modificare il proprio reclamo.
Cosa significa per sviluppatori e aziende (e per i non specialisti)
Se costruisci software, GPT‑5.3‑Codex e Codex‑Spark indicano un futuro in cui:
- Assegni un compito, non un singolo prompt (“analizza questo bug, proponi correzioni, esegui i test, apri una PR”)
- L’IA lavora più a lungo, mantiene il contesto e usa gli strumenti in modo più affidabile
- La velocità diventa un fattore di produttività quotidiano
Se gestisci un team, anche la domanda cambia. Diventa meno “Dovremmo usare l’IA?” e più:
- Quale modello si adatta al nostro livello di rischio (soprattutto per codice, sicurezza e dati sensibili)?
- Come testiamo gli output e preveniamo fallimenti silenziosi?
- Qual è il costo reale una volta che token e utilizzo aumentano di scala?
Se stai cercando di assicurarti che il tuo ruolo non scivoli gradualmente verso la sola revisione di lavori generati dall’IA, una regola pratica può aiutare:
Scegli i modelli in base ai compiti.
- Ti serve codifica agentica profonda? GPT‑5.3‑Codex è posizionato per questo.
- Ti servono modifiche interattive rapide? Codex‑Spark è costruito per l’iterazione a bassa latenza.
- Ti servono ampio ragionamento + input multimodali? Gemini 3.1 Pro è promosso con forza in quella direzione.
- Ti servono documentazione molto incentrata sulla sicurezza e una forte comunicazione per le aziende? Claude Opus 4.6 mette schede di sistema e audit in primo piano.
Conclusione: GPT‑5.3 alza il volume
GPT‑5.3‑Codex è un passo verso il lavoro agentico al computer, con miglioramenti di velocità, un forte posizionamento nei benchmark e un’impostazione di sicurezza che segnala apertamente la capacità in ambito di cybersicurezza.
Poi Codex‑Spark aggiunge un secondo messaggio: la prossima sfida non è solo sull’intelligenza, ma anche sulla latenza — chi riesce a rendere l’IA davvero in tempo reale all’interno degli strumenti che le persone usano già.
Nel frattempo, Claude Opus 4.6 e Gemini 3.1 Pro mostrano che i concorrenti non stanno aspettando educatamente il loro turno. Stanno rilasciando rapidamente, pubblicando schede di sistema e spingendo con forza su ragionamento e capacità multimodali.
La corsa agli armamenti dell’IA si sta scaldando. La parte un po’ ironica è che i vincitori potrebbero essere decisi da cose che suonano noiose — prezzi dei token, sonde di sicurezza, limiti di velocità e time-to-first-token. Ma nel 2026, il “noioso” è spesso dove si nasconde il futuro.