De AI‑wapenwedloop laait op met GPT‑5.3 De AI‑wapenwedloop laait op met GPT‑5.3

Begin 2026 is het lastiger geworden om AI-releases bij te houden: updates verschijnen zo vaak dat de koppen binnen enkele dagen verouderd kunnen aanvoelen. De ene dag ligt de focus op “sterker redeneren,” de volgende op snelheid en lagere latentie, en kort daarna op een AI die code schrijft meer als een teamgenoot. Tegen het weekend plaatst een concurrent een nieuwe systeemkaart, en het gesprek verschuift snel naar benchmarks en discussies over wat telt als “echte” vooruitgang.

OpenAI’s nieuwste zet in deze snel bewegende race is GPT‑5.3‑Codex — een model gericht op agentisch coderen, wat betekent dat het kan plannen, tools kan gebruiken en meerstapstaken kan doorlopen met minder begeleiding. OpenAI beschrijft het als het combineren van topprestaties op het gebied van coderen uit eerdere Codex-versies met sterker redeneervermogen en professionele kennis uit de GPT‑5-familie, en het draait 25% sneller voor Codex-gebruikers.

Laten we uitpakken wat GPT‑5.3‑Codex verandert, waarom het ertoe doet en hoe de grote spelers reageren.

Waarom GPT‑5.3 zo belangrijk is

Eerst een klein maar belangrijk detail: als mensen het over “GPT‑5.3” hebben, is de publieke release op dit moment GPT‑5.3‑Codex, een Codex‑model gericht op het bouwen van software en computergestuurd werk. Het is ontworpen om lange taken aan te kunnen die onderzoek, toolgebruik en complexe uitvoering omvatten — meer als een collega die je kunt aansturen dan een simpele chatbot die je bevraagt.

OpenAI doet ook een uitspraak die als sciencefiction klinkt, maar gewoon in platte tekst staat: GPT‑5.3‑Codex was “instrumenteel bij het creëren van zichzelf.” Het Codex‑team gebruikte vroege versies om training te debuggen, deployments te beheren en testresultaten te diagnosticeren — wat betekent dat het model hielp zijn eigen ontwikkelcyclus te versnellen.

Dat is om één reden belangrijk: feedbackloops. Wanneer AI‑tools helpen om de volgende AI‑tools sneller te bouwen, kan het tempo van releases opnieuw toenemen. Als AI‑vooruitgang al snel aanvoelde, is dit het moment waarop ze rolschaatsen aantrekt.

Release­datum, belangrijkste functies en prijzen van GPT‑5.3‑Codex

OpenAI introduceerde GPT‑5.3‑Codex op 5 februari 2026, beschreef het als zijn meest capabele model voor agentisch coderen tot nu toe, en benadrukte een snelheidswinst (25% sneller) plus sterkere prestaties op codeer- en agent‑benchmarks.

Waar GPT‑5.3‑Codex voor is gebouwd

OpenAI legt de nadruk op langdurig werk: taken die uren kunnen duren, tools omvatten en veel stappen vereisen.

Het meldt ook sterke prestaties op benchmarks die echte software‑engineering en agentgedrag testen, waaronder SWE‑Bench Pro en Terminal‑Bench, en noemt prestaties op OSWorld en GDPval (benchmarks die gericht zijn op het meten van reële, tool‑gebruikende capaciteiten).

De veiligheidshouding is nadrukkelijker dan voorheen

De systeemkaart bevat een duidelijke regel: OpenAI behandelt dit als zijn eerste lancering onder een label voor cyberbeveiliging met hoge capaciteit, met geactiveerde waarborgen.

Dat is een belangrijk signaal in de “wapenwedloop.” Bedrijven concurreren op ruwe capaciteit, maar ze concurreren ook op veiligheidskaders, monitoring en geloofwaardigheid.

Prijzen (OpenAI API) voor GPT‑5.3‑Codex

Voor de Standard‑laag staat GPT‑5.3‑Codex vermeld als:

  • $1.75 input / 1M tokens
  • $0.175 cached input / 1M tokens
  • $14.00 output / 1M tokens

Voor de Priority‑laag staat het vermeld als:

  • $3.50 input / 1M tokens
  • $0.35 cached input / 1M tokens
  • $28.00 output / 1M tokens

Snelheid wordt een wapen: GPT‑5.3‑Codex‑Spark en de latentiestrijd

Een week na de hoofdrelease van GPT‑5.3‑Codex introduceerde OpenAI GPT‑5.3‑Codex‑Spark (12 februari 2026), een research preview en zijn eerste model ontworpen voor real‑time coderen.

OpenAI zegt dat Codex‑Spark is geoptimaliseerd voor hardware met ultralage latentie en meer dan 1000 tokens per seconde kan leveren, met als doel een bijna directe ervaring.

Bij de lancering stelt OpenAI:

  • 128k contextvenster
  • alleen tekst
  • uitrol als research preview voor ChatGPT Pro‑gebruikers, met aparte snelheidslimieten tijdens de preview

Volgens OpenAI draait Codex‑Spark op de Cerebras Wafer Scale Engine 3, wat het omschrijft als een mijlpaal in de samenwerking met Cerebras.

OpenAI beschrijft zelfs backend‑werk om de latentie in de hele pijplijn te verlagen, met vermeldingen zoals 80% minder overhead per roundtrip en 50% verbetering in time‑to‑first‑token dankzij veranderingen zoals persistente verbindingen en optimalisaties in de inference‑stack.

Onafhankelijke berichtgeving wijst ook op de strategische insteek: voor deze uitrol Cerebras gebruiken benadrukt de poging om inferentie‑hardware te diversifiëren, voorbij een typisch Nvidia‑zware stack.

Simpel gezegd: de race gaat nu ook over chips, netwerken en “time‑to‑first‑token.” Dat is een heel moderne zin, en ook een beetje grappig als je je herinnert dat “loading…” ooit normaal was.

GPT‑5.3 vs Claude Opus 4.6 vs Gemini 3.1 Pro: vergelijking in de AI‑wapenwedloop

OpenAI bracht GPT‑5.3‑Codex niet uit in een lege arena. In dezelfde maand verschepen grote concurrenten ook grote upgrades — vaak met hun eigen systeemkaarten, benchmarkclaims en veiligheidsnotities.

Anthropic: Claude Opus 4.6 focust op sterk redeneren en veiligheidstesten

Anthropic kondigde Claude Opus 4.6 aan op 5 februari 2026 — dezelfde dag als GPT‑5.3‑Codex — en wees lezers op een systeemkaart met gedetailleerde evaluaties van capaciteiten en veiligheid.

Anthropic benadrukt ook dat capaciteitswinsten niet gepaard gaan met slechtere afstemming: Opus 4.6 vertoont in zijn geautomatiseerde gedragsaudit een laag percentage niet‑afgestemde gedragingen (waaronder misleiding en vleierij), en vermeldt uitgebreide veiligheidsevaluaties en nieuwe waarborgen.

Een opvallend thema is cyberbeveiliging: Anthropic zegt dat Opus 4.6 verbeterde cyberbeveiligingsvaardigheden vertoont en dat het zes nieuwe cyberbeveiligingsprobes heeft ontwikkeld om misbruikpatronen te volgen.

Dus terwijl OpenAI cyberbeveiligingscapaciteit markeert onder zijn Preparedness Framework, benadrukt Anthropic nieuwe cyberbeveiligingstesten en probes. Andere aanpak, dezelfde boodschap: deze modellen zijn krachtig genoeg dat cyberrisico nu een standaardonderdeel van het lanceringsverhaal is.

Google: Gemini 3.1 Pro zet in op redeneren en multimodale kracht

Google introduceerde Gemini 3.1 Pro als preview en zegt dat het wordt uitgerold in consumenten‑ en ontwikkelaarsproducten.

Google benadrukt benchmarkvooruitgang, waaronder een geverifieerde score van 77,1% op ARC‑AGI‑2, en noemt dit meer dan een verdubbeling van de redeneerprestaties van Gemini 3 Pro.

Voor de wapenwedloop lijkt Google’s strategie: redeneren + multimodaal + brede productdistributie (Gemini‑app, NotebookLM, ontwikkelaarstools, enterprise‑kanalen).

Meta: Llama 4 houdt druk op de markt met open‑weight‑modellen

De Llama 4‑familie van Meta (uitgebracht in april 2025) speelt in 2026 nog steeds een belangrijke rol, omdat open‑weight‑modellen iedereen dwingen sneller te bewegen en slimmer te prijzen. Meta introduceerde Llama 4 Scout en Maverick als van nature multimodale AI‑modellen.

Media‑berichtgeving merkt ook op dat Llama 4‑modellen Meta AI aandrijven in producten zoals WhatsApp en Instagram, en benadrukt details zoals het extreem grote contextvenster van Scout (in één bericht gemeld als 10 miljoen tokens).

De donkere kant van de race: distillatiestrijd, datagraaien en rechtszaken

Wanneer een markt zo waardevol wordt, gaan mensen ruzie maken over de regels, vooral de regels rond data.

In februari 2026 dook een groot voorbeeld op: Anthropic zei dat verschillende Chinese AI‑bedrijven Claude‑uitvoer gebruikten om hun eigen modellen te verbeteren via “distillatie,” en beschreef grootschalig misbruik met ongeveer 24.000 nepaccounts en meer dan 16 miljoen interacties, in strijd met de voorwaarden en toegangsbeperkingen.

Distillatie kan een normale techniek in machine learning zijn. Maar wanneer het zonder toestemming de uitvoer van het gesloten model van een ander bedrijf gebruikt, verandert het snel in een conflict over intellectueel eigendom en veiligheid. Dan zijn er nog de rechtszaken. Op 24 februari 2026 meldde Reuters dat een Amerikaanse rechter (voor nu) de rechtszaak van xAI, waarin OpenAI werd beschuldigd van het onrechtmatig toe‑eigenen van bedrijfsgeheimen, heeft afgewezen, terwijl xAI tijd kreeg om zijn klacht te wijzigen.

Wat dit betekent voor ontwikkelaars en bedrijven (en voor niet‑specialisten)

Als je software bouwt, wijzen GPT‑5.3‑Codex en Codex‑Spark op een toekomst waarin:

  • Je een taak toewijst, niet één enkele prompt (“onderzoek deze bug, stel fixes voor, voer tests uit, open een PR”)
  • De AI langer doorwerkt, context behoudt en tools betrouwbaarder gebruikt
  • Snelheid een dagelijkse productiviteitsfactor wordt

Als je een team aanstuurt, verandert de vraag ook. Het gaat minder om “Moeten we AI gebruiken?” en meer om:

  • Welk model past bij ons risiconiveau (zeker voor code, security en gevoelige data)?
  • Hoe testen we de output en voorkomen we stille fouten?
  • Wat zijn de werkelijke kosten zodra tokens en gebruik opschalen?

Als je wilt voorkomen dat je rol geleidelijk verschuift naar alleen het reviewen van AI‑gegenereerd werk, kan één praktische regel helpen:

Kies modellen op basis van taken.

  • Diep agentisch coderen nodig? GPT‑5.3‑Codex is daarvoor gepositioneerd.
  • Snelle, interactieve edits nodig? Codex‑Spark is gebouwd voor low‑latency iteratie.
  • Brede redenatie + multimodale input nodig? Gemini 3.1 Pro wordt daar sterk voor gepositioneerd.
  • Veel nadruk op veiligheid in documentatie en sterke enterprise‑boodschappen nodig? Claude Opus 4.6 zet systeemkaarten en audits prominent neer.

Conclusie: GPT‑5.3 draait het volume open

GPT‑5.3‑Codex is een stap richting agentisch werk op computers, met snelheidsverbeteringen, sterke benchmarkpositionering en een veiligheidshouding die cyberbeveiligingscapaciteit openlijk markeert.

Daarna voegt Codex‑Spark een tweede boodschap toe: de volgende strijd gaat niet alleen om intelligentie, maar ook om latentie — wie AI echt real‑time kan laten aanvoelen in de tools die mensen al gebruiken.

Ondertussen laten Claude Opus 4.6 en Gemini 3.1 Pro zien dat concurrenten niet beleefd op hun beurt wachten. Ze leveren snel, publiceren systeemkaarten en duwen hard op redeneren en multimodale capaciteiten.

De AI‑wapenwedloop warmt op. Het licht ironische is dat de winnaars mogelijk worden bepaald door zaken die saai klinken — tokenprijzen, veiligheidsprobes, snelheidslimieten en time‑to‑first‑token. Maar in 2026 is “saai” vaak waar de toekomst zich verschuilt.

Andere berichten van de auteur

Wat 81,000 mensen Anthropic vertelden dat ze van AI willen
Artikel
Wat 81,000 mensen Anthropic vertelden dat ze van AI willen
Anthropic analyseerde 80.508 interviews met AI-gebruikers in 159 landen om te leren wat mensen van AI willen, waar ze zich zorgen over maken en waar de huidige tools nog tekortschieten.
Nebius plant een AI-datacenter van 10 miljard dollar in Finland te midden van de Europese AI-wedloop
Artikel
Nebius plant een AI-datacenter van 10 miljard dollar in Finland te midden van de Europese AI-wedloop
Nebius plant een AI-datacenter van 310 MW in Finland. Dit is waarom het project in Lappeenranta belangrijk is voor Europa’s AI-wedloop, infrastructuur en soevereiniteit.
De browser wordt de agent: waarom zoeken begint te handelen
Artikel
De browser wordt de agent: waarom zoeken begint te handelen
AI-zoekmachines leren binnen de browser te handelen, niet alleen te antwoorden. Zo veranderen browseragenten SEO, verkeer, privacy en de toekomst van het open web.
Anthropic wint de eerste ronde in de AI-strijd van het Pentagon
Artikel
Anthropic wint de eerste ronde in de AI-strijd van het Pentagon
Anthropic boekt een vroege zege in de rechtszaal in zijn AI-geschil met het Pentagon, wat grotere vragen oproept over waarborgen voor militaire AI, contracten en controle.