AI-kloof VS-China gedicht, maar veiligheidskloof groeit
Sophie Jansen ·
Luister naar dit artikel~4 min

Het Stanford AI Index Report 2026 toont dat de prestatiekloof tussen VS en China gedicht is, maar de veiligheidskloof groeit. AI-incidenten nemen toe terwijl benchmarking achterblijft.
Het idee dat de VS een blijvende voorsprong heeft in AI-prestaties? Dat wordt niet echt ondersteund door de data. Dat is één van de ongemakkelijke conclusies uit het 2026 AI Index Report van Stanford University.
Het rapport, gemaakt door Stanford's Institute for Human-Centred Artificial Intelligence, is een jaarlijkse evaluatie van 423 pagina's. Het kijkt naar onderzoek, modelprestaties, investeringen, publieke opinie en verantwoorde AI. De belangrijkste bevindingen zijn opvallend.
Maar de meest consequente inzichten zitten in de delen die meestal overgeslagen worden. Vooral over AI-veiligheid, waar de kloof tussen wat modellen kunnen en hoe grondig ze getest worden op schade niet kleiner wordt, maar groter.
### De prestatiekloof tussen VS en China is verdwenen
Het beeld dat de VS China voor is in AI-ontwikkeling moet bijgesteld worden. Volgens het rapport hebben Amerikaanse en Chinese modellen sinds begin 2025 meerdere keren de topwisselende positie ingenomen. In februari 2025 haalde DeepSeek-R1 even het niveau van het beste Amerikaanse model. In maart 2026 leidt het topmodel van Anthropic met slechts 2,7%.
De VS produceert nog wel meer topmodellen - 50 in 2025 tegenover 30 van China - en heeft patenten met grotere impact. Maar China leidt nu in publicatievolume, citaties en patentverleningen. Hun aandeel in de 100 meest geciteerde AI-artikelen steeg van 33 in 2021 naar 41 in 2024. Zuid-Korea leidt wereldwijd in AI-patenten per hoofd van de bevolking.
De praktische betekenis? De aanname van een blijvende Amerikaanse technologische voorsprong in AI-prestaties wordt niet goed ondersteund door de data. De kloof van twee jaar geleden is nu een kleine marge die verschuift bij elke grote modelrelease.
Er is nog een structurele kwetsbaarheid die het rapport identificeert. De VS heeft 5.427 datacenters - meer dan tien keer zoveel als elk ander land - maar één bedrijf, TSMC, maakt bijna alle belangrijke AI-chips daarbinnen. De hele wereldwijde AI-hardwareketen loopt via één fabriek in Taiwan, hoewel een TSMC-uitbreiding in de VS in 2025 operationeel werd.
### AI-veiligheidsbenchmarks houden geen gelijke tred
Bijna elke frontier model-ontwikkelaar rapporteert resultaten op prestatiebenchmarks. Hetzelfde geldt niet voor verantwoorde AI-benchmarks, en de 2026 Index documenteert die kloof heel precies.
De benchmarktabel voor veiligheid en verantwoorde AI toont dat de meeste velden gewoon leeg zijn. Alleen Claude Opus 4.5 rapporteert resultaten op meer dan twee van de gevolgde verantwoorde AI-benchmarks. Alleen GPT-5.2 rapporteert StrongREJECT. Over benchmarks die eerlijkheid, veiligheid en menselijk handelen meten, rapporteert de meerderheid van de frontier modellen niets.
Dit betekent niet dat Frontier Labs geen intern veiligheidswerk doet. Het rapport erkent dat red-teaming en alignment-testing plaatsvinden, maar "deze inspanningen worden zelden gedeeld met een gemeenschappelijke, extern vergelijkbare set benchmarks." Het effect is dat externe vergelijking in AI-veiligheidsdimensies voor de meeste modellen onmogelijk is.
Gedocumenteerde AI-incidenten stegen naar 362 in 2025, tegenover 233 in 2024 volgens de AI Incident Database. De AI Incidents and Hazards Monitor van de OECD, die een bredere geautomatiseerde pijplijn gebruikt, registreerde een piek van 435 maandelijkse incidenten in januari 2026, met een zesmaands gemiddelde van 326.
De governance-reactie op organisatieniveau kan niet bijbenen. Volgens een enquête onder AI-professionals heeft slechts 38% van de organisaties een formeel AI-governancekader. En minder dan de helft heeft specifieke protocollen voor het monitoren van AI-incidenten.
### Wat betekent dit voor professionals?
Als AI-professional in Nederland kun je hier een paar belangrijke lessen uit trekken:
- De concurrentie tussen VS en China is gelijkwaardig geworden
- Veiligheidsrapportage blijft ver achter bij prestatiemeting
- De toeleveringsketen voor AI-hardware is extreem geconcentreerd
- Incidenten nemen toe terwijl governance achterblijft
Het rapport toont een duidelijke spanning: we bouwen steeds krachtigere AI, maar de systemen om die veilig te houden ontwikkelen zich niet in hetzelfde tempo. Dat is misschien wel de belangrijkste kloof van allemaal.
Zoals een onderzoeker het samenvatte: "We meten wat we kunnen bouwen, niet wat we veilig kunnen beheren." En dat zou ons allemaal aan het denken moeten zetten.