Anthropic's AI vindt duizenden lekken, maar houdt model geheim
Sophie Jansen Β·
Luister naar dit artikel~4 min

Anthropic's AI-model Claude Mythos Preview vond duizenden beveiligingslekken, maar wordt niet vrijgegeven. In plaats daarvan gaat het via Project Glasswing naar organisaties die internet beveiligen, met partners als Microsoft en Google.
Stel je voor: een AI-model dat in korte tijd duizenden beveiligingslekken vindt in alle grote besturingssystemen en webbrowsers. Dat is precies wat Claude Mythos Preview van Anthropic heeft gedaan. Maar in plaats van het model vrij te geven, heeft het bedrijf het stilletjes overhandigd aan de organisaties die verantwoordelijk zijn voor het draaiende houden van internet.
Dat klinkt misschien tegenstrijdig, maar er zit een belangrijke reden achter. Dit model is zo krachtig geworden dat het gevaarlijk zou kunnen zijn in verkeerde handen.
### Project Glasswing: een unieke samenwerking
Het initiatief heet Project Glasswing, en de lijst met partners is indrukwekkend. We hebben het over:
- Amazon Web Services
- Apple
- Broadcom
- Cisco
- CrowdStrike
- Google
- JPMorganChase
- De Linux Foundation
- Microsoft
- Nvidia
- Palo Alto Networks
Naast deze kernpartners heeft Anthropic de toegang uitgebreid naar meer dan 40 andere organisaties die kritieke software-infrastructuur bouwen of onderhouden. Het bedrijf investeert ongeveer β¬92 miljoen in gebruikskredieten voor Mythos Preview, plus nog eens β¬3,7 miljoen aan directe donaties aan open-source beveiligingsorganisaties.
### Een model dat zijn eigen tests overtreft
Het bijzondere aan Mythos Preview? Het was niet specifiek getraind voor cybersecurity-werk. Volgens Anthropic ontstonden deze capaciteiten 'als een neveneffect van algemene verbeteringen in code, redeneren en autonomie'. En hier komt het interessante: dezelfde verbeteringen die het model beter maken in het oplossen van kwetsbaarheden, maken het ook beter in het uitbuiten ervan.
Dat laatste is cruciaal. Mythos Preview is zo goed geworden dat het bestaande beveiligingstests eigenlijk overbodig maakt. Daarom richt Anthropic zich nu op nieuwe, real-world taken β specifiek zero-day kwetsbaarheden. Dat zijn fouten die voorheen onbekend waren bij de ontwikkelaars van de software.
Een voorbeeld? Een 27 jaar oude bug in OpenBSD, een besturingssysteem dat bekend staat om zijn sterke beveiliging. Of een 17 jaar oude kwetsbaarheid in FreeBSD die een onbevoegde gebruiker volledige controle geeft over een server. Het model vond en misbruikte deze volledig autonoom, zonder menselijke tussenkomst na de eerste opdracht.
Nicholas Carlini van het onderzoeksteam van Anthropic zegt het zo: 'Dit model kan exploits maken van drie, vier of soms vijf kwetsbaarheden die samen een zeer geavanceerd resultaat opleveren. Ik heb de afgelopen weken meer bugs gevonden dan in de rest van mijn leven bij elkaar.'
### Waarom wordt het niet vrijgegeven?
Newton Cheng, Frontier Red Team Cyber Lead bij Anthropic, is duidelijk: 'We zijn niet van plan Claude Mythos Preview algemeen beschikbaar te maken vanwege zijn cybersecurity-capaciteiten. Gezien het tempo van AI-vooruitgang zal het niet lang duren voordat dergelijke capaciteiten zich verspreiden, mogelijk naar partijen die niet toegewijd zijn aan veilige inzet.'
En dit is geen hypothetisch scenario. Anthropic heeft eerder al gemeld over wat zij beschrijven als de eerste gedocumenteerde cyberaanval die grotendeels door AI werd uitgevoerd β een door de Chinese staat gesponsorde groep die AI-agents gebruikte om ongeveer 30 wereldwijde doelen te infiltreren.
Het bedrijf heeft ook privΓ©-briefings gegeven aan hoge Amerikaanse overheidsfunctionarissen over de volledige capaciteiten van Mythos Preview. De inlichtingengemeenschap weegt nu actief af hoe het model zowel offensieve als defensieve hacking-operaties zou kunnen hervormen.
### Het open-source dilemma
Een aspect van Project Glasswing dat verder gaat dan de hoofdsamenwerking: open-source software. Jim Zemlin, CEO van de Linux Foundation, zegt het botweg: 'In het verleden was beveiligingsexpertise een luxe voorbehouden aan organisaties met grote beveiligingsteams. Open-source-onderhouders, wiens software een groot deel van 's werelds kritieke infrastructuur ondersteunt, hebben historisch gezien zelf moeten uitzoeken hoe ze beveiliging moesten aanpakken.'
En dat is precies waar Project Glasswing een verschil kan maken. Door deze krachtige AI-tools beschikbaar te stellen voor de beveiliging van kritieke infrastructuur, hoopt Anthropic een nieuwe standaard te zetten voor verantwoordelijke AI-ontwikkeling. Het is een delicate balans β innovatie stimuleren zonder de beveiliging van het internet in gevaar te brengen.
Wat denk jij? Is dit de juiste aanpak, of zouden dergelijke krachtige AI-modellen breder beschikbaar moeten zijn voor onderzoek en ontwikkeling? De discussie is nog maar net begonnen, maar één ding is zeker: AI verandert de cybersecurity-wereld fundamenteel.