AI ontdekt duizenden lekken: waarom blijft dit model geheim?

·
Luister naar dit artikel~5 min
AI ontdekt duizenden lekken: waarom blijft dit model geheim?

Anthropic's AI-model Claude Mythos Preview ontdekte duizenden beveiligingslekken, maar blijft geheim via Project Glasswing. Grote techbedrijven krijgen toegang om kritieke infrastructuur te beschermen tegen geavanceerde AI-bedreigingen.

Stel je voor: een AI-model dat duizenden beveiligingslekken vindt in elk groot besturingssysteem en elke webbrowser. Dat is precies wat er gebeurde met Claude Mythos Preview van Anthropic. Maar in plaats van het model vrij te geven, gaven ze het stilletjes aan de organisaties die het internet draaiende houden. Dat klinkt misschien tegenstrijdig, maar er zit een belangrijke reden achter. Het initiatief heet Project Glasswing, en het brengt een indrukwekkende groep partners samen. ### De grote namen achter Project Glasswing De lanceringspartners lezen als een who's who van de techwereld: - Amazon Web Services - Apple - Broadcom - Cisco - CrowdStrike - Google - JPMorgan Chase - De Linux Foundation - Microsoft - Nvidia - Palo Alto Networks Naast deze kern groep heeft Anthropic toegang verleend aan meer dan 40 andere organisaties die kritieke software-infrastructuur bouwen of onderhouden. De financiële investering is aanzienlijk: bijna €92 miljoen aan gebruikskredieten voor Mythos Preview, plus ongeveer €3,7 miljoen aan directe donaties aan open-source beveiligingsorganisaties. ### Een model dat zijn eigen tests overtreft Het bijzondere aan Mythos Preview? Het werd niet specifiek getraind voor cybersecurity-werk. Volgens Anthropic ontstonden de capaciteiten "als een neveneffect van algemene verbeteringen in code, redeneren en autonomie". Diezelfde verbeteringen die het model beter maken in het oplossen van lekken, maken het ook beter in het uitbuiten ervan. En dat laatste is cruciaal. Het model is zo goed geworden dat het bestaande beveiligingstests eigenlijk overbodig maakt. Daarom richt Anthropic zich nu op nieuwe, real-world taken – specifiek zero-day kwetsbaarheden. Dat zijn fouten die voorheen onbekend waren bij de ontwikkelaars van de software. Neem bijvoorbeeld een 27 jaar oude bug in OpenBSD, een besturingssysteem bekend om zijn sterke beveiliging. Of een geval waarbij het model volledig autonoom een 17 jaar oude kwetsbaarheid in FreeBSD identificeerde en uitbuitte. Geen mens was betrokken bij de ontdekking of het misbruik na de eerste opdracht om de bug te vinden. Nicholas Carlini van het onderzoeksteam van Anthropic beschrijft het zo: "Dit model kan exploits maken van drie, vier, soms vijf kwetsbaarheden die samen een zeer geavanceerd resultaat opleveren. Ik heb de afgelopen weken meer bugs gevonden dan in de rest van mijn leven bij elkaar." ### Waarom komt dit model niet vrij? Newton Cheng, Frontier Red Team Cyber Lead bij Anthropic, is duidelijk: "We zijn niet van plan Claude Mythos Preview algemeen beschikbaar te maken vanwege zijn cybersecurity-mogelijkheden. Gezien het tempo van AI-vooruitgang, zal het niet lang duren voordat dergelijke capaciteiten zich verspreiden, mogelijk naar partijen die niet toegewijd zijn aan veilige inzet." De gevolgen – voor economieën, openbare veiligheid en nationale veiligheid – zouden ernstig kunnen zijn. Dit is geen hypothetisch scenario. Anthropic heeft eerder gemeld over wat zij beschrijven als het eerste gedocumenteerde geval van een cyberaanval die grotendeels door AI werd uitgevoerd. Het bedrijf heeft ook privé-briefings gegeven aan hoge Amerikaanse overheidsfunctionarissen over de volledige mogelijkheden van Mythos Preview. De inlichtingengemeenschap weegt nu actief af hoe het model zowel offensieve als defensieve hacking-operaties zou kunnen hervormen. ### Het open-source dilemma Een aspect van Project Glasswing dat verder gaat dan de hoofdlijn coalitie: open-source software. Jim Zemlin, CEO van de Linux Foundation, zegt het botweg: "In het verleden was beveiligingsexpertise een luxe voorbehouden aan organisaties met grote beveilingsteams. Open-source maintainers, wiens software een groot deel van 's werelds kritieke infrastructuur ondersteunt, hebben historisch gezien zelf moeten uitzoeken hoe ze beveiliging moesten aanpakken." Het is een probleem dat veel verder gaat dan alleen technische kwetsbaarheden. Het raakt aan de fundamenten van hoe we digitale infrastructuur bouwen en onderhouden. Project Glasswing probeert hier verandering in te brengen, maar de vraag blijft: is het genoeg? Wat mij betreft is dit een wake-up call voor de hele industrie. We kunnen niet langer vertrouwen op traditionele beveiligingsmethoden in een tijdperk waarin AI zowel de verdediging als de aanval radicaal transformeert. Het feit dat een AI-model deze kwetsbaarheden vindt, betekent dat andere AI's ze ook kunnen vinden – en misbruiken. De keuze van Anthropic om het model niet vrij te geven is begrijpelijk, maar roept ook vragen op over transparantie en verantwoordelijkheid. Hoe vinden we de balans tussen bescherming en vooruitgang? Het is een vraag die we de komende jaren steeds vaker zullen horen, naarmate AI-systemen krachtiger worden.