AI als wapen: hackers gebruiken Google's Gemini voor aanvallen
Sophie Jansen ·
Luister naar dit artikel~4 min

Staatshackers gebruiken AI-modellen zoals Google's Gemini voor geavanceerde cyberaanvallen. Een nieuw rapport onthult hoe phishing en malware-ontwikkeling versnellen, met name gericht op de defensiesector.
Het klinkt als sciencefiction, maar het is bittere realiteit. Staatsgesponsorde hackers zetten AI in als wapen. Volgens een nieuw rapport van Google's Threat Intelligence Group gebruiken aanvallers uit Iran, Noord-Korea, China en Rusland modellen zoals Gemini om hun cyberaanvallen te versnellen. Ze creëren verfijnde phishingcampagnes en ontwikkelen zelfs malware. Het rapport schetst een verontrustend beeld van hoe kunstmatige intelligentie de cyberveiligheid fundamenteel verandert.
### Hoe AI de aanvalscyclus transformeert
Het kwartaalrapport 'AI Threat Tracker' laat zien hoe overheidshackers AI inzetten in elke fase van een aanval. Van verkenning en social engineering tot de uiteindelijke ontwikkeling van schadelijke software. De onderzoekers van GTIG zijn hier duidelijk over: "Voor deze dreigingsactoren zijn grote taalmodellen essentieel geworden voor technisch onderzoek, targeting en het snel genereren van overtuigende phishing-lokmiddelen."
Het is geen toekomstmuziek meer. Deze activiteiten werden duidelijk tijdens het laatste kwartaal van 2025. De snelheid en precisie waarmee aanvallen nu worden uitgevoerd, zijn ongekend.

### Verkenning gericht op de defensiesector
De Iraanse groep APT42 gebruikte Gemini om hun verkenning en gerichte social engineering-operaties te verbeteren. Ze lieten de AI officieel ogende e-mailadressen maken voor specifieke organisaties. Vervolgens deden ze onderzoek om geloofwaardige voorwendsels te bedenken om hun doelwitten te benaderen.
APT42 creëerde complete persona's en scenario's die ontworpen waren om meer respons uit te lokken. Door tussen talen te vertalen en natuurlijke, moedertaalzinnen te gebruiken, omzeilden ze traditionele phishing-signalen zoals slechte grammatica of onhandige zinsbouw.
Ook de Noord-Koreaanse groep UNC2970, gespecialiseerd in defensiedoelen en het imiteren van corporate recruiters, gebruikte Gemini. Ze profileerden hoogwaardige doelwitten door te zoeken naar informatie over grote cybersecurity- en defensiebedrijven, specifieke technische functies in kaart te brengen en salarisinformatie te verzamelen.
GTIG merkt hierover op: "Deze activiteit vervaagt het onderscheid tussen routine professioneel onderzoek en kwaadaardige verkenning. De aanvaller verzamelt alle componenten om op maat gemaakte, hoogwaardige phishing-persona's te creëren."
### Toename van model-extractieaanvallen
Naast operationeel misbruik signaleerden Google DeepMind en GTIG een sterke toename van model-extractiepogingen. Deze zogenaamde 'distillatie-aanvallen' zijn gericht op het stelen van intellectueel eigendom van AI-modellen.
Eén campagne richtte zich specifiek op het redeneervermogen van Gemini. Hierbij werden meer dan 100.000 prompts verzameld en gebruikt om het model te dwingen zijn denkprocessen uit te voeren. De breedte van de vragen suggereerde een poging om Gemini's redeneervermogen na te bootsen in niet-Engelse talen voor verschillende taken.
Hoewel GTIG geen directe aanvallen op geavanceerde modellen door geavanceerde aanhoudende dreigingsactoren observeerde, identificeerden en verstoorden ze wel frequente extractieaanvallen van private partijen wereldwijd en onderzoekers die eigen logica wilden klonen. Google's systemen herkenden deze aanvallen in realtime en activeerden verdedigingen om interne redeneersporen te beschermen.
### Opkomst van AI-geïntegreerde malware
GTIG observeerde malware-samples, getrackt als HONESTCUE, die de API van Gemini gebruiken om functionaliteit uit te besteden. Deze malware is ontworpen om traditionele netwerkgebaseerde detectie en statische analyse te ondermijnen via een gelaagde obfuscatie-aanpak.
HONESTCUE functioneert als een downloader en launcher-framework dat prompts via Gemini's API verstuurt en C# broncode als antwoord ontvangt. Het bestandloze tweede stadium compileert en voert payloads direct in het geheugen uit, zonder sporen op de schijf achter te laten.
Daarnaast identificeerde GTIG COINBAIT, een phishing-kit waarvan de constructie waarschijnlijk versneld is door AI-codegeneratie. Dit laat zien hoe toegankelijk geavanceerde aanvalstools zijn geworden.
### Wat betekent dit voor de toekomst?
De opkomst van AI in cyberaanvallen verandert het speelveld volledig. Traditionele verdedigingsmethoden zijn niet langer voldoende. Organisaties moeten hun beveiligingsstrategieën herzien en investeren in:
- Geavanceerde detectiesystemen die AI-gedreven aanvallen herkennen
- Continue training van personeel in herkenning van geavanceerde phishing
- Samenwerking tussen bedrijven en overheden om dreigingsinformatie te delen
Het is een wapenwedloop geworden, waarbij zowel aanvallers als verdedigers steeds geavanceerdere AI-tools inzetten. De vraag is niet óf, maar wanneer jouw organisatie met deze nieuwe generatie aanvallen te maken krijgt. Voorbereiding is het enige wapen dat we hebben.