Deloitte: AI-agents schieten veiligheid voorbij
Lisa Visser ·
Luister naar dit artikel~4 min

Deloitte waarschuwt: bedrijven implementeren AI-agents sneller dan hun veiligheidsprotocollen kunnen bijhouden. Slechts 21% heeft strikte governance, terwijl adoptie explodeert. De risico's? Slecht beheer en ondoorzichtige beslissingen.
Een nieuw rapport van Deloitte slaat alarm. Bedrijven implementeren AI-agents sneller dan hun veiligheidsprotocollen en waarborgen kunnen bijhouden. Dat leidt tot serieuze zorgen over beveiliging, dataprivacy en aansprakelijkheid.
Volgens het onderzoek gaan agentische systemen zo snel van pilot naar productie dat traditionele risicocontroles, ontworpen voor mensgerichte operaties, de beveiligingseisen niet meer aankunnen.
### Het cijfermatige bewijs
Slechts 21% van de organisaties heeft strikt toezicht of governance voor AI-agents geïmplementeerd, ondanks de toenemende adoptie. Terwijl 23% van de bedrijven aangeeft AI-agents nu te gebruiken, wordt verwacht dat dit stijgt naar 74% in de komende twee jaar. Het aandeel bedrijven dat deze technologie nog niet heeft geadopteerd, zal in dezelfde periode dalen van 25% naar slechts 5%.
Het echte gevaar zit 'm niet in de technologie zelf, maar in slecht beheer. Als agents als eigen entiteiten opereren, worden hun beslissingen en acties al snel ondoorzichtig. Zonder robuuste governance wordt het moeilijk om ze te managen en bijna onmogelijk om verzekeringen af te sluiten tegen fouten.
### De oplossing: beheerde autonomie
Volgens Ali Sarrafi, CEO van Kovant, ligt het antwoord in governed autonomy. “Goed ontworpen agents met duidelijke grenzen, beleid en definities – beheerd zoals een bedrijf elke werknemer beheert – kunnen snel werken aan laag-risicotaken binnen duidelijke kaders, maar escaleren naar mensen wanneer acties gedefinieerde risicodrempels overschrijden.”
“Met gedetailleerde actielogs, observeerbaarheid en menselijke controle voor beslissingen met grote impact, stoppen agents met mysterieuze bots te zijn en worden het systemen die je kunt inspecteren, auditen en vertrouwen.”
De adoptie van AI-agents zal de komende jaren alleen maar versnellen. De bedrijven die de technologie implementeren met zichtbaarheid en controle krijgen de overhand, niet degene die het snelst implementeren.
### Waarom robuuste kaders essentieel zijn
AI-agents presteren misschien goed in gecontroleerde demo's, maar ze worstelen in echte bedrijfsomgevingen waar systemen gefragmenteerd kunnen zijn en data inconsistent.
Sarrafi merkt op over het onvoorspelbare karakter van AI-agents in zulke scenario's: “Wanneer een agent te veel context of scope in één keer krijgt, wordt het vatbaar voor hallucinaties en onvoorspelbaar gedrag.”
Productieklare systemen beperken juist de beslissings- en contextscope waar modellen mee werken. Ze ontleden operaties in smallere, gefocuste taken voor individuele agents, wat het gedrag voorspelbaarder en makkelijker te controleren maakt. Deze structuur maakt ook traceerbaarheid en interventie mogelijk, zodat fouten vroegtijdig worden gedetecteerd en geëscaleerd.
### Verantwoording voor verzekerbare AI
Met agents die echte acties ondernemen in bedrijfssystemen, worden risico en compliance anders bekeken. Met elke geregistreerde actie worden de activiteiten van agents duidelijk en evalueerbaar, waardoor organisaties acties in detail kunnen inspecteren.
Die transparantie is cruciaal voor verzekeraars, die terughoudend zijn om ondoorzichtige AI-systemen te dekken. Dit detailniveau helpt verzekeraars te begrijpen wat agents hebben gedaan en welke controles er waren, waardoor risico's makkelijker in te schatten zijn.
### De eerste stap: AAIF-standaarden
Gedeelde standaarden, zoals die worden ontwikkeld door de Agentic AI Foundation (AAIF), helpen bedrijven verschillende agentsystemen te integreren. Maar de huidige standaardisatie-inspanningen richten zich op wat het makkelijkst te bouwen is, niet op wat grotere organisaties nodig hebben om agentische systemen veilig te laten opereren.
Sarrafi zegt dat bedrijven standaarden nodig hebben die operationele controle ondersteunen, en die omvatten:
- Toegangsmachtigingen
- Goedkeuringsworkflows voor acties met grote impact
- Auditbare logs en observeerbaarheid
Zodat teams kunnen begrijpen wat er gebeurt en waar nodig kunnen ingrijpen. Want uiteindelijk draait het niet om het vertragen van innovatie, maar om het creëren van een fundament waarop je veilig kunt versnellen.