Fysieke AI: governance van autonome systemen
Sophie Jansen ·
Luister naar dit artikel~4 min

De governance van Fysieke AI wordt complexer naarmate autonome systemen zoals robots en industriële apparatuur vaker worden ingezet. Ontdek hoe testen, monitoren en veiligheidslimieten essentieel zijn.
De governance rondom Fysieke AI wordt steeds complexer naarmate autonome AI-systemen hun weg vinden naar robots, sensoren en industriële apparatuur. Het draait niet alleen om de vraag of AI-agenten taken kunnen volbrengen. Het gaat erom hoe hun acties worden getest, gemonitord en gestopt wanneer ze in de echte wereld opereren.
Industriële robotica biedt al een stevige basis voor deze discussie. De International Federation of Robotics meldde dat er in 2024 wereldwijd 542.000 industriële robots werden geïnstalleerd, meer dan het dubbele van het jaarlijkse niveau tien jaar geleden. De organisatie verwacht dat de installaties in 2025 zullen stijgen naar 575.000 eenheden en in 2028 de 700.000 zullen overschrijden.
Marktonderzoekers passen het label Fysieke AI ook toe op een bredere groep systemen, waaronder robotica, edge computing en autonome machines. Grand View Research schatte de wereldwijde Fysieke AI-markt in 2025 op €75,3 miljard en projecteerde dat deze in 2033 €886,2 miljard zou bedragen, hoewel de categorie afhangt van hoe leveranciers intelligentie in fysieke systemen definiëren.
### Van modeloutput naar fysieke actie
De governance-uitdaging is anders dan bij software-only automatisering, omdat fysieke systemen kunnen opereren rond werkplekken, infrastructuur en menselijke gebruikers. Ze kunnen ook worden verbonden met apparatuur die duidelijke veiligheidslimieten vereist. Een modeloutput kan een robotbeweging of een machine-instructie worden. Het kan ook een beslissing worden op basis van sensordata. Dat maakt veiligheidslimieten en escalatiepaden onderdeel van het systeemontwerp.
Het werk van Google DeepMind op het gebied van robotica is een recent voorbeeld van hoe AI-modellen worden aangepast voor deze omgeving. Het bedrijf introduceerde in maart 2025 Gemini Robotics en Gemini Robotics-ER, die worden beschreven als modellen gebouwd op Gemini 2.0 voor robotica en belichaamde AI. Gemini Robotics is een visie-taal-actiemodel dat is ontworpen om robots direct aan te sturen, terwijl Gemini Robotics-ER zich richt op belichaamd redeneren, inclusief ruimtelijk inzicht en taakplanning.
Een robot die dit type model gebruikt, moet mogelijk een object identificeren, een instructie begrijpen en een reeks bewegingen plannen. Het moet ook beoordelen of de taak correct is voltooid. Dat creëert een controleprobleem dat zowel modelgedrag als de mechanische grenzen van het systeem omvat.

### Drie pijlers van nuttige robots
Google DeepMind stelde dat nuttige robots drie eigenschappen nodig hebben: algemeenheid, interactiviteit en behendigheid. Algemeenheid dekt onbekende objecten en omgevingen. Interactiviteit heeft betrekking op menselijke input en veranderende omstandigheden. Behendigheid verwijst naar fysieke taken die precieze bewegingen vereisen.
In het lanceringmateriaal zei Google DeepMind dat Gemini Robotics natuurlijke-taal-instructies kon volgen en meerstaps-manipulatietaken kon uitvoeren. Voorbeelden waren het vouwen van papier, het inpakken van voorwerpen in een tas en het hanteren van objecten die niet tijdens de training waren gezien.
> "Een robot moet niet alleen een taak kunnen uitvoeren, maar ook weten wanneer hij moet stoppen of opnieuw moet proberen." - Sophie Jansen, Senior Media Monitoring Analist & Strategisch Adviseur
### Technische vereisten voor Fysieke AI
De technische vereisten voor Fysieke AI zijn breder dan taalbegrip. Systemen hebben visuele perceptie en ruimtelijk redeneren nodig. Ze hebben ook taakplanning en succesdetectie nodig. In robotica is succesdetectie belangrijk omdat het systeem moet beslissen of een taak is voltooid, of het opnieuw moet proberen, of dat het moet stoppen.
Google DeepMind's Gemini Robotics-ER 1.6, geïntroduceerd in april 2026, laat zien hoe die functies worden verpakt in nieuwere modellen. Het bedrijf beschrijft het model als ondersteunend voor ruimtelijke logica, taakplanning en succesdetectie, met het vermogen om tussenstappen te redeneren en te beslissen of het verder moet gaan of opnieuw moet proberen.
Google's ontwikkelaarsdocumentatie zegt dat Gemini Robotics-ER 1.6 in preview beschikbaar is via de Gemini API. De documentatie beschrijft het als een visie-taalmodel dat Gemini's agentische mogelijkheden naar robotica brengt. Die mogelijkheden omvatten visuele interpretatie, ruimtelijk redeneren en planning vanuit natuurlijke-taal-opdrachten.
Google AI Studio biedt een ontwikkelomgeving voor het werken met Gemini-modellen, terwijl de Gemini API een route biedt voor het integreren van die modellen in applicaties. In de context van belichaamde AI is het duidelijk dat governance een integraal onderdeel moet zijn van het ontwerp, niet een bijzaak.