door Perla Maiolino, Universiteit van Oxford
Robots zien de wereld nu met een gemak dat ooit alleen tot science fiction behoorde. Ze kunnen objecten herkennen, door rommelige ruimtes navigeren en duizenden pakketten per uur sorteren. Maar vraag een robot iets zachts, veiligs of betekenisvols aan te raken, en de grenzen komen onmiddellijk naar voren.
Als onderzoeker op het gebied van zachte robotica die werkt aan kunstmatige huid en bewuste lichamen, heb ik ontdekt dat het proberen om robots een gevoel van aanraking te geven ons dwingt onder ogen te zien hoe verbazingwekkend verfijnd menselijke aanraking werkelijk is.
Mijn werk begon met de ogenschijnlijk eenvoudige vraag hoe robots de wereld via hun lichaam kunnen waarnemen. Ontwikkel tactiele sensoren, bedek er een machine volledig mee, verwerk de signalen en op het eerste gezicht zou je zoiets als aanraking moeten krijgen.
Alleen lijkt menselijke aanraking niet op een simpele aanrakingskaart. Onze huid bevat verschillende soorten mechanoreceptoren, elk afgestemd op verschillende stimuli zoals trillingen, rek of textuur. Onze ruimtelijke resolutie is opmerkelijk goed, en het is van cruciaal belang dat aanraking actief is: we zijn voortdurend aan het drukken, glijden en aanpassen, waarbij we rauwe sensaties omzetten in perceptie door middel van dynamische interactie.
Ingenieurs kunnen hiervan soms een versie op vingertopschaal nabootsen, maar het weergeven ervan over een heel zacht lichaam en het door een robot laten interpreteren van deze rijke zintuiglijke stroom is een uitdaging van een heel andere orde.
Het werken met kunsthuid brengt ook al snel een ander inzicht aan het licht: veel van wat wij ‘intelligentie’ noemen, leeft niet uitsluitend in de hersenen. De biologie biedt treffende voorbeelden, waarvan de bekendste de octopus is.
Octopussen verspreiden de meeste van hun neuronen via hun ledematen. Uit onderzoek naar hun motorische gedrag blijkt dat een octopusarm lokaal bewegingspatronen kan genereren en aanpassen op basis van sensorische input, met beperkte input van de hersenen.
Hun zachte, meegaande lichamen dragen rechtstreeks bij aan hoe ze zich in de wereld gedragen. En dit soort gedistribueerde, belichaamde intelligentie, waarbij gedrag voortkomt uit de interactie tussen lichaam, materiaal en omgeving, krijgt steeds meer invloed in de robotica.
Aanraking is toevallig ook het eerste zintuig dat mensen in de baarmoeder ontwikkelen. Ontwikkelingsneurowetenschappen tonen aan dat tactiele gevoeligheid ontstaat vanaf ongeveer acht weken zwangerschap, en zich vervolgens tijdens het tweede trimester door het lichaam verspreidt. Lang voordat het zicht of gehoor betrouwbaar functioneert, verkent de foetus zijn omgeving door middel van aanraking. Aangenomen wordt dat dit helpt vorm te geven aan de manier waarop baby’s inzicht beginnen te krijgen in gewicht, weerstand en ondersteuning – de basisfysica van de wereld.
Dit onderscheid heeft ook gevolgen voor de robotica. Decennia lang hebben robots sterk vertrouwd op camera’s en lidars (een detectiemethode die lichtpulsen gebruikt om afstand te meten) terwijl ze fysiek contact vermijden. Maar we kunnen niet van machines verwachten dat ze in de fysieke wereld competentie op menselijk niveau bereiken als ze dit zelden via aanraking ervaren.
Simulatie kan een robot nuttig gedrag aanleren, maar zonder echte fysieke verkenning bestaat het risico dat intelligentie simpelweg wordt geïmplementeerd in plaats van ontwikkeld. Om te leren zoals mensen dat doen, hebben robots lichamen nodig die voelen.
Een ‘zachte’ robothand met tactiele sensoren, ontwikkeld door het Soft Robotics Lab van de Universiteit van Oxford, pakt een appel. Video: Oxford Robotics Institute.
Eén benadering die mijn groep onderzoekt, is om robots een zekere mate van ‘lokale intelligentie’ in hun zintuigen te geven. Mensen profiteren van de compliantie van zacht weefsel: de huid vervormt op manieren die de grip vergroten, de wrijving vergroten en sensorische signalen filteren voordat ze zelfs maar de hersenen bereiken. Dit is een vorm van intelligentie die rechtstreeks in de anatomie is ingebed.
Onderzoek naar zachte robotica en morfologische berekeningen stelt dat het lichaam een deel van de werklast van de hersenen kan verlichten. Door robots te bouwen met zachte structuren en verwerking op een laag niveau, zodat ze de grip of houding kunnen aanpassen op basis van tactiele feedback zonder te wachten op centrale commando’s, hopen we machines te creëren die veiliger en natuurlijker omgaan met de fysieke wereld.

Gezondheidszorg is een gebied waarop dit vermogen een groot verschil kan maken. Mijn groep heeft onlangs een robotachtige patiëntensimulator ontwikkeld voor het trainen van ergotherapeuten (OT’s). Leerlingen oefenen vaak op elkaar, waardoor het moeilijk is om de genuanceerde tactiele vaardigheden te leren die nodig zijn om iemand veilig te ondersteunen. Bij echte patiënten moeten cursisten een balans vinden tussen functionele en affectieve aanraking, persoonlijke grenzen respecteren en subtiele tekenen van pijn of ongemak herkennen. Onderzoek naar sociale en affectieve aanraking laat zien hoe belangrijk deze signalen zijn voor het menselijk welzijn.
Om studenten te helpen deze interacties te begrijpen, produceert onze simulator, bekend als Mona, praktische gedragsreacties. Wanneer een OT bijvoorbeeld op een gesimuleerd pijnpunt in de kunsthuid drukt, reageert de robot verbaal en met een kleine fysieke “knijp” in het lichaam om ongemak na te bootsen.
Op dezelfde manier, als de leerling probeert een ledemaat verder te bewegen dan wat de gesimuleerde patiënt kan verdragen, spant de robot zich aan of verzet zich, waardoor een realistisch signaal wordt gegeven om de beweging te stoppen. Door tactiele interactie vast te leggen via kunstmatige huid, geeft onze simulator feedback die nooit eerder beschikbaar was in OT-training.
Robots die erom geven
In de toekomst zouden robots met veilige, gevoelige lichamen kunnen helpen het hoofd te bieden aan de groeiende druk van de sociale zorg. Naarmate de bevolking ouder wordt, worden veel gezinnen plotseling geconfronteerd met het tillen, verplaatsen of ondersteunen van familieleden zonder formeel onderwijs. ‘Zorgrobots’ zouden hierbij helpen, waardoor het gezinslid mogelijk langer thuis verzorgd zou kunnen worden.
Verrassend genoeg is de vooruitgang bij de ontwikkeling van dit type robot veel langzamer gegaan dan de eerste verwachtingen suggereerden – zelfs in Japan, waar enkele van de eerste prototypes van zorgrobots werden geïntroduceerd. Een van de meest geavanceerde voorbeelden is Airec, een mensachtige robot die is ontwikkeld als onderdeel van het Moonshot-programma van de Japanse overheid om te helpen bij verpleegkundige en ouderenzorgtaken. Dit veelzijdige programma, gelanceerd in 2019, streeft naar “ambitieuze R&D gebaseerd op gedurfde ideeën” om een ”maatschappij op te bouwen waarin mensen tegen 2050 vrij kunnen zijn van de beperkingen van lichaam, hersenen, ruimte en tijd”.
De Japanse Airec-zorgrobot is een van de meest geavanceerde in ontwikkeling. Video van Global Update.
Wereldwijd blijft het echter lastig om onderzoeksprototypes te vertalen naar gereguleerde robots. Hoge ontwikkelingskosten, strenge veiligheidseisen en het ontbreken van een duidelijke commerciële markt hebben allemaal de vooruitgang vertraagd. Hoewel de technische en regelgevende belemmeringen aanzienlijk zijn, worden deze gestaag aangepakt.
Robots die veilig een nauwe fysieke ruimte met mensen kunnen delen, moeten voelen en moduleren hoe ze iets aanraken dat in contact komt met hun lichaam. Deze gevoeligheid voor het hele lichaam is wat de volgende generatie zachte robots zal onderscheiden van de hedendaagse starre machines.
We zijn nog ver verwijderd van robots die deze intieme taken zelfstandig kunnen uitvoeren. Maar het bouwen van machines met aanraakbediening verandert ons begrip van aanraking al. Elke stap in de richting van tactiele robotintelligentie benadrukt de buitengewone verfijning van ons eigen lichaam – en het diepe verband tussen sensatie, beweging en wat wij intelligentie noemen.
Dit artikel is geschreven in samenwerking met het Professorship Program, onderdeel van Prototypes for Humanity, een mondiaal initiatief dat academische innovatie onder de aandacht brengt en versnelt om sociale en ecologische uitdagingen aan te pakken. The Conversation is een mediapartner voor Prototypes for Humanity 2025.![]()
Perla Maiolino, universitair hoofddocent Engineering, lid van het Oxford Robotics Institute, Universiteit van Oxford
Dit artikel is opnieuw gepubliceerd vanuit The Conversation onder een Creative Commons-licentie. Lees het originele artikel.

Het gesprek
is een onafhankelijke bron van nieuws en standpunten, afkomstig uit de academische en onderzoeksgemeenschap en rechtstreeks aan het publiek geleverd.

Het gesprek
is een onafhankelijke bron van nieuws en standpunten, afkomstig uit de academische en onderzoeksgemeenschap en rechtstreeks aan het publiek geleverd.


