Deze robot steekt je IKEA-stoel in elkaar

Wij hebben er een dik uur, een halve doos tranquilizers en een huisgenoot om tegen te foeteren voor nodig, maar een robot van de technische universiteit van Singapore slaagde erin op twintig minuten tijd en zonder woede-uitbarsting een Ikea-stoel in elkaar te zetten. Wat nog niet wil zeggen dat robots de wereld zullen overnemen.

De onderzoekers gaven de robotarmen in codetaal basisinstructies zoals ze op dat vermaledijde A4′tje staan die bij de Stefan-stoel wordt geleverd: dit stukje gaat eerst in dit gaatje en dan het volgende, enzovoort. Daarna plaatsten ze de onderdelen in een willekeurig patroon voor de robot, die met een 3D-camera de onderdelen bekeek. Aan de hand van een lijst ingegeven taken, ging de robot vervolgens aan de slag.

Algoritmes
De robot had 11 minuten en 21 seconden nodig om zijn bewegingen te plannen en 3 seconden om de verschillende onderdelen te lokaliseren. Daarna zette de robot de stoel in 8 minuten en 55 seconden tijd in elkaar. “Wij ontwikkelden de algoritmes die de robot in staat stelden om de benodigde stappen te zetten en de stoel zelfstandig in elkaar te passen”, zegt onderzoeker Pham Quang Cuong.

Hoewel de verrichtingen van de robot nu al indrukwekkend zijn, zien de onderzoekers nog ruimte voor verbetering. “We kijken nu of we er nog meer kunstmatige intelligentie in kunnen stoppen, zodat de robot autonomer wordt en de verschillende stappen in het montageproces kan leren door te kijken hoe mensen het doen of door het lezen van de gebruiksaanwijzing of zelfs door af te gaan op een afbeelding van het gemonteerde product.” Dat laatste, zo voorspelt Pham, zal nog niet binnen de komende vijf tot zes jaar lukken.

Complexe menselijke hand
Er is dus nog een lange weg af te leggen vooraleer robots een aantal fundamentele menselijke vaardigheden onder de bionische knie krijgen. Het nabootsen van de complexiteit van de menselijke hand is één van de struikelblokken. De handen van robots zijn tot nader order klunzig en de meer gesofisticeerde handen die in labo’s worden ontwikkeld missen de robuustheid en de behendigheid van onze handen. Daarnaast laten de gevoelssensoren in onze huid, nodig om complexe handelingen uit te voeren, zich niet zo makkelijk nabootsen. Bovendien is de software die de input van de sensoren in robots verwerkt bijlange niet zo verfijnd als het menselijke brein wanneer het op het interpreteren van en het reageren op boodschappen van de gevoelssensoren aankomt.