Als de mens naast een robot werkt, is-ie minder alert

[ad_1]

De interactie tussen robots en mensen die samenwerken lijkt veel op de relatie binnen teams met alleen mensen. Teamleden kunnen elkaar aanvullen en samen beter werken dan alleen, maar iemand kan ook achterover leunen en iemand anders het werk laten doen. In de sociologie die naar menselijke teams kijkt, wordt dit laatste fenomeen genoemd sociaal luieren, sociale luiheid. Dit fenomeen lijkt zich ook voor te doen als mensen samen met robots kwaliteitscontroles uitvoeren, onderzoek toont aan van de Universiteit van Berlijn die woensdag Grenzen in robotica en AI verscheen. Dit kan de kwaliteit en veiligheid van producten negatief beïnvloeden.

Sensortechnologie ontwikkelt zich snel, waardoor robots beter worden in controletaken in de industriële productie. Toch zullen de robots bepaalde fouten missen. Computeronderdelen bevatten bijvoorbeeld vaak geen stof dat op de onderdelen aanwezig kan zijn. De combinatie van mens en robot zou voor veel kwaliteitscontroles dan ook de beste uitkomst opleveren.

Of zullen mensen te veel op de robots vertrouwen? Om te kijken of er sprake zou kunnen zijn van sociale luiheid, voerden de onderzoekers een experiment uit waarbij printplaten moesten worden gecontroleerd op fouten. Het experiment duurde anderhalf uur. De helft van de 44 proefpersonen moest de taak alleen uitvoeren, de andere helft deed dat samen met een robotarm, waarbij de robot eerst controleerde en daarna de mens opnieuw. Bij dit soort werk is dubbele controle gebruikelijk. De onderzoekers hielden bij hoeveel van het oppervlak werd bekeken en hoe lang ze zochten.

Gevolgen voor de veiligheid

Op het eerste gezicht leek de aanwezigheid van de robot geen verschil te hebben gemaakt, beide groepen proefpersonen hadden even lang gezocht en hetzelfde deel van het oppervlak bestudeerd. Beide groepen rapporteerden een gelijk verantwoordelijkheidsgevoel voor de taak.

Maar uit de foutenpercentages bleek dat de mensen die met de robot werkten na een tijdje minder fouten ontdekten, nadat ze hadden ervaren dat de robot ook fouten ontdekte. De onderzoekers denken dat dit een ‘kijk maar niet zie’-effect is, waarbij mensen eraan wennen iets te vertrouwen en vervolgens onbewust minder aandacht aan de taak besteden. De auteurs waarschuwen dat dit gevolgen voor de veiligheid kan hebben. Dit was slechts een taak van anderhalf uur, maar dit effect kan sterker worden bij langere diensten.

Tu DelftDavid Abbink Ik vraag me af of het een motivatieprobleem is

“Het onderzoek zelf is goed uitgevoerd, maar ze hebben een aantal keuzes gemaakt die afstand tot de werkelijkheid creëerden”, zegt David Abbink, hoogleraar mens-robotinteractie aan de TU Delft. “De proefpersonen zijn geen mensen die dit werk echt doen. Bovendien is de robotarm niet uitgerust met sensoren, hij voert de taak niet daadwerkelijk uit. De auteurs zeggen dat ze bij de proefpersonen met de robotarm een ​​sociaal gevoel van interactie willen creëren, maar dat vind ik vreemd.”

Abbink pleit voor onderzoek op de langere termijn en vanuit meer disciplines tegelijk. “Hoe toekomstige robotvaardigheden het beste kunnen worden gecombineerd met professionals is een grote vraag. Misschien kan de volgorde in dit geval anders zijn, de mens controleert eerst en dan de robot, wat doet dat? Ik vraag me ook af of het hier om een ​​motivatieprobleem gaat, zoals de term sociale luiheid impliceert, of om meer overmoed in de robot. Om zulke dingen te weten te komen, zul je langer dan dit anderhalf uur moeten observeren en in een echte werkomgeving.”

In de luchtvaart wordt al heel lang naast een automatische piloot gewerkt. “Goede piloten weten hoe ze met beperkingen moeten omgaan automatische piloot, en ook in de luchtvaart is training daarvoor van groot belang”, zegt Abbink. “Bij dit experiment werd vooraf niets over beperkingen gezegd, waardoor hun verwachtingen van de robot onbekend en wisselend zijn. Als de proefpersonen weten waar de robot goed in is en waar hij minder goed in is, dan is de kans groter dat je elkaar gaat versterken.”

[ad_2]

Leave a Comment

Your email address will not be published. Required fields are marked *