Stol på meg, jeg er en robot

Anonim
Dr. Ayanna Howard

I all singularitetsbasert angst for om roboter kommer til å ta over, har få tatt i betraktning de menneskelige egenskapene som kan tillate silisiumkusinene våre å seire. Spesifikt, vil roboter dupe oss til å gjøre noe dumt eller farlig fordi vi stoler på dem for mye?

PCMag diskuterte dette nylig med robotikkekspert Dr. Ayanna Howard etter hovedtyngden på den første IEEE Multi-Robot Systems (MRS) konferansen. Dr. Howard tilbrakte 12 år ved NASA JPL som Senior Robotics Researcher, men er nå grunnlegger og CTO for Zyrobotics, som lager avansert teknologi for å hjelpe barn som lever med funksjonsnedsettelser. Hun er også direktør for Human-Automation Systems Lab (HumAnS) ved Georgia Institute of Technology.

Her er redigerte og kondenserte utdrag fra samtalen vår.

For det første, kan du snakke om arbeidet ditt på NASA på fremtidige Mars-oppdrag?
På NASA så jeg på hvordan rovere kan etterligne forskernes oppførsel, spesielt geologer, og det var da jeg begynte å tenke på hele human-in-the-loop scenariet, vel vitende om at mennesker har mye å tilby i Human-Robot Samhandlingsfelt. På den tiden betraktet jeg det menneskelige først og fremst som innsatsfaktoren som systemet kunne lære fra.

Så du ville at roboten skulle ha et visst mål med autonomi i motsetning til at Houston kontrollerte den og sa "ta til venstre, vær så snill"?
Rett, men ved å etterligne menneskelig atferd.

Which robots do you use in your research studies?
' Darwin-OP Humanoid Research Robot'

You found that this feedback response increased efficacy.
Yes, if the robot displays appropriate human-like behavior, such as joy, there is a form of trust developed, and the child is willing to engage longer in the game to teach the robot how to improve their score. Then, using our methods for extracting the child' s motor performance, including position, arm trajectory, movement units during active movements, we can prove that the robot's animated state, which correlates with>

Gjennom ditt spin-off selskap, Zyrobotics, tar du nå litt av denne forskningen til det kommersielle riket. Kan du snakke om spesifikke produkter?
I vår Access4Kids-forskningsstudie [video nedenfor] utviklet vi en trådløs kontroller for tilgjengelighet for nettbrett for å tillate personer med begrenset finmotorisk kontroll fortsatt å bruke de vanlige knip-og-sveipbevegelsene som kreves for nettbrettkontroll. Dette arbeidet er nå kommersielt tilgjengelig, lisensiert til Zyrobotics, som TabAccess-produktet.

I alt arbeidet ditt fant du ut at tillit er en essensiell del av human-in-the-loop robotikk, men det er ikke alltid den klokeste avgjørelsen.
Tillit er ikke hva folk sier, det er deres handlinger - hva de gjør i en gitt situasjon. Hos Georgia Tech har vi gjort flere studier som ser på tillit. I vår studie av en simulert brann [video nedenfor] fulgte forsøkspersonene roboten uten tvil, fordi det var tydelig at de oppfattet det som en autoritetsfigur. Og dette var også etter at det gjorde feil og førte folk inn i et rom uten synlige utganger. Vi vet at å lære roboten å etterligne menneskelig atferd oppmuntrer til samhandling og bygger tillit.

Men selv når roboten ikke har peiling?
Bekymringsfullt. I forskningsoppgaven … presenterte vi arbeid som antydet at folk har en tendens til å være altfor tillitsfulle og altfor tilgivende for roboter i visse situasjoner. Eksperimentene våre viste at i beste fall menneskelige deltakere i våre simulerte nødsituasjoner fokuserer på veiledning gitt av roboter, uavhengig av robotens tidligere ytelse eller annen veiledningsinformasjon, og i verste fall mener at roboten er mer dyktig enn andre informasjonskilder.

Du mener, så lenge roboten illustrerte å lære av sine feil, ved å gjøre en "tenke nytt" og en mulig omstart, betegnet den intelligens, og så folk stolte på det?
Vi fant ut at selv når robotene bryter tillit, kan en riktig tidsbestemt uttalelse overbevise en deltaker om å følge den.

I slekt

  • Drone-lysshow ser kult ut, men hvordan fungerer de? Drone-lysshow ser kult ut, men hvordan fungerer de?

Hvordan bruker du dette arbeidet i laboratoriet ditt på Georgia Tech?
Tillit er et tveegget sverd. Vi trenger tillit til helsevesenet for å sikre at barn overholder sine treningsmål. Vi presser på tillitsaspektet for å hjelpe barn med å se roboten som en venn som hjelper dem med å forbedre livsresultatene, men vi må også sørge for at de ikke stoler fullstendig på roboten. Nøkkelen er å maksimere gevinsten mens du minimerer potensiell risiko.

Så hva gjør robotikere med måten mennesker ser ut til å stole på roboter?
Vi fortsetter å gjøre forskningsstudier på dette spørsmålet for å bedre forberede industrien når vi utvikler autonome systemer, samt bidrar til det voksende arbeidet og foreslåtte retningslinjer hos IEEE.

For å lære mer om Dr. Howards forskning, vil hun holde tale på Tigers ADVANCE Distinguished Speaker Series i South Carolina 20. februar.