Til hovedinnhold

Styrer roboten med tankene

Styrer roboten med tankene

Publisert 1. mai 2013
Dette er Angel Perez Garcia. Med elektroder festet på hodet får han en robot til å bevege seg slik han vil.
Main intro image
Forskere ved kybernetikkmiljøet på NTNU/SINTEF ønsker å klekke ut nye måter å manøvrere roboter på. Foto: Thor Nielsen.

-Jeg bruker ansiktsbevegelser, for eksempel øynene og øyenbrynene. Med brynene velger jeg hvilke ledd på roboten som skal bevege seg, smiler Angel som er masterstudent på NTNU.

Ansiktsgrimasene gir nemlig store utslag i elektrisk aktivitet langs hodet (EEG-signaler). Det samme skjer om Angel konsentrerer seg om et symbol på en dataskjerm, som for eksempel et blinkende lys. I begge tilfellene leser elektrodene av aktiviteten i hjernen, og signalene blir deretter tolket av en prosessor som igjen gir beskjed til roboten om at den skal bevege seg på en forhåndsbestemt måte.

–Jeg kan fokusere på ulike lys på skjermen, og robotbevegelsen avhenger av hvilket lys jeg velger og hvilken aktivitet dette skaper i hjernen, sier Angel. –Ideen om å kontrollere en robot kun ved hjelp av tankekraft, eller aktivitet i hjernebølgene, er fascinerende og futuristisk.

Next Generation Robotics for Norwegian Industry

* Dette er et KMB-prosjekt under Norges forskningsråds BIA-program, og ledes av SINTEF IKT. Prosjektet har åtte partnere: SINTEF, NTNU, Statoil, Hydro, Tronrud Engineering, Glen Dimplex Nordic, SbSeating (HÅG) og RobotNorge.

* Neste generasjon robotteknologi skal bli til gjennom å videreutvikle kompetansen i norske forskningsmiljøer/ deltakende industri, utvikle ny robotteknologi og nye innovative robotløsninger.

* Prosjektet går over fem år (2009–2014) med et budsjett på 36 mill. kroner. Det utdannes fire ph.d.-kandidater i prosjektet – knyttet opp mot NTNU (Institutt for teknisk kybernetikk og Institutt for produksjon og kvalitets teknikk).

Robotskole

Angel Garcia er ikke alene om å klekke ut nye måter å manøvrere roboter på. I kybernetikkmiljøet på NTNU/SINTEF hersker det ren undervisningsstemning om dagen.

I robothallen er medstudent Signe Moe i ferd med å guide sin robot med armbevegelser, mens SINTEF-forsker og veileder Ingrid Schjølberg forsøker å få sin robot med tre fingre, til å gripe objekter på nye måter med et nytt læringsprogram.

SINTEF-forskere Ingrid Schjølberg ønsker seg mer fleksible gripere for industrien. Foto: Thor Nielsen.

SINTEF-forsker Ingrid Schjølberg ønsker seg mer fleksible gripere for industrien. Foto: Thor Nielsen.

 

-Hvorfor denne opplæringsiveren?

- Vel, alle kjenner til industriroboter ved samlebåndet som jobber med å plukke opp, eller sette sammen deler. De er forhåndsprogrammerte og lite fleksible. Med spesialgripere som er tilpasset de enkelte objektene, gjør de den samme manøver gang på gang, forklarer Ingrid Schjølberg.

–Så dere lager noe nytt?

–Vi ser at industrien får store problemer om nye deler blir introdusert og skal gripes på samlebåndet. Da blir det komplisert med å bytte griper og styreprogram for roboten. Dette vil vi forenkle. Vi ønsker også at roboter skal kunne programmeres mer intuitivt og ikke bare på tradisjonell måte via et panel med knapper som man trykker på.

 

“Vi ønsker du skal flytte deg hit”

Oppgaven til Signe Moe har derfor vært å finne ut hvordan menneskelige bevegelser kan gjenspeiles i roboten. Dette har hun løst gjennom et system der hun guider roboten ved hjelp av et Kinect-kamera som benyttes i spillteknologi.
–Hvem som helst kan nå egentlig styre roboten. Forleden var elever fra en 6.klasse innom robothallen. De styrte roboten uten vansker fordi de er vante med dataspill, forteller Signe.

Hun stiller seg halvannen meter foran kameraet og demonstrerer:
–Jeg starter med å holde opp høyrehanda og foreta et klikk i lufta som gjør at kameraet registrerer meg og sporer handa mi. Når jeg nå beveger handa mi opp i lufta og til høyre, ser du at roboten speiler bevegelsen.

Det ser enkelt ut, men hva skjer…?

– Kinect-kameraet har ferdige algoritmer som kan spore hendene mine. Alt vi må gjøre er å regne disse dataene om til posisjonen vi ønsker til roboten, og sette opp et kommunikasjonssystem mellom sensoren i kamera og robot. Roboten får da inn en referanse ala “vi ønsker du skal flytte deg hit”, og en innebygd regulator regner så ut det ut hvordan den skal komme seg dit og hvor mye strøm som må settes på motorene for å sørge for en slik forflytning.”

Ny læring via kamerabilder og sensorer

Ingrid Schjølberg viser oss robotgriperen som har tre fingre. Å lære en robot nye måter å gripe på, vil være nyttig for industrien. Derfor tester forskerkollegene nye metoder.

– Vi kombinerer sensorer i robothanda med bilder fra et Kinect-kamera som identifiserer delen som skal fanges. Roboten kan da lære seg selv hvordan det er lurt å gripe på nye måter. Den prøver ut ulike grep slik vi mennesker gjør når vi skal gripe en ukjent ting. På forhånd har vi satt opp noen kriterier for hva som er et bra og dårlig grep. Roboten tester flere grep, og gjennom en poengsum får den skryt eller skjenn som respons, smiler Schjølberg.

–Er denne metoden satt ut i livet?
– Dette systemet er ikke industrialisert, men vi har det oppe og går her i hallen vår. Neste steg kan bli å installere roboten hos en av industriaktørene som deltar i prosjektet.

Prosjektet Next Generation Robotics for Norwegian Industry, favner nemlig om alle delaktivitetene som bedrives, og her er industripartnere som Statoil, Hydro, Glen Dimplex og Haag med.

–De finansierer arbeidet, men er også involvert gjennom caser og problemstillinger. I tiden som gjenstår av prosjektperioden, skal vi arbeide med å lage softwaren og systemet mer robust.

 

Denne saken er hentet fra Gemini.no - Forskningsnytt fra NTNU og SINTEF