Til hovedinnhold

Styrer pc og nettbrett med håndbevegelser

Styrer pc og nettbrett med håndbevegelser

Publisert 9. desember 2013
På et kontor i Forskningsveien 1, driver en forsker med myke, gymnastiske håndbevegelser foran nettbrettet sitt.
Main intro image
Petter Risholm på SINTEF bruker ultralydteknologi - slik at hele skjermen kan benyttes og området for samspill blir stort. Foto: Werner Juvik/SINTEF.

–Vi jobber med å få til et samspill mellom meg og iPad’en her, der vi ikke trenger å berøre displayet, sier Petter Risholm på SINTEF IKT.  Grunnteknologien var klar for noen år siden. Sammen med kollega Jens Thielemann arbeider han nå med å utvide funksjonen så de kan klare å gripe og flytte objekter på displayet.

FAKTA:

  • Første prosjekt for Elliptic Labs gikk fra 2008- 2012. Her ble mye av grunnteknologien for robust berøringsfri interaksjon med pc eller stasjonære enheter utviklet.
  • Nå løper prosjektet Multigest (2012-2016) der arbeidet utvides til mobiltelefoner og tablets.
  • Begge prosjektene er BIA-prosjekt (Brukerstyrt Innovasjonsarena) innen Norges forskningsråd.

Utvidet vokabular

Det var ønsket om å ligge i front av teknologitrenden som gjorde at den norske bedriften Elliptic Labs kontaktet SINTEF i 2008. Den gang lå fokuset på berøringsfri interaksjon med stasjonære installasjoner som pc og laptop. I dag handler det om mobiltelefoner og tablets.

–Vi prøver å utvide vokabularet og få til mer detaljert samspill, forteller Risholm. –Vi har lenge scrollet og bladd på skjerm. Nå jobber vi med å få til å gripe og slippe objekter, eller si stopp ved å holde opp en hånd.
–Ingen som har gjort dette før?
Vi kjenner vi ikke andre miljø i Norge, nei.

Klissete på hendene

Forskerne ser for seg dette som en utvidet tjeneste; det skal ikke erstatte funksjonene i et touch-display.

–Men la oss si at du står og baker brød, er klissete på fingrene og skal sjekke på nettbrettet hvor mye hvetemel det egentlig sto i oppskriften; i slike tilfeller ville det være kjekt å slippe å berøre displayet, sier Risholm.
–Eller du jobbet på et verksted og er oljete på hendene når du skal sjekke et telefonnummer på mobilen.  I tillegg er det mange av oss som sliter med “muse-arm” der det kan være en fordel å samspille med skjermen gjennom større hånd- og armbevegelser i lufta.

I vinden internasjonalt

Internasjonalt er det mange bedrifter som satser på området berøringsfri interaksjon, og mange teknologier konkurrerer om muligheten. Et område hvor det berøringsfrie samspillet er mye i bruk, er i spillindustrien, og Risholm nevner det mest kjente eksemplet som er Microsoft sin Kinect sensor. Den kan gjenkjenne kroppspositurer og store armbevegelser.

Innenfor mobile enheter er ikke berøringsfri interaksjon like utbredt enda, men noen systemer har allerede rukket å komme ut på markedet.  På Samsungs nyeste mobiltelefon kan man for eksempel bla i en e-bok ved å bevege fingrene foran den integrerte infrarøde sensoren.  Men i følge forskerne har systemet innskrenkende muligheter og synsfelt.

– Samsung satser på å bruke enkle infrarøde sensorer som teknologi. Derfor har den begrenset sensitivitet og gjenkjenner ikke alltid kommandoen. For å kunne bruke tjenesten må brukeren alltid utføre kommandoen rett over sensoren som gjerne er plassert på toppen av pc/mobil/iPad. Beveger du fingre eller hånd litt bort, skjer det ingenting, sier Risholm.

Ultralyd gir gevinst

Derfor vil de norske forskerne heller benytte ultralyd. Da kan hele skjermen benyttes – og man får en stor arbeidsflate.
–Systemet oppfatter hva du gjør både foran og til siden for skjermen. Dette gjør området for samspill stort, og det gjør det også mulig å styre enheten uten å måtte skygge for skjermen.  I tillegg oppfatter mobilen eller nettbrettet hva du gjør så lenge du beveger deg i området 2 cm- 30 cm fra skjermen, sier Petter Risholm.

Mye av jobben går ut på å gjøre systemet så robust at det ikke er rom for misforståelser, men at kommandoen man gir, alltid blir forstått. Dette blir spesielt utfordrende når SINTEF-forskerne skal utvide vokabularet til mer avanserte gester som gripe/slippe-kommandoer.

På kjøkkenet  kan et berøringsfritt samspill med nettbrettet være lurt når fingre er klissete. Foto: Werner Juvik/SINTEF.

På kjøkkenet kan et berøringsfritt samspill med nettbrettet være lurt når fingre er klissete. Foto: Werner Juvik/SINTEF.

Må “alle” ha det?

Framtidens teknologi for berøringsfri interaksjon, må være billig og strømgjerrig. Systemet må også være smått og enkelt så det kan integreres i mobile enheter, og det må ha stort arbeidsvolum slik at samspillet blir relativt detaljert.

– Internasjonalt benyttes det både kameraer og infrarødt lys, men vi ser at vår teknologi med ultralyd har egenskaper som oppfyller mange av disse kravene, sier Tom Kavli i Elliptic Labs.
–Den store fordelen er at vi tilbyr et stort volum for å detektere og skjønne gestene til en bruker. Man er ikke begrenset til enheten på toppen, men kan operere foran hele skjermen – noe som også er det beste ergometrisk.

Kavli forteller at feltet er i rivende utvikling og at nye, spennende bruksområder vil åpne seg med videre utvikling av teknologien.  –Vi får veldig god respons internasjonalt fra alle mobiltelefonprodusenter, og ble nettopp utdelt en internasjonal innovasjonspris i Japan, sier han.
Nå vil firmaet jobbe mot en kommersialisering, og ser for seg at de vil være ute på markedet om få år.

Se video på VG: http://www.vg.no/teknologi/artikkel.php?artid=10133527

 

Denne saken er hentet fra Gemini.no - Forskningsnytt fra NTNU og SINTEF