OsloMet: Storløyving til forskning på autonome søk

OsloMet-forskere har i tøff konkurranse fått 11,84 millioner til forskning på maskinlæring inspirert av øynenes søk etter visuell informasjon.

Bildet i artikkelen er et illustrasjonsbilde fra Pixabay.

Prosjektet har fått tittelen «Virtual-Eye – Learning from human eye scanpaths for optimal autonomous search».

I spissen står Anis Yazidi, Pedro Lind og Sergiy Denysov fra Institutt for informasjonsteknologi på Fakultet for teknologi, kunst og design (TKD). Prosjektet er et initiativ fra AI Lab og forskningssenteret NordSTAR.

Pengene kommer fra Forskningsrådet, og FRIPRO-midlene, som finansierer grunnleggende, fremragende og banebrytende forskning, hvor prosjektideene kommer fra forskerne selv.

Konkurransen om midlene er hard. Av 1539 søknader ble bare 82 innvilget.

– Forskerne som får innvilget søknadene sine er i det absolutte tetsjiktet og har all grunn til å være stolte, sa administrerende direktør i Forskningsrådet, Mari Sundli Tveit, ved tildelingen.

– Vi er veldig glade for tildeling av FRIPRO-midler til dette prosjektet, både fordi det er et viktig prosjekt fra et faglig ståsted, men også fordi det er en annerkjennelse av kvaliteten på forskningen hos oss, sier dekan Carl Christian Thodesen på Fakultet for teknologi, kunst og design.

Inspirert av øynene

Prosjektet er inspirert av de menneskelige øynenes søking etter visuell informasjon.

Som en dør til omverdenen og i kraft av millioner av år med biologisk evolusjon, viser øynene en kompleks «scanpath»-atferd som er svært effektiv til å finne objekter av interesse.

Dette er nå av interesse for utvikling av kunstig intelligens.

Maskinlæring kan etterligne øyeblikk

Maskinlæring er nemlig spesielt lovende om du vil modellere nøyaktige øyeblikkbaner.

De siste framskrittene innen det som kalles «generative adversarial network (GAN)» har gjort det mulig å bringe fram syntetiske data som har de samme statistiske egenskapene som de originale dataene.

Hvis blikkmønstre hos mennesker er gunstige for å søke etter visuell informasjon, kan syntetiske blikkbaner bli en betydelig forbedring i utviklingen av autonome robotsøkealgoritmer.

Prosjektet tar sikte på å skape to sofistikerte rammeverk for nøyaktig modellering av skanningsbaner for øyeblikk: en såkalt GAN-arkitektur og en stokastisk modell basert på teorien om intermitterende prosesser, og teste dem i autonome søkeproblemer.

Nyttig når søketiden er viktig

Nye søkealgoritmer inspirert av øye-blikk-baner åpner for en rekke bruksområder for autonome robotsøk hvor søketiden er viktig, for eksempel måldeteksjon i overvåkingsapplikasjoner og visuell skanning i selvkjørende biler.

Utilstrekkelige matematiske modeller

Forskerne viser til at matematisk forskning ikke legger særlig vekt på at øynene er knyttet til den kognitive prosessen. Her blir øyebevegelser ofte behandlet som en enkel måte å søke etter visuell informasjon.

Dette er imidlertid en grov forenkling: Menneskelige skanningsveier reflekterer mer enn bare en strategi for å søke etter visuell informasjon, og de ser ut til å være mer komplekse enn intermitterende prosesser og andre søkestrategier som L'evy-flyvninger.

Begge disse matematiske prosessene er tilsynelatende universelle når det gjelder å forklare prosesser så forskjellige som jaktbevegelsen til albatrosser og haier, bevegelsen av svømmebakterier eller barns utforskning av Walt Disney Resort.

Etterligning av blikkbaner kan optimere søk

Forskernes hypotese i "Virtual-Eye"-prosjektet er at noe av kompleksiteten i blikkbaner hos mennesket, er egnet til å optimere søket etter visuell informasjon.

Dermed kan evnen til å modellere, forstå og etterligne dynamikken i menneskelige øyeblikkbaner, bli svært lovende for å revolusjonere autonome søk.

Dette kan markere en ny æra i forskningen av autonome søk, som har vært dominert av søkealgoritmer basert på L'evy-flyvninger, som er grov forenkling av menneskelige øyebevegelser og ikke så gunstige i virkelige omgivelser.

For å modellere blikkbaner, vil OsloMet-forskerne benytte stokastisk modellering og kunstig intelligens-basert modellering.

Kontaktperson for prosjektet: 

Anis Yazidi


Bildet øverst i artikkelen er et illustrasjonsbilde fra Pixabay.

Publisert: 09.09.22 av Olav-Johan Øye

Først publisert på OsloMet sine hjemmesider. Den orginale artikkel kan finnes her

Publisert 12. sep. 2022 14:06 - Sist endret 12. sep. 2022 14:08