Roboten som lærer alt fra ingenting

Se for deg at hjernen din ble blanket ut og du skulle lære alt på nytt igjen. Hvordan ville det gå for seg?

KUNSTIG INTELLIGENS: Roboten som to forskere ved NTNU har laget, skal lære som et lite barn. I hvert fall så nært opptil som mulig. Maskinen får nesten ingenting å gå på til å begynne med. Den må lære selv.

– Det er selvfølgelig et godt stykke unna å modellere alle aspekter ved et levende barn, men algoritmene for behandling av lyd- og bildeinntrykk er biologisk inspirerte, forteller professor Øyvind Brandtsegg ved NTNU.

Maskinen har fått navnet [self.]. Den analyserer lyden gjennom en modell av det menneskelige øre, og den lærer å gjenkjenne levende bilder gjennom en modell av hvordan nerveceller i hjernen behandler sensoriske inntrykk. Det at den bare lærer gjennom sanseinntrykk, og ikke har en annen predefinert kunnskapsbase, er altså noe de har valgt å gjøre for å etterligne hvordan et barn antakelig lærer i en tidlig fase.

– Med vilje har vi gitt den lite forhåndsdefinert kunnskap, sier Brandtsegg.

Tverrfaglig

Axel Tidemann, [self.] og Øyvind Brandtsegg. Foto: Ole Morten Melgård, NTNU

Axel Tidemann, [self.] og Øyvind Brandtsegg. Foto: Ole Morten Melgård, NTNU

«Vi» er i dette tilfellet ham selv og postdoktor Axel Tidemann. For dette er utvilsomt et tverrfaglig prosjekt.

Maskinen er så kompleks og komplisert at et samarbeid på tvers av faggrenser har vært nødvendig for å få den til å virke. Brandtsegg er tilknyttet Institutt for musikk, mens Tidemann er tilknyttet Institutt for datateknikk og informasjonsvitenskap. Men de har overlappende interesser.

– Vi forstår akkurat nok av hverandres fagfelt til at vi ser hvor skoen trykker, hva som er vanskelig å få til og hvorfor, sier Brandtsegg, som naturlig nok har musikk som sin hovedinteresse.

Han er også kjent som en dyktig programmerer som bruker disse kunnskapene til å lage sin egen musikk. Samtidig lagde Tidemann en trommerobot som sin doktorgradsoppgave. Den roboten imiterte spillestilen til levende trommeslagere.

Kan nesten ingenting

Til å begynne med kan roboten altså ingenting. Men den kan motta lyder fra en person som snakker og knytte disse lydene til video den filmer av personen.

Den velger ut én av lydene; ett ord som mennesket ser ut til å legge vekt på. Deretter kan roboten gi tilbakemelding ved å spille av lyder som den assosierer med denne lyden, samtidig som den projiserer en nevral representasjon av assosiasjonen mellom lyd og bilde. Den viser altså ikke video, men hvordan hjernen til «self» kobler lyd og bilde sammen.

Læring

Roboten har allerede vært utstilt i Trondheim og Arendal. Der kunne de besøkende påvirke læringen. I Trondheim sto den en måned før jul, i Arendal i to uker i januar. Da kunne forskerne se på nært hold hvordan roboten fungerte.

Det ble mye «jeg heter» og «hva heter du» fra publikum.

– Men noen sang for den. Andre leste dikt.

Ganske raskt kom en periode der mange like lyder og tilknyttede personer ble mikset sammen, og tilsynelatende fulgte et kaos der maskinen koblet rart. Men det endret seg dess mer den lærte.

Etter hvert fikk roboten flere og flere inntrykk.  Noen mennesker, som omviserne, påvirket den mest, siden de var der oftest. Roboten lærte seg dessuten å sile ut.

Om et ord er sagt på én måte 5 ganger og en annen måte 1 gang, kan roboten sile vekk det ene tilfellet og konsentrere seg om den mest brukte måten, som antakelig da er riktig. Denne prosesseringen skjer nattestid.

– Vi kaller det at maskinen «drømmer» om natten, sier Brandtsegg.

Etter en stund knyttet roboten ord og bilder sammen på mer og mer avansert vis. Du kan si at den assosierer lyd med bilde og setter det sammen selv.

Utvikles

Roboten er under utvikling hele tida, og Brandtsegg og Tidemann sover til tider svært lite.

– Før utstillingen i Trondheim jobbet vi til åtte om morgenen. Så dro vi hjem og spiste frokost og jobbet igjen fra klokka 11, sier Brandtsegg.

Mellom de to utstillingene jobbet de to blant annet med å forbedre måten roboten organiserer minnene sine.

– Enhver liten endring tar utrolig mye tid, i hvert fall hvis vi skal sørge for at vi ikke ødelegger det den allerede har lært, sier Brandtsegg.

Resultatet er blitt en robot som på en svært pedagogisk måte viser hvordan den assosierer. Med vilje skal den ikke ligne på noe levende. Da kan du konsentrere deg om læringen og prosessen bak den.

– Roboten har et rått uthugget uttrykk, kaller Brandtsegg det.

Selvstendig tenkende?

[self.] er et kunstprosjekt, og reiser spørsmål som kan bli svært så aktuelle innen få år. Når bedriver en robot selvstendig tenkning? Når kan vi snakke om at en maskin «lever»?

Turing-testen

Oppkalt etter Alan Turing (1912-1954), britisk matematiker og datamaskinpioner, betydelige praktiske og teoretiske bidrag innen kryptografi, informatikk og kunstig intelligens.

Formulerte Turing-testen for hvorvidt en maskin kan betraktes som intelligent eller ikke; testen går ut på at en objektiv person inngår i en skriftlig dialog med både en datamaskin og en annen person, og dersom vedkommende ikke er i stand til å skille maskinen fra personen, er maskinen «intelligent».

Turing bidro til å gjøre det mulig for britene å lese 39 000 tyske kodede meldinger i måneden allerede tidlig i 1942. Tall økte etter hvert til 84 000.

I 1952 ble Turing dømt for homofil praksis og mistet sin sikkerhetsklarering. Han døde i 1954. Dødsfallet ble erklært som selvmord.

Kilde: Store norske leksikon

– Mange mener at intelligens kan måles ut ifra spesifikk oppførsel, sier Tidemann.

Han viser til Turing-testen, hvor en maskin «står» på denne testen hvis den klarer å overbevise et menneske om at det er et annet menneske som svarer på tekst-baserte spørsmål 30 prosent av gangene. I samme gate er en sjakk-maskin intelligent, siden den er veldig flink til å spille sjakk.

Men dette er symbolsk resonnering som ikke nødvendigvis er lett å overføre til egenskaper som er nyttige i den virkelige verden. Spesialiserte roboter har jo for lengst forbigått menneskene på flere enkeltområder, for eksempel presise produksjonsprosesser, men derfra til å assosiere og lære er det langt. Ikke minst løpe opp en trapp, eller hoppe i tau. Det fins heller ingen maskiner som er like gode til å analysere en fotballkamp eller skrive en roman som et menneske.

Ikke i et vakuum

– Mange forskere innen AI, meg selv inkludert, mener at ekte intelligens ikke kan oppstå i et vakuum, det er en konsekvens av at man tilpasser seg og lever i et dynamisk miljø. For eksempel, man ser for seg at vår intelligens er et biprodukt av vår tilpasningsevne, sier Tidemann.

Siden vi mennesker utviklet evnene til å planlegge og huske, får vi med kognisjon på kjøpet, sier han. Kognisjon er den sammensatte evnen til å oppfatte omgivelsene rundt deg, til å resonnere på bakgrunn av det, kommunisere med omgivelsene, huske det og handle i tråd med informasjonen du har til rådighet.

– Hva er selvstendig tenkning? Hva er kunstig liv? Det er kompliserte spørsmål. Men vi mener den riktige måten å strekke seg mot denne «hellige gral» innen AI er å implementere biologisk inspirerte modeller i en maskin, la den operere i et fysisk miljø og se om vi observerer intelligent oppførsel, sier Tidemann.

Fremtidsforskere bruker uttrykket «teknologisk singularitet» om utviklingen der menneskets intellektuelle kapasitet forbigås av maskinenes. Det er nok et stykke igjen ennå; målet til Brandtsegg og Tidemann er at [self.] skal få størst mulig evne til å lære gjennom å interagere med andre mennesker.