Bilde tatt fra baksetet i bil som kjører uten fører i tett bytrafikk.
Selvkjørende biler kan bli nødt til å ta "umulige" valg. Skal de spare barn eller gamle hvis en påkjørsel ikke kan unngås? "Maskiner gjør bare det mennesker har lært dem. Så hva ønsker vi å lære dem? spør artikkelforfatterne. Illustrasjonsfoto: Foto: 4-X image/iStock

Hva er rett og galt for roboter?

  • Publisert 08.10.19

Mennesker fra vestlige og østlige kulturer velger ulikt i vanskelige situasjoner. Det gir uventede utfordringer for smarte maskiner.

Gjesteskribenter

Maria Bartnes, forskningssjef ved Sintef og førsteamanuensis II ved NTNU
Lillian Røstad, leder for forretningsrådgivning i Sopra Steria og førsteamanuensis II ved UiO

Bør selvkjørende biler svinge unna oldemor eller oldebarnet hvis en påkjørsel er uunngåelig?

Hvordan du besvarer dette spørsmålet, avgjøres av kulturtilhørigheten din, viser en amerikansk undersøkelse.

Ifølge denne ønsker folk fra vestlige kulturer at bilen skal spare barn, mens mennesker med østlig kulturbakgrunn vil at kjøretøyet skal redde de gamle. Dette bør få ikt-industrien til å ta en ny type debatt:

   Les også: Kunstig intelligens kan bli norsk vekstmotor 

Egen østlig og vestlig programmering?

Skal intelligente roboter like godt først som sist programmeres ulikt til vestlige og østlige markeder – for situasjoner der maskinen risikerer å te seg i strid med brukernes etiske normer? Eller skal vi forsøke å komme frem til et felles, globalt gyldig, etisk regelsett for maskiner?

Det vil jo være et uløselig dilemma å velge hvilken kulturkrets det skal tas hensyn til. Dessuten er det neppe verken klokt eller mulig å endre samfunnet ved å påtvinge folk diskriminerende roboter.    

De “umulige” valgene

Selvkjørende biler er nettopp en slags roboter. Slike kjøretøy har vært testet en stund allerede. De holder seg fint på veien, respekterer fartsgrensene og kan være bedre til køkjøring enn de beste sjåfører er.

Men samtidig kan bilen bli nødt til å ta “umulige” valg – som eksemplet med oldemor og oldebarnet viser. Dersom vi mennesker settes i en slik situasjon, vil vi ta en beslutning basert på våre egne verdisett og vår egen kultur og bakgrunn. Men maskiner gjør bare det mennesker har lært dem. Så hva ønsker vi å lære dem?

   Les også: Skal sjekke fiskevelferden i merdene med «robotskilpadde»

Eksperiment på internett

Tankeeksperimenter knyttet til slike dilemmaer, inviteres vi alle nå inn i av velrennomerte Massachusetts Institute of Technology (MIT). I undersøkelsen “The Moral Machine”, som er tilgjengelig på internett på ti språk, blir folk bedt om å treffe etisk vanskelige valg – på vegne av en selvkjørende bil som har mistet bremsene.

Parvis dukker mange scenarier opp, der noen i eller utenfor bilen må dø. Ved å klikke på ett scenario i hvert par, angir deltakerne hvem de mener bilen bør spare. Dyr eller mennesker? Unge eller gamle? Rike eller fattige? Flere mennesker eller færre?

Til nå er 40 millioner valg innsamlet, fra mennesker i over 200 land. Uavhengig av alder, kjønn og nasjonalitet, velger de aller fleste å spare menneskeliv framfor dyr, samt større grupper av mennesker framfor enkeltindivid. Men der stopper den universelle enigheten. 

   Les også: Henter industri hjem igjen 

Ulike svar i vest, øst og syd

For det går altså et skille mellom øst og vest, alt etter om innbyggerne vil spare barn eller gamle. Nærmere bestemt viser svarene fra de 130 nasjonene der over 100 personer har deltatt, at:

  • Folk i “Vesten” – Nord-Amerika og europeiske land, hvor kristendommen har vært den dominerende religionen – er mye mer tilbøyelige til å la de yngre leve enn tilfellet er i “Østen”. Det vil si i Japan, Indonesia, Pakistan og andre land der konfusianismen eller islam står sterkt. Her er respekten for de eldre stor.
  • En tredje gruppe finnes også: “Sydlige land”, det vil si Mellom- og Sør-Amerika, samt Frankrike og tidligere franske kolonier. Her er sannsynlighetene for det ene eller andre valget omlag like store.

   Les også: Vil gjøre kunstig intelligens forståelig for folk

Etiske retningslinjer for kunstig intelligens

Dette viser at intelligente roboter bør utvikles i tett samspill med samfunnsfagene. Spørsmålet om hvilken effekt kulturforskjeller har på algoritmer som utvikles og på hvilke testdata som brukes, fortjener nemlig mer oppmerksomhet enn det har fått til nå.

EU har lansert sju etiske retningslinjer for å oppnå pålitelig kunstig intelligens. “Ikke-diskriminering” og “rettferdighet” er to av dem. Men hvordan skal dette bli mer enn fagre ord?

I lys av dette spørsmålet er det underlig at mens ingen får bygge hus uten å følge regler og forskrifter, så stilles ingen krav til ikt-systemer. Alle kan “bygge” og selge slike.

Skal intelligente maskiner bli like tillitsvekkende som husene våre er, må også robotenes fødestuer underlegges et regelverk – deriblant på etikkområdet.

   Les også: Chatbots blir fortrolige venner og psykologer 

Artikkelen sto første gang i Dagens Næringsliv lørdag 5. oktober 2019 og gjengis her med DNs tillatelse.