KI kan avsløre "fake news"
Flere enn noen gang skal stemme demokratisk i år. Men hvilken informasjon kan folk stole på? Foto: Shutterstock

Vil avsløre «fake news» med kunstig intelligens

Kunstig intelligens gjør det lettere å lage og spre villedende informasjon på nettet. Løsningen? Mer kunstig intelligens.

Nesten halvparten av verdens befolkning skal innom valgurnene i 2024. Det er første gang i historien så mange mennesker fra så mange land stemmer – samme år.

Til tross for at det på mange måter er et merkeår for demokratiet, er det også en viss bekymring i forbindelse med det store valgåret.

Det handler spesielt om den drastiske økningen av desinformasjonBevisst spredning av feilaktig og villedende informasjon vi har sett den siste tiden, forteller førsteamanuensis ved NTNU i Gjøvik, Muhammad Mudassar Yamin.

Bildet viser Muhammad Mudassar Yamin

Muhammad Mudassar Yamin. Foto: Privat

–  Vi har allerede mange eksempler på hva falske nyheter om politisk betente saker kan føre til. Han viser blant annet til opptøyene som oppsto i kjølvannet av knivdrapene i England i sommer. Da skal usann informasjon om gjerningspersonen med hensikt ha blitt spredt på sosiale medier.

KI diskuterer med deg i kommentarfeltet

Bevisst spredning av feil og villedende informasjon er på ingen måte et nytt fenomen. Men det var først med presidentvalget i USA i 2016 at begrepet «fake news» for alvor fikk fotfeste.

Siden den gang har generativ kunstig intelligens“Kunstig kommet på banen og gjort jobben med å lage og spre falske nyheter i stor skala enklere enn noensinne.

Modellen klarte å klassifisere falske nyheter med over 97 prosent treffsikkerhet.

Det har blant annet ført til at World Economic Forum tidligere i år løftet desinformasjon fram som en av de aller største risikoene verden står overfor i sin globale risikorapport.

Flere studier antyder dessuten at villedende innhold får mer oppmerksomhet på sosiale medier enn sannferdig nyhetsstoff. Og det er ikke bare falske nyhetssaker og innlegg som spres i stor stil, ifølge Yamin.

– Kunstig intelligens er nå også trent opp til å samhandle med leserne, for eksempel til å svare på kommentarer og delta i diskusjoner i sosiale medier.

Over 97 prosent treffsikkerhet

Yamin har – sammen med stipendiat Ehtesham Hashmi og andre kollegaer ved NTNU i Gjøvik – utviklet en ny modell som skal avsløre falske nyheter.

Modellen bygger på ulike maskinlærings- og dyplæringsteknikkerMaskinlæring: Statistiske metoder som tillater datamaskiner å finne mønstre i store datamengder. Dyplæring: En underkategori av maskinlæring som går ut på å gjøre datamaskiner i stand til å lære seg ting de i utgangspunktet ikke vet eller kan fra før. som fanger opp ord og språklige mønstre som kjennetegner desinformasjon.

Modellen har så langt fått bryne seg på tre store datasett med til sammen over 100 000 nyhetsartikler. Her klarte den å klassifisere falske nyheter med over 97 prosent treffsikkerhet.

Ehtesham Hashmi

Ehtesham Hashmi. Foto: Privat

– Modellen er trent opp på et stort og tematisk variert datagrunnlag som spenner fra politikk til kjendisnyheter. Det er viktig blant annet for å unngå skjevheter. Hadde vi utelukkende trent modellen opp på én type data, ville den kanskje prestert fint på lignende stoff, men hatt store vanskeligheter når den ble stilt overfor andre saker, sier Hashmi.

– Det varierte datagrunnlaget gjør også modellen bedre rustet til å håndtere språklige endringer og nye sammenhenger.

At språket er i stadig endring er noe begrepet «fake news» i seg selv er et eksempel på:

– Det var ingen som snakket om «fake news» for 20–30 år siden. Nå kjenner alle begrepet. Slik er det også med språket for øvrig – det er i stadig forandring. Da må verktøy som skal oppdage falske nyheter være i stand til å tilpasse seg det, sier NTNU-forskeren.

Gjennomsiktighet skaper tillit

Selv om det allerede finnes lovende modeller basert på dyplæring, fungerer disse i stor grad som «svarte bokser», forklarer forskerne. Det vil si at brukerne ikke har innsikt i hvordan verktøyene virker. Man vet hvilke data de blir matet med og hvordan de klassifisere den, men prosessen som ligger til grunn for avgjørelsen er ikke tilgjengelig.

Forskerne ønsker i tillegg å gjøre verktøyet deres i stand til å vurdere andre elementer enn bare tekst. 

– Samtidig som KI-verktøyene blir mer avanserte og vanskeligere å forstå, øker fokuset på at KI skal holde et visst nivå av ansvarlighet. Vi har derfor i prosjektet MR PET sørget for at modellen vår er gjennomsiktig og viser brukerne hvilke elementer den baserer avgjørelsen sin på.

– I tillegg til å vekke tillit hos brukerne, kan det også gi oss innsikter som kan bidra til å gjøre modellen enda mer effektiv, forklarer Hashmi.

Skal utvides

Modellen er tett opp mot 100 prosent treffsikker og har langt på vei å ha løst problemene knyttet til gjennomsiktighet. Likevel mener forskerne at modellen deres fremdeles kan forbedres.

Det er hovedsakelig to ting de jobber med nå. Det ene er å gjøre modellen bedre til å oppdage falskt innhold på andre språk enn engelsk.

– Store engelskspråklige datagrunnlag til å trene opp algoritmer med, er lett tilgjengelig. Det er derfor et naturlig sted å begynne. Men det er også viktig at de kan fungere effektivt på mindre språk, som for eksempel norsk, sier Hashmi.

Forskerne ønsker i tillegg å gjøre verktøyet deres i stand til å vurdere andre elementer enn bare tekst. – For også bilder kan bidra til å avsløre falske nyheter.

Stemmer for eksempel innholdet på bildene overens med teksten? Kan vi være sikre på at de ble tatt i den sammenhengen det påstås? Eller kan det være snakk om misbruk av gammelt materiale?

Å kunne gi svar på slike og lignende spørsmål vil være helt avgjørende i kampen mot den stadig økende strømmen av realistisk desinformasjon som finner veien inn i nyhetsfeeden vår, mener forskerne.

Referanser:
Hashmi, S. Y. Yayilgan, M. M. Yamin, S. Ali and M. Abomhara, “Advancing Fake News Detection: Hybrid Deep Learning With FastText and Explainable AI,” in IEEE Access, vol. 12, pp. 44462-44480, 2024, doi: 10.1109/ACCESS.2024.3381038