KI. Bilde viser en finger som er i ferd med å slette ChatGPT.
Du kan enkelt bytte ut ChatGPT med noe annet. Foto: Steinar Brandslet, NTNU

Velg bort KI-verstinger. Gjør det nå

Med de siste dagenes hendelser er det tid for forbrukermakt for å påvirke KI-gigantene. Bytt ut ChatGPT med Claude, og velg bort Copilot fra Microsofts programmer.

Kronikker gir uttrykk for skribentenes meninger.

At noe er vanskelig har aldri vært et godt argument for å la være. Det gjelder ikke bare for enkeltpersoner, men også for teknologigiganter.

Nylig skjedde noe de fleste nordmenn ikke har fått med seg. Anthropic, et av verdens ledende KI-selskaper, ble utestengt fra et samarbeid med det amerikanske forsvarsdepartementet. Ikke fordi de hadde gjort noe galt, men fordi de nektet å fire på sine egne sikkerhetskrav.

Gitt teknologiens sikkerhetsutfordringer, hadde Anthropic bygget inn tekniske sperrer mot bruk av KI til autonome våpen og masseovervåking av amerikanske borgere. Forsvarsdepartementet svarte med å gi dem en frist: åpne KI-systemene for all bruk, eller miste kontrakten. Anthropic sa nei. De mistet en kontrakt verdt 200 millioner dollar.

Enn så lenge står Anthropic på sitt, men de er tilbake ved forhandlingsbordet med Pentagon. Det er ikke avgjort hva de vil akseptere.

Selv om Anthropic kom tilbake ved forhandlingsbordet, er dette verdt å dvele ved et øyeblikk, for det er sjelden vare at en KI-gigant er villig til å ofre markedsandeler for å stå ved sine prinsipper.

Bare timer senere inngikk OpenAI, selskapet bak ChatGPT, en avtale om å ta over for Anthropic, og stille sin KI-teknologi til fri disposisjon for amerikansk militær bruk.

Ansvarlig utvikling kommer i andre rekke fordi konkurransen er brutal.

Flere teknologigiganter har fjernet egne løfter mot militærbruk. Og da Trump tiltrådte, fjernet han på sin første dag det føderale rammeverket som skulle sikre ansvarlig KI-utvikling.

Hos flere mektige selskaper har etiske retningslinjer som skulle sikre en trygg utvikling, vist seg å være markedsføring. Ansvarlig utvikling kommer i andre rekke fordi konkurransen er brutal, kapitalen er utålmodig, og nå også etter press fra de mektige amerikanske politiske kreftene. Resultatet er at sikkerhetsmekanismer forsvinner i lukkede forhandlinger.

Det som gjør historien enda mer ubehagelig er hva som skjedde da USA angrep Iran. Timer etter at Trump kunngjorde forbudet mot Anthropic, ble Claude likevel brukt i angrepet, integrert i Palantirs Maven Smart System, som hjalp det amerikanske militæret med å identifisere og prioritere nesten tusen mål i løpet av de første 24 timene.

Ifølge Washington Post var militæret så avhengig av teknologien at selv om Anthropics egen leder hadde bedt dem slutte å bruke den, ville regjeringen ha brukt juridiske fullmakter for å beholde tilgangen. Anthropic hadde ikke lenger noe valg. Det er vanskelig å sette grenser for noe som allerede er integrert.

Men historien handler ikke bare om amerikanske teknologiselskaper.

Nylig brukte Politihøgskolen KI-verktøyet Copilot til å lage saksgrunnlaget for en personalpolitisk beslutning. Dokumentet oppsummerte angivelig praksis ved sju norske universiteter og høgskoler. Da en ansatterepresentant sjekket tallene, stemte de ikke. Copilot hadde ikke funnet informasjonen, den hadde gjettet. Poenget er ikke at dette er pinlig og skulle vært unngått, men at det er del av en større fortelling.

Copilot er Microsofts KI-assistent. Den er bygget på OpenAIs teknologi. Den samme teknologien som denne uken ble del av amerikansk militærinfrastruktur. Det er ikke to uavhengige historier.

Copilot brukes i dag av norske bedrifter, kommuner, offentlige etater, sykehus og skoler, ofte uten videre føringer enn at brukeren må ta ansvar, og nesten alltid uten at brukerne vet særlig mye om teknologien og hvem som kontrollerer den.

Så hva kan du gjøre? Mer enn du tror.

Det enkleste du kan gjøre i dag er å bytte fra ChatGPT til en annen KI leverandør. Om flere bytter til Claude, sender det et signal til markedet om at prinsippfast motstand har verdi, og gir Anthropic mer ryggdekning i forhandlingene. Det tar to minutter.

Poenget er å følge med, velge bevisst, og være villig til å skifte igjen.

Anthropic viste at noen grenser ikke er til salgs, i alle fall per i dag. Å velge Claude fremfor ChatGPT er en enkel måte å støtte beslutningen gjennom forbrukermakt. Det betyr ikke at Anthropic har full kontroll over hvordan Claude brukes, det har ingen teknologiselskaper når systemene først er integrert i kritisk infrastruktur. Men det er forskjell på selskaper som prøver å sette grenser og de som ikke gjør det.

Om seks måneder er det kanskje Claude du sletter, ikke ChatGPT. Poenget er ikke å finne den perfekte leverandøren en gang for alle. Poenget er å følge med, velge bevisst, og være villig til å skifte igjen.

For de som vil ha et europeisk alternativ helt utenfor amerikansk geopolitikk, finnes Mistral, et fransk KI-selskap med åpne modeller og uten tilsvarende press fra Washington.

I Word, Excel og PowerPoint kan du slå Copilot av under Fil > Alternativer > Copilot.

Copilot på jobb er vanskeligere å komme seg ut av, men ikke umulig. I Word, Excel og PowerPoint kan du slå det av under Fil > Alternativer > Copilot. Personlige abonnenter kan nedgradere til Microsoft 365 Classic, som ikke inkluderer Copilot.

Har du Microsoft 365 gjennom jobben, kan IT-avdelingen din skru den av sentralt. Det er verdt å spørre.

Denne kronikken ble første gang publisert i Dagens Næringsliv 6. mars 2026.