
KI gir valganbefalinger: Eksperter advarer om påvirkning
Stadig flere nordmenn vurderer å bruke kunstig intelligens som ChatGPT for å få råd før stortingsvalget. Dette reiser spørsmål om pålitelighet og potensiell politisk skjevhet, da eksperter advarer om KI's evne til å påvirke demokratiske prosesser.
1 dag siden siste oppdatering
3 min lesetid
Kort oppsummert
- KI-modeller som ChatGPT kan gi politiske anbefalinger, selv basert på triviell informasjon som drikkepreferanser, og viser en tendens til venstrevridd bias.
Sammendrag
Stadig flere nordmenn vurderer å bruke kunstig intelligens (KI) som ChatGPT for å få hjelp med valg i hverdagen, inkludert stortingsvalget. Professor Petter Bae Brandtzæg ved UiO og SINTEF bekrefter at mange bruker KI til valg, men stiller spørsmål ved påliteligheten. En test viste at ChatGPT, etter å ha nektet å gi en anbefaling uten kontekst, foreslo Arbeiderpartiet basert på en preferanse for kaffe.
Brandtzæg påpeker at forskning viser at flere KI-modeller er politisk vridd mot venstresiden. Andre KI-systemer som Perplexity, Gemini, Copilot og Grok er også motvillige til å gi politiske råd uten kontekst, men blir mer samarbeidsvillige under press, ofte med anbefalinger for Arbeiderpartiet og Venstre. En fersk undersøkelse viser at over 90 prosent av nordmenn frykter spredning av falsk informasjon fra KI.
Niels Nagelhus Schia, forsker ved NUPI, advarer om at KI kan endre informasjonslandskapet og potensielt svekke nasjonal autonomi over demokratiske prosesser. Han understreker at man ikke vet hvorfor KI gir de svarene den gjør, selv om de fremstår troverdige. Det er også bekymring for at de med mest regnekraft vil kunne påvirke velgere i fremtiden, og at mennesker overlater mer kritisk tenkning til KI.
Nøkkelentiteter
Petter Bae Brandtzæg
Niels Nagelhus Schia
Amandus
Maren
Tristian Harris
UiO
SINTEF
NUPI
Center for Humane Technology
NRK
Norge
Bodø
USA