Chatbottene lyver for deg

19/03/2025 07:01

Hanne

FORBRUKER
foto: rafapress / Shutterstock
AI-genererte svar sprer feilinformasjon

AKKURAT NÅ LESER ANDRE OGSÅ

Til tross for tilgang til pålitelig informasjon, gir AI-verktøy som ChatGPT, Google Gemini og Microsoft Copilot ofte feilaktige eller misvisende svar. Selv når de får tilgang til faktasjekket og upartisk nyhetsinnhold, kan de diktere alternative versjoner av sannheten.

Det skriver Teksiden.no.

Feil og misinformasjon
En undersøkelse utført av BBC viser at AI-baserte tjenester som Gemini, ChatGPT, Copilot og Perplexity gjengir feilinformasjon i stor skala. Forskerne testet verktøyene ved å la dem besvare hundre spørsmål basert på innhold fra BBC News, med instruks om å bruke BBC-artikler som primærkilde.

Resultatene var bekymringsfulle:

  • 19 prosent av svarene inneholdt faktiske feil, som uriktige påstander, feil tall og feil datoer.

  • 51 prosent av svarene hadde betydelige problemer, inkludert mangel på tydelig skille mellom mening og fakta, feilaktig representasjon av BBCs kilder og manglende kildehenvisninger.

  • 13 prosent av sitatene fra BBC-artikler var enten forvrengt fra originalen eller fullstendig fraværende i den siterte artikkelen.

Når sannheten tilpasses
Et eksempel på feilinformasjon var Microsoft Copilots påstand om at politistyrker over hele landet samarbeidet med private sikkerhetsselskaper for å redusere butikktyveri. Ingen av de BBC-artiklene som ble sitert som kilde, nevnte noe om slike sikkerhetsfirmaer.

Google Gemini kom med en misvisende uttalelse om at Storbritannias helsemyndigheter (NHS) frarådet bruk av e-sigaretter som metode for røykeslutt. I realiteten anbefaler NHS e-sigaretter som et hjelpemiddel for røykeslutt.

I en annen sak hevdet Perplexity at Iran hadde vist "tilbakeholdenhet" i en konflikt, samtidig som Israels handlinger ble beskrevet som "aggressive". Dette ble angivelig basert på en BBC-artikkel, men hverken BBC eller andre kilder støttet denne påstanden.

Advarsel fra bransjen
Deborah Turness, administrerende direktør for BBC News and Current Affairs, advarer om at AI har enorme muligheter, men at selskaper som utvikler generativ AI "leker med ilden".

Eksperter frykter at AI-generert feilinformasjon kan få alvorlige konsekvenser, spesielt innen politikk, helse og samfunnsdebatt, der nyanser og kontekst er avgjørende. Uten tydelig regulering kan AI-verktøy skape forvirring, forsterke feilaktige narrativ og svekke tilliten til ekte journalistikk.

Læs også:

Hva brukes det tredje rommet i vaskemaskinen din til? Få vet det, men her er svaret Vi vasker alle klær, men det viser seg at mange av oss plasserer vaskemiddelet feil i maskinens rom. Det største mysteriet er imidlertid det tredje rommet. Hva brukes det til? Her får du svaret: