Da en mand spurgte ChatGPT: "Hvem er Arve Hjalmar Holmen?", fik han et chokerende svar. Ifølge chatbotten havde han dræbt sine to sønner og sad i fængsel. Intet af det var sandt.
Det er et skræmmende eksempel på det, eksperter kalder "AI-hallucinationer". Det er, når kunstig intelligens finder på noget, der lyder troværdigt, men som er fuldstændig forkert. Sådanne fejl kan få alvorlige konsekvenser, både for enkeltpersoner, virksomheder og hele samfund.
Hvordan sker det, og hvad kan du gøre for at undgå det? Klik videre, og få svaret.