Åsikt: AI-hallucinationsepidemin, en kris vi inte är redo för

Image generated with DALL·E through ChatGPT

Åsikt: AI-hallucinationsepidemin, en kris vi inte är redo för

Lästid: 7 min

Trots löpande löften om att minska AI-hallucinationer, fortsätter stora AI-verktyg—från ChatGPT till Perplexity till Gemini och Apple Intelligence—att generera falsk information, ofta med alarmerande konsekvenser. Experter, inklusive de som varnar för AI-risker, har gått på fabricerat innehåll, och till och med avancerade verktyg som Deep Research hittar på rapporter. Sanningen verkar fortsatt ligga i mänskliga händer

Chatbottar har blivit bättre under åren—mycket bättre. Men det finns ett problem som inte riktigt lösts och det är känt som ”hallucinationer.”

Våra älskade chattrobotar delar lysande svar på våra frågor med beslutsamhet och auktoritet som en science fiction Yoda, även när de är fruktansvärt fel. Och vi tror på dem. Ibland blint.

Flera forskare, experter och till och med utvecklare av chattrobotar har varnat för hallucinationer i åratal. Ändå, trots att användningen har spridit sig snabbt—OpenAI rapporterade 400 miljoner aktiva användare varje vecka för bara några dagar sedan—har AI-kunnigheten inte hängt med.

Senaste studier, rättsfall och dramatiska händelser fortsätter att visa att desinformation är ännu farligare än vi inser.

Det är värre än vi tror

Till en början var det ganska roligt att upptäcka stora AI-genererade fel—som de pinsamma AI-översikterna genererade av Gemini som föreslog att användare lägger till ”icke-giftigt lim i såsen” till ett pizzarecept eller rekommenderade att äta ”en liten sten om dagen” förra året. Men, i takt med att vi återfår förtroendet för AI, har situationen trappats upp och blivit alltmer oroande.

I december såg vi Apples AI-verktyg skapa rubriker genom att ”sammanfatta” nyheter och generera falsk och vilseledande information, som exempelvis att felaktigt påstå att BBC hade meddelat att Luigi Mangione hade skjutit sig själv. Efter denna incident lämnade tidningen in en klagan mot Apple och började undersöka generativ AI:s noggrannhet vid analys av nyhetsinnehåll.

BBC:s resultat, som publicerades för bara några dagar sedan, avslöjade oroande statistik: 51% av svaren som tillhandahålls av populära AI-chatbotar innehöll betydande problem, 13% av citaten som modellerna genererade var helt påhittade, och 19% av datan var felaktig.

Tonåringar är bland de mest drabbade befolkningsgrupperna, eftersom de ofta har svårt att skilja på falska nyheter och riktiga nyheter, och kan lätt påverkas av AI-genererat innehåll. En studie som publicerades i januari visade att 35% av tonåringarna har blivit vilseledda av falskt innehåll genererat av AI-modeller, och 22% delade den falska informationen.

Men det är inte bara tonåringar och disträa människor som faller för dessa hallucinationer. Och det är inte bara Gemini eller Apple Intelligence.

Ingen AI-modell är skonad, ingen bransch är säker

Den forskning som utförts av BBC bekräftar ytterligare ett problem: alla AI-modeller hallucinerar. Experterna granskade de mest populära modellerna, ChatGPT, Gemini, Perplexity och Copilot. Ingen AI-modell är fri från fel. Anthropic har en sida som tar upp detta problem, med förslag på hur man kan minska hallucinationerna.

“Även de mest avancerade språkmodellerna, som Claude, kan ibland generera text som är faktafelaktig eller inkonsekvent med det givna sammanhanget,” framgår det av dokumentet. Andra AI-företag har delat liknande sidor med tips och tricks för att undvika falskt innehåll, men det är inte så lätt och det har varit ett olöst problem under ganska lång tid.

Tillbaka i 2023 meddelade OpenAI att de arbetade på nya innovativa sätt att bli av med hallucinationer. Spoiler alert: det är fortfarande ett stort problem idag.

I januari 2024—för över ett år sedan—sade VD:n Aravind Srinivas att Perplexitys hallucinationer främst inträffade på obetalda konton. ”De flesta klagomålen kommer från den gratisversionen av produkten,” förklarade Srinivas, och tillade att de redan var på väg att ta in fler GPUs för att lösa problemet. Men i oktober hade New York Post och Dow Jones lämnat in en stämningsansökan mot Perplexity—eftersom deras modell fortsatte att tillskriva dem falska nyheter—, och AI-verktyget som startup-företaget utvecklat för det amerikanska valet var testat av experter som avslöjade inkonsekvenser, felaktiga sammanfattningar och hallucinationer.

Hallucinationssjukdomen når vetenskapliga och akademiska nivåer

En av de största oro just nu är att till och med experter – inklusive de som varnar för riskerna och farorna med AI – har fallit för dessa hallucinationsbenägna verktyg.

I december anklagades Stanford-professorn och experten på teknik och desinformation Jeff Hancock för att ha använt AI för att formulera ett rättsligt uttalande. Hancock lämnade in en 12-sidig förklaring till försvar för delstatens lag 2023 som kriminaliserar användningen av deepfakes, inklusive 15 citat. Men två av dessa citat kunde inte hittas någonstans – eftersom ChatGPT, desinformations-expertens föredragna AI-verktyg, helt enkelt hade hittat på dem.

Hancock—som är schemalagd att undervisa i “Sanning, Tillit och Teknik” i år—förklarade att han använde OpenAI:s chattbot för att organisera sina citat, vilket ledde till hallucinationerna. Forskaren bad om ursäkt—och stod fast vid de substantiella punkterna i sitt uttalande—, och lärde oss alla den värdefulla läxan att till och med experter och de mest kunniga inom AI-risker är mottagliga för det.

Professor Hancock har inte varit den enda att lämna in dokument innehållande AI-genererade påhitt i domstol, naturligtvis. Ett annat fall som involverade en stämning mot Walmart blev nyligen viral eftersom advokaterna använde falska fall genererade av AI för att bygga upp sitt argument. Faktum är att, problemet har blivit så frekvent i de amerikanska domstolarna att advokatfirman Morgan & Morgan nyligen skickade e-postmeddelanden till sina över 1 000 advokater, varnade dem för riskerna med AI-genererade citat, och American Bar Association påminde sina 400 000 medlemmar om advokatetiska regler—inklusive AI-genererad information.

Djupgående Forskning Också

Ett av de mest populära AI-verktygen just nu är ”Deep Research”, utformat för experter och forskare som söker mer komplexa resultat i sin forskning. Hallucinationer saknas heller inte från detta verktyg, trots att OpenAI:s version från början krävde en $200 Pro-prenumeration för åtkomst.

Användare på Reddit har uttryckt oro angående denna fråga, och rapporterar att alla de populära modellerna som innefattar djupforskningsverktyg—Perplexity, ChatGPT, och DeepSeek—har hallucinerat. Forskare och AI-experter har också delat oroande resultat på andra sociala medieplattformar som X.

”Verktyget producerade en vackert skriven och välgjord rapport”, skrev en användare som använde OpenAIs Deep Research-verktyg för att studera matematik utförd av unga människor. ”Det enda problemet är att allt är påhittat.”

“Deep Research hittade på en massa statistik och analyser, samtidigt som de påstod sig sammanställa en databas med tusentals artiklar, och påstås samla in födelseår för varje författare från trovärdiga källor”, delade en annan. ”Inget av detta är sant.”

Sanningen ligger fortfarande i mänskliga händer

Kommer chatbotar någonsin sluta hallucinera? AI:s svaga punkt har varit uppenbar i flera år – vi såg det i podcasts som Planet Money när de testade AI-genererade episoder 2023 , och vi fortsätter att se det i de mest avancerade modellerna, även de som är designade för exklusiv användning av expert- och teknikintresserade samhällen.

Kanske är det dags att acceptera att detta kommer att förbli ett problem och förstå att vi måste ta ansvar för vad vi skapar och delar med hjälp av AI-verktyg.

Det faktum att även om det verkar som ett välkänt problem, men AI-riskexperter själva faller för AI:s övertygande och övertygande skrivande är definitivt oroväckande. Situationen blir ännu mer komplex när införandet fortsätter att accelerera i full fart, överträffar digital läskunnighet, samtidigt som inkonsekvenser och fabricerade citat multipliceras.

Fall där AI-hallucinationer har avslöjats tenderar att vara de där faktagranskning är avgörande – något Zuckerberg borde påminnas om nu när han har eliminerat sin avdelning för faktagranskning. Detta är särskilt tydligt i rättssalar, där advokater och domare arbetar för att verifiera fakta och fall, och i nyhetsmedia, där noggrannhet och källvalidering spelar roll.

Men vad händer i fall där ingen granskar dessa detaljer? Vad händer i vardagliga, mer personliga sammanhang? Just nu memorerar miljontals studenter AI-genererade svar för sina studier, användare följer AI-tillhandahållna instruktioner för att behandla åkommor och andra lär sig om nya ämnen, fullt ut lita på tekniken.

Konsekvenserna av denna nya verklighet vi står inför är omätbara och oförutsägbara, och sanningen – för nu – ligger i händerna på dem som tar sig tid att ifrågasätta och verifiera.

Var den här artikeln hjälpsam?
Betygsätt den!
Riktigt usel Halvdålig Helt ok Riktigt bra! Älskade den!

Vad kul att du gillar vårt arbete!

Skulle du, som vår uppskattade läsare, vilja uppmärksamma oss på Trustpilot? Det går snabbt och betyder jättemycket för oss. Tack för att du är så fantastisk!

Betygsätt oss på Trustpilot
0 Betygsatt av 0 användare
Titel
Kommentera
Tack för din feedback
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Lämna en kommentar

Loader
Loader Visa mer...