Åsikt: Är ChatGPT din vän? Det kanske är dags att sätta gränser

Photo by Rafiee Artist on Unsplash

Åsikt: Är ChatGPT din vän? Det kanske är dags att sätta gränser

Lästid: 6 min

OpenAI och MIT har nyligen publicerat en artikel om effekterna av ChatGPT på människors välbefinnande. Medan de flesta användare förlitar sig på teknologin för praktiska uppgifter, avslöjar studien att en liten grupp har utvecklat djupa känslomässiga band till AI-modellen som kan påverka deras välbefinnande

Jag har under en tid med nyfikenhet observerat de relationer som vissa människor utvecklar med generativ artificiell intelligens. För några månader sedan läste jag i The New York Times historien om en 28-årig gift kvinna som blev kär i ChatGPT, och hur det som började som ”ett roligt experiment” utvecklades till en komplex och oväntad relation.

Jag har observerat mina vänner, särskilt de som en gång avvisade teknik eller inte var intresserade av det, som inte kan fatta ett stort beslut utan att rådfråga sin AI-orakel. Jag har också överraskats av de empatiska svar AI-modeller ger på emotionellt eller psykologiskt laddade frågor.

Och, självklart, har jag skrattat åt skämten, memerna och TikTok-videorna av människors inlägg på sociala medier som visar hur de har blivit beroende av chattboten, vissa kallar till och med den för deras ”bästa vän” eller ”terapeut” – och till och med rekommenderar allvarligt andra att göra detsamma.

Men, om vi lägger roliga upplevelser och skämt åt sidan för en stund, kan vi kanske inse att vi står inför ett oroande fenomen globalt.

Denna månad, för första gången i den korta historien om artificiell intelligens, släppte OpenAI och MIT Media Lab en studie som ger insikter om hur ChatGPT just nu påverkar människors emotionella välbefinnande, samt förslag på de risker vi kan ställas inför som samhälle: ensamhet, emotionellt beroende och mindre sociala interaktioner med verkliga människor.

En relation som utvecklas

Det första tillvägagångssättet till de nya generativa artificiella intelligens teknologierna börjar ofta med några försiktiga frågor, kanske tekniska sådana om praktiska uppgifter som att skapa ett e-postmeddelande eller förfrågningar om att förklara komplexa ämnen, eller bara för brainstorming.

Men, när en användare börjar testa chatbotens kapabiliteter, upptäcker de att dessa kan vara mer omfattande och komplexa än förväntat.

Medan vissa AI-produkter som Friend—en bärbar AI-enhet—har designats och mycket klumpigt marknadsförts som en användares livskamrat, har ChatGPT reklamerats som ett produktivitetsverktyg. Ändå använder en procentandel av människor chatboten för personliga och emotionella ärenden och utvecklar starka band med den.

video-thumb
Play

Även om de bara är en ”liten grupp”, som OpenAI förtydligade, så kan de fortfarande representera miljontals människor över hela världen, särskilt med tanke på att nu över 400 miljoner människor använder ChatGPT varje vecka. Dessa användare märker snabbt att OpenAI’s chatbot härmar deras språk, ton och stil och kan till och med tränas för att interagera på ett visst sätt eller använda smeknamn – som den kvinna som blev kär i den gjorde – och till och med ”låta” mer mänsklig.

”Deras konversationsstil, användning av första person och förmåga att simulera mänskliga interaktioner har lett till att användare ibland personifierar och antropomorfiserar dessa system”, säger dokumentet som delats av OpenAI.

Men denna närhet innebär risker, som forskarna påpekade: ”Även om en känslomässigt engagerande chattbot kan erbjuda stöd och sällskap, finns det en risk att den kan manipulera användarnas socioaffektiva behov på sätt som underminerar deras välmående på längre sikt.”

Studiens metodik

Den nyligen publicerade undersökningen fokuserar på människors välmående efter konsekvent användning av ChatGPT. För att förstå den emotionella och sociala påverkan av chattboten, genomförde forskarna två huvudstudier med olika strategier.

OpenAI bearbetade och analyserade över 40 miljoner interaktioner med respekt för användarnas integritet genom att använda klassificerare och undersökte över 4 000 av dem om hur interaktionerna fick dem att känna sig.

MIT Media Lab genomförde en prövning med nästan 1 000 människor under en månad, med fokus på de psykosociala konsekvenserna av att använda ChatGPT i minst 5 minuter om dagen. De skickade in och bearbetade även frågeformulär i slutet av experimentet.

Förvånansvärt nog visade resultaten att användare som spenderar mer tid med tekniken upplever mer ensamhet och visar fler tecken på isolering.

Komplexa Konsekvenser och Flera Ramifikationer

MIT Media Lab och OpenAI:s studie erbjöd också flera reflektioner över hur komplexa och unika mänskligt-chatbot-relationer kan vara.

I forskningen ger författarna oss en inblick i de olika erfarenheterna och sätten varje användare interagerar med ChatGPT – och hur resultatet kan variera beroende på olika faktorer, som användning av avancerade röstfunktioner, text-endast-läge, rösttyp, användningsfrekvens, samtalsämnen, det språk som används och den tid som spenderas på appen.

“Vi avråder från att generalisera resultaten eftersom det kan dölja de nyanserade rön som framhäver de icke-uniforma, komplexa interaktionerna mellan människor och AI-system”, varnar OpenAI i sitt officiella meddelande.

Alla de olika strategier varje användare väljer resulterar i olika resultat och dränker oss i gråzoner som är svåra att undersöka.

Det är fjärilseffekten i AI!

Fler frågor uppstår

Pappret som delades av OpenAI noterar också att tunga användare sa att de skulle bli ”upprörda” om deras chatbots röst eller personlighet ändrades.

Detta påminde mig om en video jag nyligen såg på sociala medier av en kille som sa att han föredrog en kvinnlig röst och att han pratade med den generativa AI:n varje dag. Kunde ChatGPT också hjälpa män att öppna upp sig emotionellt? Vad skulle hända om en dag ChatGPT talade till honom med en manlig röst? Skulle han känna sig sviken? Skulle han sluta använda ChatGPT? Utvecklade han en romantisk koppling – eller helt enkelt ett förtroenderum? Naturligtvis är det svårt att inte omedelbart relatera dessa scenarier till Spike Jonzes film Her.

Varje ChatGPT-konto, tillsammans med dess historiska chattar—varje dag mer intimt och privat än någon WhatsApp-profil eller sociala medier DMs—representerar ett unikt förhållande med otaliga resultat och konsekvenser.

Det förväntade resultatet

Alla studier analyserade olika aspekter, men kom till en liknande slutsats, kortfattat förklarat i MIT Technology Review: “Deltagare som litar på och ‘bundit’ med ChatGPT mer var sannolikt ensammare än andra, och förlitade sig mer på det.

Även om utredningen inte inriktade sig på lösningar eller djupare förklaringar till varför detta händer eller hur det kan utvecklas, verkar det troligt att fler användare kommer att ansluta sig till OpenAI och andra AI-plattformar, särskilt nu när AI-verktyget för bildgenerering blev viralt.

Även om slutsatserna från MIT och OpenAI:s forskning inte är särskilt överraskande, ger studien en vetenskaplig bakgrund med bevis, mätningar, prover och mer ‘påtagliga’ metoder som kan bana väg för ytterligare forskning och hjälpa till att ta itu med konsekvenserna av att använda artificiell intelligens idag.

Vi fick också en officiell varning—från dess egna utvecklare—om de band vi bygger med ChatGPT och en inbjudan att fastställa gränser och reflektera över våra interaktioner och nuvarande relationer—eller situationer?—med chatbots.

Var den här artikeln hjälpsam?
Betygsätt den!
Riktigt usel Halvdålig Helt ok Riktigt bra! Älskade den!

Vad kul att du gillar vårt arbete!

Skulle du, som vår uppskattade läsare, vilja uppmärksamma oss på Trustpilot? Det går snabbt och betyder jättemycket för oss. Tack för att du är så fantastisk!

Betygsätt oss på Trustpilot
0 Betygsatt av 0 användare
Titel
Kommentera
Tack för din feedback
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Lämna en kommentar

Loader
Loader Visa mer...