Åsikt: Deepfake-bedrägerier utnyttjar kärlek och förtroende som aldrig förr

Image generated with DALL·E through ChatGPT

Åsikt: Deepfake-bedrägerier utnyttjar kärlek och förtroende som aldrig förr

Lästid: 7 min

AI-drivna bedrägerier ökar, med cyberbrottslingar som använder deepfake-teknologi för att skapa övertygande videor och bilder som manipulerar offren. Från en fransk kvinna som trodde att hon hjälpte Brad Pitt till ett offer övertygat av en högkvalitativ deepfake, suddas linjerna mellan verklighet och bedrägeri ut. I takt med att AI-verktygen utvecklas, ökar även riskerna.

Många av oss såg det i nyheterna i januari: en fransk kvinna förlorade över 850 000 dollar till bedragare eftersom hon trodde att hon gav pengarna till Brad Pitt – mannen som hon trodde att hon hade varit i ett förhållande med i över ett år.

Bedragarna använde avancerad generativ artificiell intelligens för att skapa ”selfies” och fabricera bevis, och övertygade sitt offer, Anne – en 53-årig designer som genomgår en skilsmässa – om den tragiska historien om en falsk Pitt med akuta medicinska behov. De påstod att hans medel var frysta på grund av hans skilsmässa från Angelina Jolie.

Anne tog det modiga – och riskfyllda – beslutet att dela sin historia offentligt, trots att hon utsattes för miljontals hån, förolämpningar och virtuella angrepp. ”Som en dåre betalade jag… Varje gång jag tvivlade på honom lyckades han skingra mina tvivel,” sa hon i en fransk Youtube-show, som rapporterats av BBC. ”Jag blev bara lurad, jag erkänner det, och det är därför jag gick fram, för jag är inte den enda.”

Hon är inte det. Några månader senare arresterade den spanska polisen 5 personer som lurade två andra kvinnor genom att utge sig för att vara Pitt också. För några dagar sedan blev även en kinesisk man lurad att tro att hans onlineflickvän behövde pengar till medicinska ingrepp och för att finansiera hennes företag.

Offren fick personliga videor och fotografier—bilder som inte fanns tillgängliga någon annanstans online—vilket ytterligare övertygade dem om sina bedragares avancerade lögner.

En nyligen rapport från Entrust antyder att Deepfake-försök sker var 5:e minut. Nya fall av människor som blivit lurade med generativ AI dyker upp varje dag – en oroande trend, särskilt med tanke på de tusentals, eller till och med miljoner, människor som begravts i skuld och skam som inte vågar rapportera det till myndigheterna, än mindre göra det offentligt.

DeepFake-bedrägerier på uppgång

Flera studier och rapporter har larmat om den ökande bedrägeriverksamheten och cyberattackerna som drivs av AI. Nyligen data från TrustPair’s 2025 Fraud Trends and Insights visade en ökning på 118% jämfört med föregående år i AI-driven bedrägeriverksamhet, som rapporterats av CFO.

Hej, Hiya, ett amerikanskt företag specialiserat på röstsäkerhet och prestandalösningar, delade nyligen resultaten av en undersökning, som avslöjade att 31% av kunderna i sex länder fick deepfake-samtal 2024, och 45% av dem lurades – 34% av den gruppen förlorade pengar och 32% fick personlig information stulen. I genomsnitt förlorar offren över $500 var till telefonbedrägerier.

För några dagar sedan avslöjade The Guardian att ett organiserat nätverk i Georgien – i Östeuropa – använde falska annonser på Facebook och Google för att lura över 6,000 människor över hela Europa, Kanada och Storbritannien, och tjänade $35 miljoner på sina operationer.

Ungefär 85 välavlönade georgiska bedragare använde offentliga personer såsom den engelska journalisten Martin Lewis, författaren och äventyraren Ben Fogle, och Elon Musk för sina bedrägerier. Bedragarna marknadsförde falska kryptovalutor och andra investeringsscheman, vilket fick offren att överföra pengar genom digitala banker som Revolut – vilket nyligen fick en banklicens i Storbritannien.

Avancerad AI, mer sofistikerade bedrägerier

Cyberkriminella har använt generativ AI under de senaste åren, med hjälp av verktyg som ChatGPT för att skapa och översätta engagerande e-postmeddelanden och skapa övertygande textbaserat innehåll. Nu, när AI-verktygen utvecklas, har användningen av AI-genererade bilder och videor ökat.

För några veckor sedan, introducerade ByteDance sitt senaste AI-videoverktyg, OmniHuman-1, som kan generera en av de mest realistiska deepfakes på marknaden. Under tiden utvecklar fler AI-företag liknande teknik. Det verkar bara vara en tidsfråga innan dessa verktyg också används för bedrägerier.

Även om dessa tekniker kan användas ”i god tro” och till och med för att motverka ökningen av bedrägerier – som O2:s AI ‘mormor’ Daisy, designad för att engagera bedragare i realtidssamtal och distrahera dem från verkliga offer – verkar konsekvenserna av deras illvilliga användning obegränsade.

På Wizcase rapporterade vi nyligen om en 614% ökning av ”Scam-Yourself attacker”, där vi noterade hur hackare använder deepfake-teknik för att göra falskt innehåll ”mer realistiskt”, och hur sociala medieföretag som Meta har varit tvungna att ingripa mot gris-slakt-bluffar eftersom många hotaktörer använder dessa plattformar. I undersökningen noterade Meta att många bluffar startade på dejtingappar, vilket bevisar hur romantisk kärlek är en av de vanligaste betena – nu och historiskt sett.

Kärlek: Ett kraftfullt bete

Cyberkriminella är inte bara skickliga på att förstå och använda avancerad artificiell intelligens – de har också en djup förståelse för mänsklig intelligens. Hotaktörer vet hur man identifierar sårbarheter, bygger förtroende och gör sina förfrågningar vid precis rätt ögonblick.

Studien ”Do You Love Me? Psychological Characteristics of Romance Scam Victims”, publicerad 2018 av PhD Monica T. Whitty, förklarar hur internationella brottsliga grupper har utfört dejtingbedrägerier i många år—även före internet—, och hur medelålders, välutbildade kvinnor är benägna att falla för denna typ av bedrägeri—precis som Anne.

Vad kan vi förvänta oss nu, åtta år efter denna studie, med teknologi som verkar hämtad från en science fiction-roman? Förmodligen är vi alla mer sårbara än vi tror.

”Offer för denna typ av bedrägeri är ofta personer som söker efter mening, som är känslomässigt sårbara,” skrev Annie Lecompte, biträdande professor vid Université du Québec à Montréal (UQAM), i en nyligen publicerad artikel i The Conversation. ”Även om det hånas och missförstås, bygger romantiskt bedrägeri på komplexa psykologiska mekanismer som utnyttjar offrens tillit, känslor och sårbarhet.”

Ett krossat hjärta, en tom plånbok

Liu – efternamnet på den kinesiska man som nyligen förlorade 200 000 yuan, cirka $28 000, i en AI-drivet bluff – trodde verkligen att hans AI-flickvän var verklig, eftersom han såg personliga foton och till och med videor. Han byggde upp en allt starkare känslomässig koppling… till sina bedragare.

Även om han inte gav mer detaljer om sammanhanget i rapporterna, gjorde det ett annat offer, 77-åriga kvinnan Nikki MacLeod. Hon trodde också att hon var i ett riktigt förhållande med en AI-flickvän och skickade henne £17,000 – ungefär $22,000 – genom banköverföringar, PayPal och presentkort.

”Jag är inte en dum person men hon lyckades övertyga mig om att hon var en riktig person och att vi skulle tillbringa våra liv tillsammans,” sa MacLeod till BBC.

MacLeod kände sig ensam och ledsen när hon träffade Alla Morgan i en gruppchatt. Efter ett tag bad MacLeod om en livevideo, men Morgan sa att det inte var möjligt eftersom hon arbetade på en oljerigg. När MacLeod började misstänka, började Morgan skicka realistiska videor. ”Hon skickade mig en video för att säga ‘Hej Nikki, jag är inte en bedragare, jag är på min oljerigg’, och jag blev helt övertygad av det,” förklarade MacLeod. Innehållet finns tillgängligt på BBC:s webbplats, och det är lätt att se varför MacLeod trodde att det var verkligt – det är en högkvalitativ deepfake.

BBC bad en expert inom cybersäkerhet och mänsklig-datorinteraktion vid Abertay University, Dr. Lynsay Shepherd, att analysera de bilder och videor som MacLeod mottog. ”Vid första anblicken ser det legitimt ut, om du inte vet vad du ska leta efter, men om du tittar på ögonen – ögonrörelserna är inte riktigt rätt,” sa Dr. Shepherd.

”Dokumenten såg äkta ut, videorna såg äkta ut, banken såg äkta ut,” sade MacLeod. ”Med introduktionen av artificiell intelligens kan varje enskild sak vara falsk.”

Var den här artikeln hjälpsam?
Betygsätt den!
Riktigt usel Halvdålig Helt ok Riktigt bra! Älskade den!

Vad kul att du gillar vårt arbete!

Skulle du, som vår uppskattade läsare, vilja uppmärksamma oss på Trustpilot? Det går snabbt och betyder jättemycket för oss. Tack för att du är så fantastisk!

Betygsätt oss på Trustpilot
0 Betygsatt av 0 användare
Titel
Kommentera
Tack för din feedback
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Lämna en kommentar

Loader
Loader Visa mer...