
Photo by ActionVance on Unsplash
Den tydliga gränsen mellan verkliga och AI-genererade videor kan försvinna 2025
AI-genererat innehåll är här för att stanna. Det blir bättre och bättre och vi har sett en betydande förbättring i AI-teknologier år 2024. Kommer vi att kunna skilja mellan vad som är verkligt och vad som inte är det år 2025?
Jag fann mig nyligen fråga, ”Är det en riktig kvinna?” — medan jag kisade lite — efter att ha sett ett inlägg på Instagram. ”Nej, det måste vara AI-genererat”, kom jag fram till efter en stund. Sedan undrade jag omedelbart: Kommer vi fortfarande att kunna se skillnaden inom sekunder nästa år? Alla tecken tyder på nej, särskilt på sociala medier, då stora nyligen utvecklingar inom AI-teknologi tyder på det.
För några dagar sedan delade Instagrams chef, Adam Mosseri, ett meddelande som tog upp denna fråga på Threads. ”Generativ AI producerar tydligt innehåll som är svårt att skilja från inspelningar av verkligheten, och förbättras snabbt”, skrev han. Mosseri erkände offentligt att de har svårt på Meta att märka AI-skapat innehåll och kontrollera och övervaka de massiva mängder media som delas varje sekund på deras sociala medieplattformar.
Mosseri tvättade Metas händer från ansvar och varnade användarna att det är upp till dem att avgöra om ett inlägg var äkta eller inte. ”Det kommer att bli alltmer avgörande att betraktaren, eller läsaren, har ett kritiskt sinne när de konsumerar innehåll som påstås vara en redogörelse eller en inspelning av verkligheten”, tillade han.
Bara några dagar senare, släppte OpenAI Sora Turbo, sin kraftfulla AI-videogenerator, vilket tillät Pro och Plus-användare att generera realistiska videor från textprompts. På bara några minuter började användarna att skapa fascinerande realistiska videor och började dela dem på sociala medier.
Precis när det verkade som att vi nått en ny nivå av videoproduktion, annonserade Google sitt senaste AI-videoverktyg, Veo 2, med högre upplösning och längre klipp än Sora. Självklart var resultaten som delades av de som hade tillgång till den avancerade tekniken ännu mer imponerande.
”Ingen kan säga att det här är AI nu”, skrev en användare.
Det är över.
Google Veo 2 har just utklassat konkurrensen och blivit den nya kungen av AI-medievärlden.
Ingen kan nu säga att detta är AI.
10 vilda exempel: pic.twitter.com/MKAN4Lwj6m
— el.cine (@EHuanglu) 17 december, 2024
Det händer redan
Under 2024 har vi sett hur AI-genererat innehåll har påverkat befolkningar, val och sociala medieanvändare.
I januari fick invånarna i New Hampshire ett samtal ”från Joe Biden” där de uppmanades att inte rösta i primärvalen. Politiska konsulten Steve Kramer låg bakom bluffen och blev bötfälld med 6 miljoner dollar för de AI-genererade bluff-samtalen. Regeringar har börjat förstå vilken inverkan AI kan ha och länder som Singapore har börjat utveckla lagar och strategier för att hjälpa befolkningen att identifiera deepfake-innehåll.
I Venezuela har AI-genererade videor spridit desinformation—men också hjälpt journalister att informera genom AI-avatarer för att kringgå censur.
Människor har haft svårt att skilja på vad som är verkligt och vad som inte är det, och det är inte deras fel: AI-genererat innehåll blir bara bättre och bättre.
Högkvalitativt AI-genererat innehåll är en växande bransch i alla dess former; text, ljud och video. Många OnlyFans-skapare förlitar sig för närvarande på chatbots för att engagera sig i konversationer med sina fans, ett jobb som tidigare tilldelades gig-arbetare i lägre inkomstländer. De nya AI-modellerna som specialiserat sig på flirttekniker har till och med genererat $1 000 i dricks från sina följare.
I april lanserade Nvidia-stödda startföretaget Synthesia AI-avatars som kan uttrycka mänskliga känslor och tala på 130 språk. TikTok tillåter företag att skapa AI-genererade annonser med innehåll från Getty Images, och nu kan YouTube-skapare använda den nya AI-auto-dubbning funktionen för att översätta sitt innehåll till 9 språk och framtida uppdateringar kommer att replikera den ursprungliga rösten.
Zoom arbetar på att skapa AI-avatars som ser ut precis som användarna för att hjälpa dem att spela in meddelanden och till och med delta i möten. Detta verktyg kommer att rullas ut nästa år, men människor har redan testat flera verktyg och företag kan redan skapa fotorealistiska AI-kloner.
Är du säker på att du pratade med en riktig person under ditt senaste Zoom-samtal?
Hur kan man avgöra om det var skapat av AI? För nu
Vi lever i förvirrande tider i denna digitala era. Filter kan få vem som helst att se ut som en modell med felfri hy, och Photoshop-värda korrigeringar är bara ett klick bort på Instagram eller Snapchat – hur många vill dela sin ”naturliga” bild, skavanker och allt, när den kan förbättras på sekunder? Vi ser allt fler annonser med fotorealistiska bilder som genereras av artificiell intelligens, vilka gradvis övertygar våra ögon om deras bekantskap och ”normalitet”. Och varje dag får överraskande händelser runt om i världen oss att ifrågasätta: vad är verkligt, och vad är det inte längre?
De stora AI-företagen har arbetat med vattenmärken för att upptäcka deras AI-genererade innehåll och lätt kunna känna igen det. Google DeepMind lanserade sitt öppna vattenmärkessystem i oktober för att märka AI-videor, text och ljud, och Meta inkluderade också ett i sitt AI-videoverktyg.
Men dess effektivitet är ifrågasatt, börjande med att Meta bara erkänner att de inte kan märka allt AI-genererat innehåll. Illvilliga aktörer kan fortfarande hitta sätt att ta bort vattenmärkena och det krävs fler lagar, partnerskap och överenskommelser mellan sociala medieföretag och regeringar för att uppnå ett mer framgångsrikt system.
För tillfället, förutom att lita på vår magkänsla, kan vi ställa oss själva några frågor innan vi delar på sociala medier eller tror på det vi ser:
- Precis som Mosseri rekommenderade, överväg följande: Vem delar den här informationen? Är detta en pålitlig källa?
- Känns personens uttryck eller rörelser robotiska? Även om AI-avatarer kan vara ganska realistiska, är det fortfarande möjligt att känna igen en konstig styvhet eller brist på känslor – även om det bör noteras att företag som Synthesia redan förbättrar detta.
- Är innehållet utformat för att framkalla en stark känslomässig reaktion? Illvilliga aktörer vet hur lätt vi delar negativa nyheter och interagerar med känslomässigt laddat material på sociala medier, och forskning bekräftar det. Innan du delar innehåll som fick ditt blod att koka för att få andra lika upprörda som du är, tänk på om det är utformat för att skapa kontrovers eller om det faktiskt är riktiga nyheter eller en riktig händelse.
- Kan du bekräfta innehållet med andra källor? Det skadar aldrig att dubbelkolla med pålitliga källor.
Och slutligen, har du frågat dig själv – eller din favorit-chatbot – hur du kan förbättra ditt kritiska tänkande? Att utveckla ett kritiskt sinne bör definitivt vara bland allas nyårslöften.
Lämna en kommentar
Avbryt