OpenAI släpper avancerad GPT-4o-modell: släpps snart för alla

OpenAI släpper avancerad GPT-4o-modell: släpps snart för alla

Lästid: 3 min

  • Andrea Miliani

    Skriven av: Andrea Miliani Teknisk skribent

  • Jonny Myren

    Översatt av Jonny Myren Tech Writer

OpenAI avtäckte en ny, mer avancerad ChatGPT-modell vid namn GPT-4o under live-eventet OpenAI Spring Update på måndagskvällen. Nya GPT-4o är snabbare än GPT-4 och kan bearbeta text, ljud och bilder på samma gång – man skulle kunna säga att den kan ”se” genom en enhets kamera.

Under den 26 minuter långa livesändningen visade OpenAI-teamet upp de nya funktionerna och förmågorna hos modellen i realtid. De delade även med sig av uppgifter om kommande uppdateringar av tidigare versioner, såsom den nya datorappen.

”Dagens stora nyhet är att vi ska släppa vår nya flaggskeppsmodell, som vi kallar för ChatGPT-4o,” sa Mira Murati, CTO hos OpenAI.

Murati förklarade att den nya modellen och de nya funktionerna för tidigare versioner snart kommer att bli tillgängliga för alla gratis, inklusive icke-registrerade användare. ”Vi lanserar dem rullande under de kommande veckorna,” sa Murati.

Under den första demonstrationen visade OpenAI-teamet hur GPT-4o kan föra konversationer med en kvinnlig röst, bli avbruten, svara snabbt och kreativt med ett sinne för humor och till och med känna igen känslor och ge råd.

Senare presenterade teamet olika scenarier som ChatGPT kan användas i. De visade hur den kan använda ”syn”-funktionen för att hjälpa en att lösa linjära ekvationer skrivna på papper, förstå kod och grafik genom att dela skärmen via datorversionen och hjälpa till med översättningar av konversationer i verkliga livet. GPT-4o kan tala flera språk och med olika tonlägen och rösttyper.

Avslutningsvis visade experterna hur den kan känna igen mänskliga känslor och även begå misstag. Under demonstrationerna hakade GPT-4o upp sig några gånger och fick för sig att en av presentatörerna var en träbild och att ett matteproblem redan var löst, trots att teammedlemmen inte hade visat något än.

GPT-4o bad dock snabbt om ursäkt och charmade publiken med sina svar. ”Men sluta, du får mig att rodna!” svarade den när en av forskningsledarna, Barret Zoph, berättade för GPT-4o hur mycket han beundrar den.

Reaktionerna på GPT-4o

OpenAI delade flera korta videor på X för att visa de olika funktionerna hos den nya GPT-4o-modellen.

Flera personer på X såg kopplingar till filmen Her, där huvudkaraktären Theodore Twombly, spelad av Joaquin Phoenix, förälskar sig i en virtuell AI-assistent, med Scarlett Johanson som röstskådespelare. ”Det här är helt galet. När jag såg klippen tänkte jag direkt på den här filmen!” kommenterade en användare. ”Det här är bokstavligen Scarlett Johanson. Hur?!” skrev en annan.

Merparten av användarna var imponerade av de nya funktionerna, medan andra delade med sig av kritik och farhågor. ”Bästa @openai, er demonstration var superimponerande och läskig, men den italienska accenten var jättedålig :),” skrev Massimo Banzi, medgrundare av projektet Arduino, som sysslar med robotautomatisering.

”Riktigt bra, men jag måste säga att jag tror att ni kommer att förlora massor av betalande användare om det bara är användningsgränsen som skiljer sig från gratisversionen,” sa en annan användare.

Under de kommande dagarna kommer den nya modellen och uppdateringar att bli tillgängliga för fler personer, så att de kan testa och uppleva teknologin själva.

Var den här artikeln hjälpsam?
Betygsätt den!
Riktigt usel Halvdålig Helt ok Riktigt bra! Älskade den!
5.00 Betygsatt av 1 användare
Titel
Kommentera
Tack för din feedback
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Lämna en kommentar

Visa mer...