
Image generated with OpenAI
Åsikt: AI-modeller är mystiska ”varelser”, och även deras skapare förstår dem inte helt och hållet
Anthropics nyliga studie om hur deras Claude 3.5 Haiku-modell fungerar utlovar banbrytande upptäckter och en insiktsfull gnista i förståelsen av hur avancerade AI-teknologier fungerar. Men vad menar de när de säger att LLM:er är ”levande organismer” som ”tänker”?
För några dagar sedan, publicerade Anthropic två artiklar med banbrytande forskning om hur stora språkmodeller (LLM:er) fungerar. Även om de tekniska utvecklingarna var intressanta och relevanta, var det vokabulär som användes av AI-experterna som fångade min uppmärksamhet mest.
I studien Om biologin hos en stor språkmodell jämförde forskarna sig själva med biologer som studerar komplexa ”levande organismer” som har utvecklats under miljarder av år.
“På samma sätt, medan språkmodeller genereras av enkla, mänskligt designade träningsalgoritmer, verkar de mekanismer som föds ur dessa algoritmer vara ganska komplexa,” skrev forskarna.
Under de senaste åren har AI-modeller utvecklats avsevärt. Och vi har bevittnat dess snabba utveckling under de senaste månaderna. Vi har sett ChatGPT gå från en textbaserad modell till en talande följeslagare, till nu en mångdimensionell agent som också kan generera fantastiska bilder i Studio Ghibli-stil.
Men, vad om de nuvarande gränsöverskridande AI-modellerna når den där science fiction-nivån av avancerad resonemangsförmåga som inte ens deras skapare kan förstå deras processer och system? Det finns flera mysterier kring AI-teknologier som kan vara relevanta att återbesöka – eller dyka djupare in i – år 2025.
Det skrämmande svarta låda-paradoxet med AI-modeller
Det finns många diskussioner om AI-adoption och AI-läskunnighet, och hur de som förstår hur generativa AI-modeller fungerar är mindre benägna att betrakta chattrobotar som sina ”vänner” eller ”magiska” appar. Det finns dock en annan debatt – bland experter och personer mer bekanta med tekniken – om man ska jämföra eller betrakta LLM:er som oberoende skapelser. När det gäller det senare finns det en speciell ingrediens, en gåta som kallas ”AI:s svarta låda-paradox”, som spelar en avgörande roll i diskussionen.
Djupinlärningssystem tränas för att känna igen element och trender på liknande sätt som människor gör. Precis som vi lär barn att känna igen mönster och tilldela specifika ord till olika objekt, har LLM:er tränats för att skapa unika kopplingar och bygga nätverk som blir allt mer komplexa när de ”växer”.
Samir Rawashdeh, docent i elektrisk och datateknik, specialiserar sig på artificiell intelligens och förklarar att det, precis som när vi studerar mänsklig intelligens, nästan är omöjligt att faktiskt se hur djupinlärningssystem fattar beslut och drar slutsatser. Detta är vad experter kallar ”black box-problemet”.
AI-modeller utmanar mänsklig förståelse
Anthropics nyligen genomförda studie har kastat ljus över AI:s black box-situation genom att förklara hur dess modell ”tänker” i vissa scenarier som tidigare varit suddiga eller till och med helt fel. Även om studien är baserad på modellen Claude 3.5 Haiku, tillåter den experter att utveckla verktyg och analysera liknande egenskaper hos andra AI-modeller.
”Att förstå naturen av denna intelligens är en djupgående vetenskaplig utmaning, som har potential att omforma vår uppfattning om vad det innebär att ‘tänka’,” säger artikeln som delats av Anthropics forskare.
Men termen ”tänka”, tillägnad AI-teknologier, upprör vissa experter inom industrin och är en del av kritiken mot undersökningen. En Reddit-användare förklarade varför det irriterar en grupp av människor: ”Det finns mycket antropomorfisering genom hela artikeln som fördunklar arbetet. Till exempel fortsätter den att använda ordet ‘tänka’ när den borde säga ‘beräkna’. Vi talar om datorprogramvara, inte en biologisk hjärna.”
Medan de ”humaniserade” termerna hjälper icke-tekniska människor att bättre förstå AI-modeller och stimulerar debatt i gemenskapen, är sanningen att, oavsett om vi säger ”beräkna” eller ”tänka”, kvarstår samma utmaning: vi har inte en fullständig förståelse eller total transparens över hur LLM fungerar.
Vad man kan förvänta sig av avancerade AI-modeller i den nära framtiden
Kan du föreställa dig att ignorera existensen av avancerade AI-teknologier som ChatGPT, DeepSeek, Perplexity eller Claude – nu eller i den nära framtiden? Alla tecken pekar på att det inte finns någon återvändo. Generativa och resonemangsbaserade AI har redan förändrat våra dagliga liv, och de kommer bara att fortsätta utvecklas.
Nästan varje dag på WizCase rapporterar vi om en ny utveckling i branschen—en ny AI-modell, ett nytt AI-verktyg, ett nytt AI-företag—som har potential att få stor inverkan på vårt samhälle. Tanken på att ta en paus för att först få en bättre förståelse för dessa avancerade modeller och hur de fungerar—eller till och med sakta ner något—verkar omöjligt, med tanke på den snabba takten i AI-racet och deltagandet av regeringar och världens mest inflytelserika företag.
”AI-modeller har allt större inverkan på hur vi lever och arbetar, vi måste förstå dem tillräckligt bra för att säkerställa att deras inverkan är positiv,” framför Anthropic’s rapport. Även om det kan låta lite overkligt, förblir forskarna positiva: ”Vi tror att våra resultat här, och den utveckling de bygger på, är spännande bevis på att vi kan möta denna utmaning.”
Men hur snabbt kan dessa upptäckter egentligen gå framåt? Artikeln nämner också att resultaten endast täcker några områden och specifika fall, och att det inte är möjligt att dra mer allmänna slutsatser. Så, förmodligen inte tillräckligt snabbt.
Medan regleringsmyndigheter inför åtgärder som EU:s AI-lag, för att kräva mer transparens, drar det på sig anklagelser och klagomål från stora teknikföretag för att påstått sakta ner framstegen, fortsätter kraftfulla AI-modeller att utvecklas.
Som samhälle måste vi sträva efter att hitta en balans mellan att fördjupa vår förståelse för hur dessa teknologier fungerar och att anamma dem på sätt som ger meningsfulla fördelar och framsteg för våra samhällen. Är detta möjligt? Idén att bara be eller hoppas på att dessa ”varelser” förblir ”etiska” och ”goda” verkar inte så långsökt just nu.
Lämna en kommentar
Avbryt