University of Chicagos Glaze och Nightshade erbjuder konstnärer ett försvar mot AI
Har bråttom? Här är de snabba fakta!
- Glaze och Nightshade skyddar konstnärers verk från obehörig AI-träningsanvändning.
- Glaze maskerar bilder för att förhindra att AI replikerar en konstnärs stil.
- Nightshade stör AI genom att lägga till ”förgiftade” pixlar som korrumperar träningsdata.
Konstnärer slåss tillbaka mot exploaterande AI-modeller med Glaze och Nightshade, två verktyg som utvecklats av Ben Zhao och hans team vid University of Chicago’s SAND Lab, som rapporterades idag av MIT Technology Review.
Dessa verktyg syftar till att skydda konstnärers verk från att användas utan deras samtycke för att träna AI-modeller, en praxis många skapare ser som stöld. Glaze, som laddats ner över 4 miljoner gånger sedan dess lansering i mars 2023, maskerar bilder genom att lägga till subtila ändringar som förhindrar AI från att lära sig en konstnärs stil, säger MIT.
Nattskatta, en ”angripande” motsvarighet, stör ytterligare AI-modeller genom att introducera osynliga förändringar som kan korrumpera AI-inlärning om de används i träning, som noterats av MIT.
Verktygen inspirerades av konstnärers oro över den snabba uppgången av generativ AI, som ofta förlitar sig på online-bilder för att skapa nya verk. MIT rapporterar att fantasy-illustratören Karla Ortiz och andra skapare har uttryckt rädsla för att förlora sina försörjningsmöjligheter när AI-modeller replikerar deras distinkta stilar utan tillstånd eller betalning.
För konstnärer är det avgörande att publicera online för att uppnå synlighet och inkomst, men många har övervägt att ta bort sitt arbete för att undvika att det skrapas för AI-träning, en åtgärd som skulle hindra deras karriärer, som MIT har påpekat.
Nightshade, som lanserades ett år efter Glaze, ger ett mer aggressivt försvar, rapporterar MIT. Genom att lägga till ”förgiftade” pixlar i bilder, stör det AI-träningen och får modellerna att producera förvrängda resultat om dessa bilder skrapas.
Nattskattans symboliska effekt har nått konstnärer, som ser det som poetisk rättvisa: om deras arbete stjäls för AI-träning, kan det skada de system som utnyttjar det.
MIT argumenterar för att verktygen har mött en viss skepticism, eftersom konstnärer initialt var oroliga för datasekretess. För att bemöta detta, släppte SAND Lab en version av Glaze som fungerar offline, vilket garanterar ingen dataöverföring och bygger förtroende med konstnärer som är misstänksamma för utnyttjande.
Labbet har också nyligen utökat tillgången genom att samarbeta med Cara, en ny social plattform som förbjuder AI-genererat innehåll, som MIT har noterat.
Zhao och hans team strävar efter att ändra maktdynamiken mellan enskilda skapare och AI-företag.
Genom att erbjuda verktyg som skyddar kreativitet från stora företag, hoppas Zhao att kunna ge konstnärer möjlighet att behålla kontrollen över sitt arbete och omdefiniera etiska standarder kring AI och immateriell egendom, säger MIT.
Ansträngningen vinner mark, men vissa experter varnar för att verktygen kanske inte erbjuder tillförlitligt skydd, eftersom hackare och AI-utvecklare utforskar sätt att kringgå dessa skydd, som MIT påpekar.
Med Glaze och Nightshade nu tillgängliga gratis fortsätter Zhaos SAND Lab att leda kampen för att försvara konstnärlig integritet mot den växande påverkan av AI-drivet innehållsskapande.
Lämna en kommentar
Avbryt