Kan AI-bildgeneratorer övervakas för att förhindra explicita deepfakes av barn? | Artificiell intelligens (AI)
Barnmisshandlare skapar AI-genererade “deepfakes” av sina mål för att utpressa dem till att filma sina egna övergrepp, vilket startar en cykel av sextorkning som kan pågå i flera år.
Att skapa simulerade barnmisshandelsbilder är olagligt i Storbritannien, och Labour och de konservativa har enats om önskan att förbjuda alla explicita AI-genererade bilder av riktiga människor.
Men det råder lite global överenskommelse om hur tekniken ska övervakas. Vad värre är, oavsett hur kraftfullt regeringar vidtar åtgärder, kommer skapandet av fler bilder alltid att vara en knapptryckning bort – explicita bilder är inbyggda i grunden för AI-bildgenerering.
I december forskare vid Stanford University gjorde en oroande upptäckt: begravd bland de miljarder bilder som utgör en av de största träningsuppsättningarna för AI-bildgeneratorer var hundratals, kanske tusentals, fall av material för sexuella övergrepp mot barn (CSAM).
Det kan finnas många fler. Laion (Large-scale AI Open Network), datauppsättningen i fråga, innehåller cirka 5 miljarder bilder. Med en halv sekund i en bild kan du kanske titta på dem alla under en livstid – om du är ung, vältränad och frisk och lyckas bli av med sömnen. Så forskarna var tvungna att skanna databasen automatiskt, matcha tvivelaktiga bilder med register som fördes av brottsbekämpande myndigheter och lära ett system att leta efter liknande bilder innan de lämnade dem direkt till myndigheterna för granskning.
Som svar drog Laions skapare upp datamängden från nedladdning. De hade faktiskt aldrig distribuerat bilderna i fråga, noterade de, eftersom datamängden tekniskt sett bara var en lång lista med webbadresser till bilder som fanns på andra ställen på internet. När Stanford-forskarna genomförde sin studie var nästan en tredjedel av länkarna döda; hur många av dem som i sin tur en gång innehöll CSAM är svårt att säga.
Men skadan är redan skedd. Systemtränade på Laion-5B, den specifika datamängden i fråga, används regelbundet runt om i världen, med olaglig träningsdata outplånligt inbränd i deras neurala nätverk. AI-bildgeneratorer kan skapa explicit innehåll, av vuxna och barn, eftersom de har sett det.
Det är osannolikt att Laion är ensam. Datauppsättningen producerades som en “öppen källkod”-produkt, sammanställd av frivilliga och släpptes till internet i stort för att driva oberoende AI-forskning. Det betyder i sin tur att den användes flitigt för att träna modeller med öppen källkod, inklusive Stable Diffusion, bildgeneratorn som, som en av de banbrytande utgåvorna 2022, hjälpte till att kickstarta den artificiella intelligensrevolutionen. Men det innebar också att hela datasetet var tillgängligt i det fria, för alla att utforska och undersöka.
Detsamma gäller inte för Laions tävling. OpenAI, till exempel, tillhandahåller endast en “modellkort” för sitt Dall-E 3-system, som säger att dess bilder ”ritades från en kombination av allmänt tillgängliga och licensierade källor”.
“Vi har ansträngt oss för att filtrera det mest explicita innehållet från träningsdata för Dall-E 3-modellen”, säger företaget. Huruvida dessa ansträngningar fungerade måste tas på förtroende.
Den enorma svårigheten att garantera en helt ren datauppsättning är en anledning till att organisationer som OpenAI argumenterar för sådana begränsningar i första hand. Till skillnad från Stable Diffusion är det omöjligt att ladda ner Dall-E 3 för att köra på din egen hårdvara. Istället ska varje förfrågan skickas via företagets egna system. För de flesta användare placeras ett extra lager ChatGPT i mitten, omskrivningsförfrågningar i farten för att ge mer detaljer för bildgeneratorn att arbeta med.
Det betyder OpenAI, och rivaler som Google med ett liknande tillvägagångssätt, har extra verktyg för att hålla sina generatorer tydliga: begränsa vilka förfrågningar som kan skickas och filtrera genererade bilder innan de skickas till slutanvändaren. AI-säkerhetsexperter säger att detta är ett mindre bräckligt sätt att närma sig problemet än att enbart förlita sig på ett system som har tränats för att aldrig skapa sådana bilder.
För “grundmodeller”, de mest kraftfulla, minst begränsade produkterna från AI-revolutionen, är det inte ens klart att en helt ren uppsättning träningsdata är användbar. En AI-modell som aldrig har visats explicita bilder kanske inte kan känna igen den i den verkliga världen, till exempel, eller följa instruktioner om hur man rapporterar den till myndigheterna.
“Vi måste behålla utrymme för AI-utveckling med öppen källkod”, säger Kirsty Innes, chef för teknisk policy på Labor Together. “Det kan vara där de bästa verktygen för att åtgärda framtida skador ligger.”
På kort sikt ligger fokus i de föreslagna förbuden till stor del på specialanpassade verktyg. A policydokument medförfattare av Innes föreslog att endast vidta åtgärder mot skaparna och värdarna av ensidiga “nudifierings”-verktyg. Men på längre sikt kommer kampen mot explicita AI-bilder att möta liknande frågor som andra svårigheter i rymden: hur begränsar man ett system som man inte helt förstår?
Source link