OpenAI och…

OpenAI och Google DeepMind-arbetare varnar för risker för AI-branschen i öppet brev | Artificiell intelligens (AI)

En grupp nuvarande och tidigare anställda på framstående företag inom artificiell intelligens utfärdat ett öppet brev på tisdagen som varnade för bristande säkerhetstillsyn inom branschen och efterlyste ökat skydd för whistleblowers.

Brevet, som kräver en “rätt att varna för artificiell intelligens”, är ett av de mest offentliga uttalandena om farorna med AI från anställda inom vad som i allmänhet är en hemlighetsfull bransch. Elva nuvarande och före detta OpenAI-arbetare skrev under brevet, tillsammans med två nuvarande eller tidigare Google DeepMind anställda – varav en tidigare arbetat på Anthropic.

“AI-företag har betydande icke-offentlig information om kapaciteten och begränsningarna hos deras system, lämpligheten av deras skyddsåtgärder och risknivåerna för olika typer av skada”, står det i brevet. “Men de har för närvarande bara svaga skyldigheter att dela en del av denna information med regeringar, och ingen med civilsamhället. Vi tror inte att de alla kan lita på att dela det frivilligt.”

OpenAI försvarade sin praxis i ett uttalande och sa att de hade möjligheter som en tipline för att rapportera problem på företaget och att de inte släppte ny teknik förrän det fanns lämpliga skyddsåtgärder. Google svarade inte omedelbart på en begäran om kommentar.

“Vi är stolta över vår meritlista som tillhandahåller de mest kapabla och säkraste AI-systemen och tror på vår vetenskapliga strategi för att hantera risker. Vi är överens om att en rigorös debatt är avgörande med tanke på betydelsen av denna teknik och vi kommer att fortsätta att engagera oss med regeringar, civilsamhället och andra samhällen runt om i världen. OpenAI sa talesperson.

Oro över de potentiella skadorna av artificiell intelligens har funnits i decennier, men AI-boomen under de senaste åren har intensifierat dessa rädslor och gjort att tillsynsmyndigheter har svårt att komma ikapp med tekniska framsteg. Medan AI-företag offentligt har uttalat sitt engagemang för att utveckla tekniken på ett säkert sätt, har forskare och anställda varnat för bristande tillsyn eftersom AI-verktyg förvärrar befintliga sociala skador eller skapar helt nya.

Brevet från nuvarande och tidigare anställda inom AI-företaget, som var först rapporterat av New York Times, efterlyser ökat skydd för arbetare på avancerade AI-företag som bestämmer sig för att uttrycka säkerhetsproblem. Den efterfrågar ett åtagande till fyra principer kring transparens och ansvarsskyldighet, inklusive en bestämmelse om att företag inte kommer att tvinga anställda att underteckna några icke-nedsättande avtal som förbjuder att sända riskrelaterade AI-frågor och en mekanism för anställda att anonymt dela bekymmer med styrelseledamöter.

“Så länge det inte finns någon effektiv statlig tillsyn över dessa företag är nuvarande och tidigare anställda bland de få personer som kan hålla dem ansvariga inför allmänheten”, står det i brevet. “Ändå blockerar breda sekretessavtal oss från att uttrycka vår oro, förutom till just de företag som kanske misslyckas med att ta itu med dessa frågor.”

Företag som OpenAI har också bedrivit aggressiva taktiker för att hindra anställda från att tala fritt om sitt arbete, med Vox rapporterade förra veckan att OpenAI fick anställda som lämnar företaget att skriva under extremt restriktiva icke-nedsättande och sekretessbelagda dokument eller förlora allt sitt intjänade kapital. Sam Altman, OpenAI:s VD, bad om ursäkt efter rapporten och sa att han skulle ändra rutiner för off-boarding.

Brevet kommer efter att två ledande OpenAI-anställda, medgrundaren Ilya Sutskever och nyckelsäkerhetsforskaren Jan Leike, sa upp sig från företaget förra månaden. Efter hans avgång påstod Leike att OpenAI hade övergav en säkerhetskultur till förmån för “blanka produkter”.

Det öppna brevet på tisdagen upprepade en del av Leikes uttalande och sa att företagen inte visade någon skyldighet att vara transparenta om sin verksamhet.


Source link