OpenAI sätter…

OpenAI sätter “glänsande produkter” över säkerhet, säger avgående forskare | Artificiell intelligens (AI)

En tidigare senior anställd på OpenAI har sagt företaget bakom ChatGPT prioriterar “glänsande produkter” framför säkerhet, och avslöjar att han slutade efter att en oenighet om viktiga mål nått “brytpunkten”.

Jan Leike var en viktig säkerhetsforskare vid OpenAI som dess co-head of superalignment, som säkerställde att kraftfulla system för artificiell intelligens följde mänskliga värderingar och mål. Hans ingripande kommer före en global toppmöte om artificiell intelligens i Seoul nästa vecka, där politiker, experter och tekniska chefer kommer att diskutera tillsyn över tekniken.

Leike avgick dagar efter det San Francisco-baserade företaget lanserade sin senaste AI-modell, GPT-4o. Hans avgång innebär att två seniora säkerhetsfigurer på OpenAI har lämnat denna vecka efter att Ilya Sutskever, OpenAI:s medgrundare och medchef för superalignment, avgick.

Leike redogjorde för skälen till sin avgång i en tråd på X som publicerades på fredagen, där han sa att säkerhetskulturen hade blivit lägre prioriterad.

“Under de senaste åren har säkerhetskulturen och säkerhetsprocesserna tagit en baksätet till glänsande produkter”, skrev han.

Igår var min sista dag som chef för alignment, superalignment lead och executive @OpenAI.

— Jan Leike (@janleike) 17 maj 2024

OpenAI var grundades med målet för att säkerställa att artificiell allmän intelligens, som den beskriver som “AI-system som generellt är smartare än människor”, gynnar hela mänskligheten. I sina X-inlägg sa Leike att han hade varit oense med OpenAI:s ledarskap om företagets prioriteringar under en tid, men att ståndpunkten “äntligen nått en brytpunkt”.

sa Leike OpenAIsom också har utvecklat bildgeneratorn Dall-E och videogeneratorn Sora, borde satsa mer resurser på frågor som säkerhet, social påverkan, konfidentialitet och säkerhet för sin nästa generations modeller.

“De här problemen är ganska svåra att lösa, och jag är orolig att vi inte är på väg att nå dit,” skrev han och tillade att det blev “svårare och svårare” för hans team att göra sin forskning.

“Att bygga smartare maskiner än människan är en i sig farlig strävan. OpenAI axlar ett enormt ansvar å hela mänsklighetens vägnar”, skrev Leike och tillade att OpenAI ”måste bli ett AGI-företag i första hand med säkerheten”.

Sam Altman, OpenAI:s vd, svarade på Leikes tråd med ett inlägg på X där han tackade sin tidigare kollega för hans bidrag till företagets säkerhetskultur.

hoppa över tidigare nyhetsbrevskampanjer

“Han har rätt att vi har mycket mer att göra; vi är fast beslutna att göra det”, skrev han.

Sutskever, som också var OpenAI:s chefsforskare, skrev i sitt X-inlägg meddelade sin avgång att han var säker på att OpenAI “kommer att bygga AGI som är både säker och fördelaktig” under dess nuvarande ledning. Sutskever hade till en början stött avlägsnande av Altman som OpenAI:s chef i november förra året stöder hans återinträde efter dagar av internt tumult på företaget.

Leikes varning kom som en panel av internationella AI-experter släppte en invigningsrapport om AI-säkerhet, som sa att det rådde oenighet om sannolikheten för att kraftfulla AI-system skulle undvika mänsklig kontroll. Den varnade dock för att tillsynsmyndigheter kunde lämnas eftersläpande av snabba framsteg inom tekniken och varnade för den “potentiella skillnaden mellan takten i tekniska framsteg och takten i en regleringsrespons”.




Source link

chatgpt-svenska

Hos ChatGPT Svenska hittar du all information om Ai verktyget ChatGPT samt hur du använder denna teknologi för daytrading på valutamarknaden.

Nyttiga Länkar