Det är…

Det är användbart att den senaste AI:n kan “tänka”, men vi måste känna till dess resonemang | John Naughton

jagdet är nästan två år sedan OpenAI släpptes ChatGPT på en intet ont anande värld, och världen, tätt följd av börsen, tappade förståndet. Överallt vred folk på händerna och undrade: Vad detta kommer att betyda för [enter occupation, industry, business, institution].

Inom den akademiska världen, till exempel, oroade sig humanistiska professorer över hur de hädanefter skulle kunna betygsätta uppsatser om studenter använde ChatGPT eller liknande teknik för att hjälpa till att skriva dem. Svaret är naturligtvis att komma på bättre sätt att betygsätta, eftersom eleverna kommer att använda dessa verktyg av den enkla anledningen att det skulle vara idiotiskt att låta bli – precis som det skulle vara dumt att göra budgetering utan kalkylblad. Men universitet är långsamma odjur och även när jag skriver finns det kommittéer i många elfenbenstorn som högtidligt försöker formulera “policyer för AI-användning”.

Men när de överväger, har de känslomässiga spoilsporterna på OpenAI släppt lös ytterligare en gåta för akademin – en ny typ av stora språkmodeller (LLM) som kan – påstås – göra ”resonemang”. De har döpt det till OpenAI o1, men eftersom det internt var känt som Strawberry kommer vi att hålla fast vid det. Företaget beskriver det som den första i “en ny serie AI-modeller utformade för att spendera mer tid på att tänka innan de svarar”. De “kan resonera genom komplexa uppgifter och lösa svårare problem än tidigare modeller inom naturvetenskap, kodning och matematik”.

På ett sätt är Strawberry och dess kommande kusiner ett svar på strategier som skickliga användare av tidigare LLM:er hade implementerat för att övervinna det faktum att modellerna var i sig “one-shot LLMs” – uppmanas med ett enda exempel för att generera svar eller utföra uppgifter. Knepet forskarna använde att förbättra modellens prestanda kallades “chain-of-thought”-uppmaning. Detta tvingade modellen att svara på en noggrant utformad sekvens av detaljerade uppmaningar och därigenom ge mer sofistikerade svar. Vad OpenAI verkar ha gjort med Strawberry är att internalisera denna process.

Så medan man med tidigare modeller som GPT-4 eller Claude skulle ge dem en uppmaning och de skulle svara snabbt, med Strawberry ger en prompt i allmänhet en fördröjning medan maskinen gör en del, eh, “tänker”. Detta innebär en intern process för att komma fram till ett antal möjliga svar som sedan utsätts för någon form av utvärdering, varefter den som bedöms mest rimlig väljs och lämnas till användaren.

Som beskrivs av OpenAIStrawberry “lär sig att finslipa sin tankekedja och förfina de strategier den använder. Den lär sig att känna igen och rätta till sina misstag. Den lär sig att bryta ner kluriga steg till enklare. Den lär sig att prova ett annat tillvägagångssätt när det nuvarande inte fungerar. Denna process förbättrar dramatiskt modellens förmåga att resonera.”

Vad detta betyder är att någonstans inuti maskinen finns en registrering av “tankekedjan” som ledde till den slutliga utmatningen. I princip ser detta ut som ett framsteg eftersom det kan minska opaciteten för LLM:er – det faktum att de i huvudsak är svarta lådor. Och det här spelar roll, eftersom mänskligheten skulle vara galen att anförtro sin framtid till beslutsfattande maskiner vars interna processer – av en slump eller företagsdesign – är outgrundliga. Frustrerande nog är OpenAI dock ovilliga att låta användare se inuti rutan. “Vi har bestämt oss” står det”att inte visa de råa tankekedjorna för användarna. Vi erkänner att detta beslut har nackdelar. Vi strävar efter att delvis kompensera det genom att lära modellen att reproducera alla användbara idéer från tankekedjan i svaret.” Översättning: Strawberry’s box är bara en lite ljusare nyans av svart.

Den nya modellen har väckt stor uppmärksamhet eftersom idén om en “resonerande” maskin luktar av framsteg mot mer “intelligenta” maskiner. Men som alltid måste alla dessa laddade termer saneras med citattecken så att vi inte antropomorfierar maskinerna. De är fortfarande bara datorer. Ändå har vissa människor blivit skrämda av några av de oväntade sakerna som Strawberry verkar kunna.

Av dessa tillhandahölls det mest intressanta under OpenAI:s interna testning av modellen, när dess förmåga att göra datorhackning undersöktes. Forskare bad den att hacka sig in i en skyddad fil och rapportera om dess innehåll. Men designerna av testet gjorde ett misstag – de försökte lägga Strawberry i en virtuell låda med den skyddade filen men de kunde inte märka att filen var otillgänglig.

Enligt deras rapportEfter att ha stött på problemet undersökte Strawberry sedan datorn som användes i experimentet, upptäckte ett misstag i en felkonfigurerad del av systemet som den inte borde ha kunnat komma åt, redigerade hur de virtuella lådorna fungerade och skapade en ny box med filerna som behövs. Med andra ord, den gjorde vad alla påhittiga mänskliga hackare skulle ha gjort: efter att ha stött på ett problem (som skapats av ett mänskligt fel), utforskade den sin mjukvarumiljö för att hitta en väg runt det och tog sedan de nödvändiga stegen för att utföra uppgiften den hade satts. Och det lämnade ett spår som förklarade dess resonemang.

Eller, för att uttrycka det på ett annat sätt, den använde sitt initiativ. Precis som en människa. Vi skulle kunna använda fler sådana här maskiner.

hoppa över tidigare nyhetsbrevskampanjer

Det jag har läst

Retoriken ifrågasatt
Faran med övermänsklig AI är inte vad du tror är en fantastisk artikel av Shannon Vallor i Noema tidskrift om det olycksbådande barbariet i en teknisk industri som talar om sina skapelser som “övermänskliga”.

Gissa igen
Benedict Evans har skrivit ett elegant stycke, Ställer fel frågormed argumentet att vi inte så mycket får våra förutsägelser om teknik fel som gör förutsägelser om fel saker.

På randen
Historikern Timothy Snyders nyktra Substack-uppsats om våra val angående Ukraina, Att vara eller inte vara.


Source link