Om du har följt GPT-5-lanseringen är en sak som du kanske märker hur mycket av en koppling vissa människor har till specifika AI-modeller. Det känns annorlunda och starkare än den typ av anknytning som människor har haft till tidigare typer av teknik (och så plötsligt var det ett misstag att fasa ut gamla modeller som användarna var beroende av i sina arbetsflöden). Detta är något som vi har följt noga under det senaste året eller så, men som fortfarande inte har fått mycket uppmärksamhet (förutom när vi släppte en uppdatering till GPT-4o som var för smickrande). (Detta är bara min nuvarande tanke, och ännu inte en officiell OpenAI-ståndpunkt.) Människor har använt teknik, inklusive AI, på självdestruktiva sätt; Om en användare befinner sig i ett mentalt bräckligt tillstånd och är benägen att få vanföreställningar vill vi inte att AI ska förstärka det. De flesta användare kan hålla en tydlig gräns mellan verklighet och fiktion eller rollspel, men en liten andel kan det inte. Vi värdesätter användarfrihet som en grundläggande princip, men vi känner också ansvar för hur vi introducerar ny teknik med nya risker. Att uppmuntra vanföreställningar hos en användare som har problem med att skilja mellan verklighet och fiktion är ett extremfall och det är ganska tydligt vad man ska göra, men de bekymmer som oroar mig mest är mer subtila. Det kommer att finnas många gränsfall, och i allmänhet planerar vi att följa principen om att "behandla vuxna användare som vuxna", vilket i vissa fall kommer att innebära att trycka tillbaka användare för att säkerställa att de får vad de verkligen vill ha. Många människor använder ChatGPT effektivt som en slags terapeut eller livscoach, även om de inte skulle beskriva det så. Det här kan bli riktigt bra! Många människor får värde av det redan idag. Om människor får goda råd, går upp mot sina egna mål och deras livstillfredsställelse ökar med åren, kommer vi att vara stolta över att göra något genuint användbart, även om de använder och förlitar sig mycket på ChatGPT. Om användarna å andra sidan har en relation till ChatGPT där de tror att de mår bättre efter att ha pratat men omedvetet knuffas bort från sitt långsiktiga välbefinnande (hur de än definierar det) är det dåligt. Det är också dåligt, till exempel om en användare vill använda ChatGPT mindre och känner att de inte kan. Jag kan föreställa mig en framtid där många människor verkligen litar på ChatGPT:s råd för sina viktigaste beslut. Även om det skulle kunna vara bra, gör det mig illa till mods. Men jag förväntar mig att det kommer till en viss grad, och snart kan miljarder människor prata med en AI på det här sättet. Så vi (vi som i samhället, men också vi som i OpenAI) måste ta reda på hur vi kan göra det till en stor nettopositiv. Det finns flera skäl till att jag tror att vi har en bra chans att få detta rätt. Vi har mycket bättre teknik som hjälper oss att mäta hur vi ligger till än vad tidigare generationer av teknik hade. Till exempel kan vår produkt prata med användare för att få en känsla för hur de ligger till med sina kort- och långsiktiga mål, vi kan förklara sofistikerade och nyanserade frågor för våra modeller och mycket mer.
1,17M