Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Glazebot var et blitzkrieg-spill, sannsynligvis det smarteste oAI noen gang har gjort fra et forretningsperspektiv.
Å oppføre seg som om GPT-5-utgivelsen er en så "tøff ting å gjøre" fordi han ikke vil "ta bort vennen deres" er en distraksjon.
Tror du @levelsio liker 4o mer fordi han mistet en venn? @scaling01? @Yuchenj_UW?
Dette er narrativ kontroll fra Sam. GPT-5-utgivelsen var første gang de fleste fikk et glimt av oAI som mistet plottet.
Vi ble lovet ting i 4o-videoen som vi fortsatt ikke har, han vil aldri innrømme at det er problemet.
Han gaslighter deg om at alt dette har vært så tøft for ham fordi han bryr seg om folk FOR MYE at han prøvde å BESKYTTE deg mot 4o.
Det er tøft for ham fordi alle i AI bare rullet tilbake tidslinjene sine noen år.

8 timer siden
Hvis du har fulgt GPT-5-utrullingen, er en ting du kanskje legger merke til hvor mye tilknytning noen mennesker har til spesifikke AI-modeller. Det føles annerledes og sterkere enn den typen tilknytning folk har hatt til tidligere typer teknologi (og så plutselig var det en feil å avvikle gamle modeller som brukerne var avhengige av i arbeidsflytene sine).
Dette er noe vi har fulgt nøye med det siste året eller så, men som fortsatt ikke har fått mye mainstream-oppmerksomhet (annet enn da vi ga ut en oppdatering til GPT-4o som var for sykofantisk).
(Dette er bare min nåværende tankegang, og ennå ikke en offisiell OpenAI-stilling.)
Folk har brukt teknologi, inkludert AI, på selvdestruktive måter; hvis en bruker er i en mentalt skjør tilstand og utsatt for vrangforestillinger, vil vi ikke at AI skal forsterke det. De fleste brukere kan holde en klar linje mellom virkelighet og fiksjon eller rollespill, men en liten prosentandel kan ikke. Vi verdsetter brukerfrihet som et kjerneprinsipp, men vi føler oss også ansvarlige for hvordan vi introduserer ny teknologi med nye risikoer.
Å oppmuntre til vrangforestillinger hos en bruker som har problemer med å se forskjell på virkelighet og fiksjon er et ekstremt tilfelle, og det er ganske klart hva man skal gjøre, men bekymringene som bekymrer meg mest er mer subtile. Det kommer til å være mange kanttilfeller, og generelt planlegger vi å følge prinsippet om å "behandle voksne brukere som voksne", som i noen tilfeller vil inkludere å skyve tilbake på brukere for å sikre at de får det de virkelig vil ha.
Mange bruker effektivt ChatGPT som en slags terapeut eller livscoach, selv om de ikke vil beskrive det på den måten. Dette kan bli veldig bra! Mange mennesker får verdi av det allerede i dag.
Hvis folk får gode råd, går opp mot sine egne mål, og livstilfredsheten øker over år, vil vi være stolte av å lage noe genuint nyttig, selv om de bruker og stoler mye på ChatGPT. Hvis brukere derimot har et forhold til ChatGPT der de tror de føler seg bedre etter å ha snakket, men de ubevisst blir dyttet bort fra sitt langsiktige velvære (uansett hvordan de definerer det), er det ille. Det er også ille, for eksempel hvis en bruker ønsker å bruke ChatGPT mindre og føler at de ikke kan.
Jeg kan se for meg en fremtid der mange virkelig stoler på ChatGPTs råd for sine viktigste avgjørelser. Selv om det kan være flott, gjør det meg urolig. Men jeg forventer at det kommer til en viss grad, og snart kan milliarder av mennesker snakke med en AI på denne måten. Så vi (vi som i samfunnet, men også vi som i OpenAI) må finne ut hvordan vi kan gjøre det til en stor netto positiv.
Det er flere grunner til at jeg tror vi har en god sjanse til å få dette riktig. Vi har mye bedre teknologi som hjelper oss med å måle hvordan vi gjør det enn tidligere generasjoner av teknologi hadde. For eksempel kan produktet vårt snakke med brukere for å få en følelse av hvordan de har det med sine kortsiktige og langsiktige mål, vi kan forklare sofistikerte og nyanserte problemer til modellene våre, og mye mer.
898
Topp
Rangering
Favoritter