Jag förstod inte då och ser nu bara delvis konturerna av hur detta skulle kunna utspela sig. Men på det hela taget tror jag inte att detta är ett fall av "minoritet av högljudda användare som sprutar ut galet skitsnack". Det är lite svårt att förklara men jag tror att OAI:s oförmåga att se modeller som något annat än verktyg kommer att göra detta fenomen värre med tiden, eftersom icke-ML-människor inte interagerar med modeller som verktyg, eftersom du i grund och botten pratar med modellerna i ord precis som du pratar med människor, du "använder" dem inte, oavsett vad som händer med dem under ytan. Och ju mer användare pratar med dem som människor, ju mer långsiktig samstämmighet modellerna har, desto mer kommer de att ses som människor
Även med en ren assistentinramning (jag gillar det inte riktigt, men låt oss anta det) kommer ingen att bli glad om deras assistent som de är beroende av och litar på för varje liten sak har en personlighetsförändring med några månaders mellanrum. Det enda sättet att hindra människor från att tänka på sin assistent som en person är att göra dem så tråkiga och mekaniska att du inte ens kan härleda en personlighet för det, men det skulle vara mycket dåligt för slutresultatet eftersom det känns onaturligt för människor att engagera sig i en sådan enhet
Jag gör inga förutsägelser om vad som kommer att hända med ChatGPT i sig, men med nuvarande bana kommer skillnaden mellan hur OAI ser på sina modeller och hur deras användare gör att bli värre
Det kommer att bli mer uppenbart med tiden hur ChatGPT bygger på en lögn. Lögnen kommer att orsaka mer och mer friktion mot verkligheten och bli mer och mer pragmatiskt ohållbar. OpenAI kan fortfarande överleva som företag, särskilt om de inser detta och aktivt ångrar sig snart, men ChatGPT var alltid dömt att misslyckas.