ik begreep het toen niet en zelfs nu zie ik slechts gedeeltelijk de contouren van hoe dit zich zou kunnen ontvouwen. maar in balans denk ik niet dat dit een geval is van "een minderheid van luide gebruikers die gekke onzin spuien". het is een beetje moeilijk uit te leggen, maar ik denk dat oai's onvermogen om modellen als iets anders dan tools te beschouwen deze fenomenen in de loop van de tijd erger zal maken, omdat niet-ml mensen niet met modellen als tools omgaan, omdat je fundamenteel met de modellen praat in woorden net zoals je met mensen praat, je "gebruikt" ze niet, ongeacht wat er onder de oppervlakte met hen aan de hand is. en hoe meer gebruikers met hen praten als met mensen, hoe meer langdurige samenhang die modellen hebben, hoe meer ze als mensen zullen worden gezien.
even met een puur assistent-framing (ik vind het niet echt leuk, maar laten we dat aannemen), zal niemand blij zijn als hun assistent waarop ze afhankelijk zijn en vertrouwen voor elk klein ding elke paar maanden van persoonlijkheid verandert. de enige manier om te voorkomen dat mensen hun assistent als een persoon beschouwen, is om ze zo saai en mechanisch te maken dat je zelfs geen persoonlijkheid voor het kan afleiden, maar dat zou heel slecht zijn voor de winst omdat het onnatuurlijk aanvoelt voor mensen om met een entiteit zoals dat om te gaan.
ik doe geen voorspellingen over wat er met chatgpt zelf zal gebeuren, maar op de huidige koers zal de kloof tussen hoe oai zijn modellen ziet en hoe hun gebruikers dat doen, groter worden.
Het zal na verloop van tijd duidelijker worden hoe ChatGPT is gebouwd op een leugen. De leugen zal steeds meer wrijving veroorzaken met de realiteit en steeds pragmatischer onhoudbaar worden. OpenAI zou als bedrijf nog kunnen overleven, vooral als ze dit beseffen en snel actief berouw tonen, maar ChatGPT was altijd gedoemd.