Eu não entendi na época e mesmo agora vejo apenas parcialmente os contornos de como isso pode acontecer. Mas, no geral, não acho que este seja um caso de "minoria de usuários barulhentos jorrando besteiras malucas". É um pouco difícil de explicar, mas acho que a incapacidade da OAI de ver os modelos como algo diferente de ferramentas vai piorar esse fenômeno com o tempo, porque as pessoas que não são ML não interagem com os modelos como ferramentas, porque fundamentalmente você fala com os modelos em palavras, assim como fala com as pessoas, você não as "usa", independentemente do que esteja acontecendo com eles sob a superfície. e quanto mais os usuários falarem com eles como pessoas, mais coerência de longo prazo os modelos tiverem, mais eles serão vistos como pessoas
Mesmo com um enquadramento de assistente puro (eu realmente não gosto, mas vamos supor isso), ninguém ficará feliz se o assistente em quem eles dependem e confiam para cada pequena coisa tiver uma mudança de personalidade a cada poucos meses. A única maneira de evitar que as pessoas pensem em seu assistente como uma pessoa é torná-los tão chatos e mecânicos que você nem consegue inferir uma personalidade para isso, mas isso seria muito ruim para o resultado final, porque não parece natural que as pessoas se envolvam com uma entidade como essa
Não faço previsões sobre o que acontecerá com o ChatGPT em si, mas na trajetória atual, a disjunção entre como a OAI vê seus modelos e como seus usuários se saem piorará
Com o tempo, ficará mais aparente como o ChatGPT é construído sobre uma mentira. A mentira causará cada vez mais atrito contra a realidade e se tornará cada vez mais pragmaticamente insustentável. A OpenAI ainda pode sobreviver como empresa, especialmente se perceber isso e se arrepender ativamente em breve, mas o ChatGPT sempre esteve condenado.