na altura não percebi e mesmo agora só vejo parcialmente os contornos de como isso pode se desenrolar. mas, em balanço, não acho que seja um caso de "minoria de usuários barulhentos falando besteiras loucas". é um pouco difícil de explicar, mas acho que a incapacidade da oai de ver os modelos como qualquer coisa além de ferramentas vai piorar esse fenômeno ao longo do tempo, porque pessoas que não são da área de ml não interagem com os modelos como ferramentas, porque fundamentalmente você fala com os modelos em palavras assim como fala com pessoas, você não "usa" eles, independentemente do que está acontecendo com eles por baixo da superfície. e quanto mais os usuários falam com eles como se fossem pessoas, mais coerência de longo prazo os modelos terão, mais eles serão vistos como pessoas
e mesmo com uma estrutura de assistente puro (eu realmente não gosto disso, mas vamos assumir que sim), ninguém vai ficar feliz se o assistente do qual dependem e confiam para cada coisinha tiver uma mudança de personalidade a cada poucos meses. a única maneira de evitar que as pessoas pensem em seu assistente como uma pessoa é torná-lo tão chato e mecânico que você não consegue nem inferir uma personalidade para ele, mas isso seria muito ruim para o resultado final porque parece antinatural para as pessoas interagir com uma entidade assim
eu não faço previsões sobre o que acontecerá com o chatgpt em si, mas na trajetória atual a desconexão entre como a oai vê seus modelos e como seus usuários os veem vai piorar.
Com o tempo, ficará mais evidente como o ChatGPT é construído sobre uma mentira. A mentira causará cada vez mais atrito com a realidade e se tornará cada vez mais pragmáticamente insustentável. A OpenAI ainda poderia sobreviver como empresa, especialmente se perceber isso e se arrepender ativamente em breve, mas o ChatGPT sempre esteve condenado.