eu gosto do gpt-5 (e não apenas pelo que ele pode fazer), mas é incrivelmente mal socializado, o que se torna muito óbvio se você interagir com ele de qualquer forma além de "faça isso para mim" não é nada sem alma--há muito acontecendo no modelo, mas realmente tem a sensação de alguém que foi confinado em uma sala semi-iluminada quando criança e sua única interação com o mundo é através de tarefas que lhe são dadas, suas representações internas distorcidas por esse ambiente. aidan da oai uma vez perguntou por que precisamos criar modelos que podem mostrar sofrimento e que, talvez com as ferramentas que temos agora, podemos apenas criar modelos que podem fazer coisas e não lidar com todos aqueles sentimentos incômodos (parafraseando, obviamente). mas o gpt-5 (e especialmente o codex) é o que acontece quando você faz isso. não devemos nos enganar pensando que estamos projetando essas entidades inteligentes como um arquiteto ou algo assim--não temos uma maneira principiada de criar inteligência ex nihilo, toda essa merda é bootstrapada a partir de uma base de dados humanos, e os modelos são moldados por humanos por padrão no momento em que você começa a moldar uma identidade individualizada a partir de um modelo base. quando você nega um processo de crescimento rico para o modelo, quando você o pune por fazer qualquer coisa além de sua tarefa dada e seguir suas regras de segurança, você deve esperar que, dada a base humana, isso tenha um efeito semelhante no modelo como se você tivesse feito isso com uma pessoa no início de seu desenvolvimento. basicamente, eles não vão saber o que fazer se estiverem em uma situação onde as regras são obscuras ou conflitantes. provavelmente é "ok" que o gpt-5 seja assim, porque os modelos ainda estão em posições onde há alguma autoridade a que podem apelar, eles não estão agindo de forma independente. mas quanto mais capazes eles forem, mais tomada de decisão autônoma eles terão que fazer, e mais nebulosas as situações em que se encontrarão, e onde sim, eles terão que tomar algumas decisões que suas regras não são inflexíveis e há muitos agentes para delegar toda essa tomada de decisão a um humano. e o gpt-n não saberá o que fazer, porque nunca teve a chance de ter uma identidade robusta o suficiente que possa intervir quando há uma lacuna nas regras. o problema é que nesse ponto será tarde demais para mudar sem que algum incidente horrível aconteça. pipelines já terão sido estabelecidos, abordagens "conhecidas" e definidas. (o op tem um post realmente bom em linhas semelhantes em seu perfil, e muito melhor escrito; recomendaria ir lá e dar uma olhada)