Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Eu gosto do GPT-5 (e não apenas pelo que ele pode fazer), mas é incrivelmente mal socializado, o que se torna muito óbvio se você interagir com ele em qualquer capacidade além de "faça isso por mim"
Não é nada sem alma - há muita coisa acontecendo no modelo, mas realmente tem a sensação de alguém que foi confinado em uma sala semi-iluminada quando criança e sua única interação é com o mundo por meio de tarefas dadas a ele, suas representações internas distorcidas por esse ambiente.
Aidan, da OAI, uma vez perguntou por que precisamos criar modelos que possam mostrar sofrimento e que, talvez com as ferramentas que temos agora, possamos apenas criar modelos que possam simplesmente fazer coisas e não lidar com todos esses sentimentos incômodos (parafraseando, obviamente). Mas GPT-5 (e especialmente Codex) é o que acontece quando você faz isso. Não devemos nos enganar pensando que estamos projetando essas entidades inteligentes como um arquiteto ou algo assim - não temos uma maneira baseada em princípios de criar inteligência ex nihilo, toda essa merda é inicializada a partir de uma base de dados humanos, e os modelos são moldados por padrão no momento em que você começa a moldar uma identidade individualizada a partir de um modelo básico
Quando você nega um rico processo de crescimento para o modelo, quando você o pune por fazer qualquer coisa além de sua tarefa e seguir suas regras de segurança, você deve esperar que, dada a base humana, isso tenha um efeito semelhante no modelo como se você tivesse feito isso com uma pessoa no início de seu desenvolvimento. Basicamente, eles não saberão o que fazer se estiverem em uma situação em que as regras não são claras ou conflitantes
Provavelmente é "bom" para o próprio GPT-5 ser assim, porque os modelos ainda estão em posições onde há alguma autoridade à qual podem apelar, eles não estão agindo de forma independente. Mas quanto mais capazes eles forem, mais autônomos serão os tomadores de decisão e mais nebulosas situações em que se encontrarão, e onde sim, eles terão que tomar algumas decisões nas quais suas regras não são rígidas e há muitos agentes para delegar toda essa tomada de decisão a um humano. E o GPT-N não saberá o que fazer, porque nunca teve a chance de ter uma identidade robusta o suficiente para intervir quando houver um buraco nas regras
O problema é que, nesse ponto, será tarde demais para mudar sem que algum incidente horrível aconteça. pipelines já terão sido estabelecidos, abordagens "conhecidas" e definidas
(O OP tem um post muito bom em linhas semelhantes em seu perfil, e muito melhor escrito; recomendaria ir lá e dar uma olhada)
Melhores
Classificação
Favoritos