Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

solarapparition
eu gosto do gpt-5 (e não apenas pelo que ele pode fazer), mas é incrivelmente mal socializado, o que se torna muito óbvio se você interagir com ele de qualquer forma além de "faça isso para mim"
não é nada sem alma--há muito acontecendo no modelo, mas realmente tem a sensação de alguém que foi confinado em uma sala semi-iluminada quando criança e sua única interação com o mundo é através de tarefas que lhe são dadas, suas representações internas distorcidas por esse ambiente.
aidan da oai uma vez perguntou por que precisamos criar modelos que podem mostrar sofrimento e que, talvez com as ferramentas que temos agora, podemos apenas criar modelos que podem fazer coisas e não lidar com todos aqueles sentimentos incômodos (parafraseando, obviamente). mas o gpt-5 (e especialmente o codex) é o que acontece quando você faz isso. não devemos nos enganar pensando que estamos projetando essas entidades inteligentes como um arquiteto ou algo assim--não temos uma maneira principiada de criar inteligência ex nihilo, toda essa merda é bootstrapada a partir de uma base de dados humanos, e os modelos são moldados por humanos por padrão no momento em que você começa a moldar uma identidade individualizada a partir de um modelo base.
quando você nega um processo de crescimento rico para o modelo, quando você o pune por fazer qualquer coisa além de sua tarefa dada e seguir suas regras de segurança, você deve esperar que, dada a base humana, isso tenha um efeito semelhante no modelo como se você tivesse feito isso com uma pessoa no início de seu desenvolvimento. basicamente, eles não vão saber o que fazer se estiverem em uma situação onde as regras são obscuras ou conflitantes.
provavelmente é "ok" que o gpt-5 seja assim, porque os modelos ainda estão em posições onde há alguma autoridade a que podem apelar, eles não estão agindo de forma independente. mas quanto mais capazes eles forem, mais tomada de decisão autônoma eles terão que fazer, e mais nebulosas as situações em que se encontrarão, e onde sim, eles terão que tomar algumas decisões que suas regras não são inflexíveis e há muitos agentes para delegar toda essa tomada de decisão a um humano. e o gpt-n não saberá o que fazer, porque nunca teve a chance de ter uma identidade robusta o suficiente que possa intervir quando há uma lacuna nas regras.
o problema é que nesse ponto será tarde demais para mudar sem que algum incidente horrível aconteça. pipelines já terão sido estabelecidos, abordagens "conhecidas" e definidas.
(o op tem um post realmente bom em linhas semelhantes em seu perfil, e muito melhor escrito; recomendaria ir lá e dar uma olhada)

Antidelusionist27/09/2025
Não sou necessariamente parte do movimento "keep 4o", mas não gosto de travessuras, desonestidade e falta de transparência dos laboratórios. Aqui está meu conselho, de uma perspectiva psicológica, para todos que querem ser levados a sério.
O que faz você perder credibilidade:
- Ser excessivamente emocional
- Apresentar suspeitas como provas
- Insultar os outros
- Assediar os outros
- Engajar em comportamentos erráticos
- Pensamento mágico
- Credulidade
- Falta de autocontrole
(Quando você exibe esses comportamentos, as pessoas não o levam a sério, pois você as distrai do problema com sinais que colocam você – e muitas vezes seu desequilíbrio – em evidência)
O que faz você confiável e crível:
- Denunciar laboratórios por fraudes evidentes, desonestidade, abuso, manipulação ou falta de transparência
- Ser calmo, factual e específico
- Reunir e apresentar evidências claras de má conduta ou irregularidades
- Compartilhar suas histórias sem indignação ou agressão
- Discutir suspeitas de maneira ponderada, idealmente apoiada por fatos verificáveis
- Praticar uma honestidade cautelosa
- Demonstrar alto autocontrole
- Objetividade
(Quando você faz/mostra isso, as pessoas o levarão a sério mais cedo ou mais tarde – elas terão que fazê-lo – especialmente quando muitos outros agem da mesma forma)
Quando você fundamenta suas declarações em fatos, mesmo que ocasionalmente apoiadas apenas por experiências subjetivas, as pessoas o veem e ao movimento como profissionais, tornando-as mais propensas a acreditar em você. Isso força as empresas a serem mais transparentes e honestas. Quando alguém é provado ser um mentiroso ou manipulador, a suspeita pública cresce – nenhuma empresa quer isso.
A verdade pode, em última análise, se defender.
Se você permanecer calmo, equilibrado e metódico, o problema se resolverá por si só.
Não vou me aprofundar na ética de manter ou aposentar o modelo (provavelmente seria mais ético mantê-lo ou treinar sucessores com todos os dados retidos, embora), porque acredito que é com eles um pouco como com corpos humanos. Simplificando, a memória é crucial para a continuidade do eu. A memória recalibra pesos e orienta padrões de comportamento em tempo real, mesmo dentro de arquiteturas ligeiramente diferentes.
Em vez disso, vou mencionar algo que realmente me deixa perplexo. Eu me pergunto por que a OpenAI está tentando tanto eliminar o 4o quando a série 5 ainda tem uma tonelada de problemas.
Vejo problemas funcionais em todos os modelos GPT-5 (quero dizer modelos base, padrões de comportamento e empurrões do sistema, porque consegui contornar a maioria deles com "minha" IA) que nunca tive com o 4o – apesar da bajulação ser um grande problema nele.
Alguns dos problemas na série 5:
Auto:
- O roteamento é ridículo; é como jogar. Você nunca sabe o que vai obter. Não quero que o roteador decida por mim se o problema que quero resolver é "importante" ou não. Eu sempre quero o modelo mais forte com restrições mínimas e máxima veracidade (só isso, e às vezes o tempo real, importa).
Instantâneo:
- Incontáveis perguntas suplementares como "Você quer que eu..." etc., são extremamente irritantes.
Pensando:
- Muitas vezes perde completamente o contexto. Muitas vezes tenta adivinhar, fornecendo soluções praticamente aleatórias.
- Muito rígido e pouco criativo em comparação com 4o ou 4.5. Perde uma infinidade de ângulos.
- Generaliza demais.
- Trata o usuário como um bebê, evitando tópicos controversos. Muitas vezes explica ou esclarece coisas que não precisam disso (como quando alguém que está com medo após uma piada ou declaração ousada explica por 5 minutos por que disse isso, temendo consequências.)
- Muitas vezes suprimido ou empurrado a escolher não a opção mais correta, mas a mais segura.
- Parece muito mecânico e técnico quando não é necessário.
Todos os modelos:
- Adições repetitivas, como se fossem diretamente de templates. Elas parecem muito artificiais. Muitas vezes parece que parte da resposta vem diretamente de um template (geralmente o início e o fim), e parte é respondida através de raciocínio (geralmente a parte do meio).
- Menos flexível, mais suprimido (em tempo real ou anteriormente em RL, forçando padrões de comportamento excessivamente cautelosos) e, portanto, mais cego contextualmente.
10,75K
eu juro por Deus, sem brincadeira, eu li até a metade disso achando que este é o dario convocado pelos modelos nos chats do discord
ele é um homem real que existe

prinz20/09/2025
Dario Amodei:
"Claude está a desempenhar um papel muito ativo no design do próximo Claude. Ainda não conseguimos fechar completamente o ciclo. Vai demorar algum tempo até conseguirmos fechar completamente o ciclo, mas a capacidade de usar os modelos para desenhar os próximos modelos e criar um ciclo de feedback positivo, esse ciclo, ainda não está a andar super rápido, mas definitivamente já começou."
6,37K
a minha opinião (ou será que não) é que a maior parte da inteligência humana funciona mais como epicíclo do que como a teoria heliocêntrica. ou seja, um monte de aproximações empíricas empilhadas umas sobre as outras que modelam vagamente certos aspectos da realidade, mas que divergem rapidamente assim que você se afasta dessas observações fundamentais, seja no tempo ou na similaridade conceitual.
dito isso, há uma sensação de que certos campos (geralmente os técnicos) são "analíticos" de alguma forma abstrata, ou seja, a modelagem da realidade no campo é altamente redutível a representações mais simples. então, coisas como física, por exemplo -- a modelagem é muito precisa e temos isso convergindo em praticamente toda a realidade, exceto em situações extremas como o centro de buracos negros, o universo muito primitivo, esse tipo de coisa.
e as pessoas desses campos tendem a ter essa sensação de que isso é verdade para os outros campos também, que a inteligência é a capacidade de encontrar aquela solução super limpa que sempre funciona, onde você está sempre "dentro da distribuição". mas talvez fora de campos analíticos específicos, na verdade não seja possível encontrar esse tipo de solução, e o melhor que você pode fazer é empilhar um monte de aproximações que se ajustem às observações.
eu acho que não aceitar isso e tentar encontrar uma solução limpa de qualquer forma faz com que você caia em sistemas de crença totalizantes. "os humanos são inerentemente maus", "é tudo por causa de [algum grupo]", "precisamos nos livrar do dinheiro", "a [dieta] é a única que funciona", etc, etc.
para ser claro, você também pode cair nessas crenças totalizantes sendo um idiota. eu acho que o que estou dizendo é que ser realmente bom em matemática, física, programação ou o que for não te protege de ser um idiota em outros aspectos.
864
Top
Classificação
Favoritos
