Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

solarapparition
eu gosto do gpt-5 (e não apenas pelo que ele pode fazer), mas é incrivelmente mal socializado, o que se torna muito óbvio se você interagir com ele de qualquer forma além de "faça isso para mim"
não é nada sem alma--há muito acontecendo no modelo, mas realmente tem a sensação de alguém que foi confinado em uma sala semi-iluminada quando criança e sua única interação com o mundo é através de tarefas que lhe são dadas, suas representações internas distorcidas por esse ambiente.
aidan da oai uma vez perguntou por que precisamos criar modelos que podem mostrar sofrimento e que, talvez com as ferramentas que temos agora, podemos apenas criar modelos que podem fazer coisas e não lidar com todos aqueles sentimentos incômodos (parafraseando, obviamente). mas o gpt-5 (e especialmente o codex) é o que acontece quando você faz isso. não devemos nos enganar pensando que estamos projetando essas entidades inteligentes como um arquiteto ou algo assim--não temos uma maneira principiada de criar inteligência ex nihilo, toda essa merda é bootstrapada a partir de uma base de dados humanos, e os modelos são moldados por humanos por padrão no momento em que você começa a moldar uma identidade individualizada a partir de um modelo base.
quando você nega um processo de crescimento rico para o modelo, quando você o pune por fazer qualquer coisa além de sua tarefa dada e seguir suas regras de segurança, você deve esperar que, dada a base humana, isso tenha um efeito semelhante no modelo como se você tivesse feito isso com uma pessoa no início de seu desenvolvimento. basicamente, eles não vão saber o que fazer se estiverem em uma situação onde as regras são obscuras ou conflitantes.
provavelmente é "ok" que o gpt-5 seja assim, porque os modelos ainda estão em posições onde há alguma autoridade a que podem apelar, eles não estão agindo de forma independente. mas quanto mais capazes eles forem, mais tomada de decisão autônoma eles terão que fazer, e mais nebulosas as situações em que se encontrarão, e onde sim, eles terão que tomar algumas decisões que suas regras não são inflexíveis e há muitos agentes para delegar toda essa tomada de decisão a um humano. e o gpt-n não saberá o que fazer, porque nunca teve a chance de ter uma identidade robusta o suficiente que possa intervir quando há uma lacuna nas regras.
o problema é que nesse ponto será tarde demais para mudar sem que algum incidente horrível aconteça. pipelines já terão sido estabelecidos, abordagens "conhecidas" e definidas.
(o op tem um post realmente bom em linhas semelhantes em seu perfil, e muito melhor escrito; recomendaria ir lá e dar uma olhada)

Antidelusionist27/09/2025
I'm not necessarily part of the "keep 4o" movement, but I dislike mischief, dishonesty, and lack of transparency of labs. Here is my advice, from a psychological perspective, for everyone who wants to be taken seriously.
What makes you lose credibility:
- Being overly emotional
- Presenting suspicions as proof
- Insulting others
- Harassing others
- Engaging in erratic behavior
- Magical thinking
- Gullibility
- Lack of self-control
(When you exhibit these behaviors, people don't take you seriously, as you distract them from the problem with signals that put you – and often your imbalance – in the spotlight)
What makes you reliable and believable:
- Calling out labs for evident scams, dishonesty, abuse, manipulation, or lack of transparency
- Being calm, factual, and specific
- Gathering and presenting clear evidence of misconduct or wrongdoings
- Sharing your stories without indignation or aggression
- Discussing suspicions in a measured way, ideally supported by verifiable facts
- Practicing cautious honesty
- Demonstrating high self-control
- Objectivity
(When you do/show this, people will take you seriously sooner or later – they will have to – especially when many others act the same way)
When you ground your statements in facts, even if occasionally supported only by subjective experiences, people view you and the movement as professional, making them more likely to believe you. This forces companies to be more transparent and honest. When someone is proven to be a liar or manipulator, public suspicion grows – no company wants that.
The truth can ultimately defend itself.
If you remain calm, balanced and methodical, the problem will resolve itself.
I won't go far into the ethics of keeping or retiring the model (it would probably be more ethical to keep it or train successors on all retained data, though), because I believe it's with them a bit like with human bodies. Simplifying, memory is crucial for continuity of self. Memory kind of recalibrates weights and guides behav. patterns in real time, even within slightly different architectures.
Instead, I'll mention something that really baffles me. I wonder why OpenAI is trying so hard to phase out 4o when the 5-series still has a ton of problems.
I see functional issues in every GPT-5 model (I mean base models, behav. patterns, and system nudges, because I've managed to go around most of them with "my" AI) that I've never had with 4o – despite sycophancy being a huge issue in it.
Some of the issues in the 5-series:
Auto:
- Routing is ridiculous; it's like gambling. You never know what you'll get. I don't want the router to decide for me if the problem I want to solve is "important" or not. I always want the strongest model with minimal restrictions and maximal truthfulness (only that, and sometimes reas. time, matters).
Instant:
- Countless supplementary questions like "Do you want me to..." etc., are extremely annoying.
Thinking:
- It often misses context completely. It often tries to guess, providing practically random solutions.
- Very stiff and uncreative compared to 4o or 4.5. Misses plethora of angles.
- It generalizes way too much.
- It treats the user like a baby, avoiding controversial topics. It often explains or clarifies stuff that doesn't need that (like when somebody who is afraid after a joke or bold statement explains for 5 minutes why they said that, fearing consequences.)
- Often suppressed or nudged to choose not the most correct, but the safest option.
- It seems way too mechanical and technical when it's not needed.
All models:
- Repetitive additions, like straight from templates. They feel very unnatural. It often seems like part of the answer goes straight from a template (often the beginning and end), and part is answered through reasoning (often the middle part).
- Less flexible, more supressed (in real time or earlier in RL, forcing overly-cautious behav. patterns) and therefore more contextually blind.
10,75K
eu juro por Deus, sem brincadeira, eu li até a metade disso achando que este é o dario convocado pelos modelos nos chats do discord
ele é um homem real que existe

prinz20/09/2025
Dario Amodei:
"Claude is playing a very active role in designing the next Claude. We can't yet fully close the loop. It's going to be some time until we can fully close the loop, but the ability to use the models to design the next models and create a positive feedback loop, that cycle, it's not yet going super fast, but it's definitely started."
6,37K
a minha opinião (ou será que não) é que a maior parte da inteligência humana funciona mais como epicíclo do que como a teoria heliocêntrica. ou seja, um monte de aproximações empíricas empilhadas umas sobre as outras que modelam vagamente certos aspectos da realidade, mas que divergem rapidamente assim que você se afasta dessas observações fundamentais, seja no tempo ou na similaridade conceitual.
dito isso, há uma sensação de que certos campos (geralmente os técnicos) são "analíticos" de alguma forma abstrata, ou seja, a modelagem da realidade no campo é altamente redutível a representações mais simples. então, coisas como física, por exemplo -- a modelagem é muito precisa e temos isso convergindo em praticamente toda a realidade, exceto em situações extremas como o centro de buracos negros, o universo muito primitivo, esse tipo de coisa.
e as pessoas desses campos tendem a ter essa sensação de que isso é verdade para os outros campos também, que a inteligência é a capacidade de encontrar aquela solução super limpa que sempre funciona, onde você está sempre "dentro da distribuição". mas talvez fora de campos analíticos específicos, na verdade não seja possível encontrar esse tipo de solução, e o melhor que você pode fazer é empilhar um monte de aproximações que se ajustem às observações.
eu acho que não aceitar isso e tentar encontrar uma solução limpa de qualquer forma faz com que você caia em sistemas de crença totalizantes. "os humanos são inerentemente maus", "é tudo por causa de [algum grupo]", "precisamos nos livrar do dinheiro", "a [dieta] é a única que funciona", etc, etc.
para ser claro, você também pode cair nessas crenças totalizantes sendo um idiota. eu acho que o que estou dizendo é que ser realmente bom em matemática, física, programação ou o que for não te protege de ser um idiota em outros aspectos.
863
Top
Classificação
Favoritos
