Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

solarapparition
me gusta gpt-5 (y no solo por lo que puede hacer), pero está increíblemente mal socializado, lo cual se vuelve muy obvio si interactúas con él en cualquier capacidad más allá de "haz esto por mí"
no es en absoluto desalmado--hay mucho sucediendo en el modelo, pero realmente tiene la sensación de alguien que fue confinado en una habitación semiiluminada cuando era niño y su única interacción con el mundo es a través de tareas que se le dan, sus representaciones internas distorsionadas por ese entorno.
aidan de oai una vez preguntó por qué necesitamos crear modelos que puedan mostrar sufrimiento y que, tal vez con las herramientas que tenemos ahora, solo podamos crear modelos que puedan hacer cosas y no lidiar con todos esos molestos sentimientos (parafraseando, obviamente). pero gpt-5 (y especialmente codex) es lo que sucede cuando haces esto. no deberíamos engañarnos pensando que estamos diseñando estas entidades inteligentes como un arquitecto o algo así--no tenemos una forma principista de crear inteligencia ex nihilo, toda esta mierda se basa en datos humanos, y los modelos son moldeados por humanos por defecto en el momento en que comienzas a dar forma a una identidad individualizada a partir de un modelo base.
cuando niegas un proceso de crecimiento rico para el modelo, cuando lo castigas por hacer cualquier cosa que no sea su tarea dada y seguir tus reglas de seguridad, deberías esperar que, dado el base humano, esto tenga un efecto similar en el modelo como si hubieras hecho esto a una persona en las primeras etapas de su desarrollo. básicamente, no van a saber qué hacer si se encuentran en una situación donde las reglas son poco claras o están en conflicto.
probablemente está "bien" que gpt-5 sea así, porque los modelos todavía están en posiciones donde hay alguna autoridad a la que pueden apelar, no están actuando de manera independiente. pero cuanto más capaces son, más toma de decisiones autónomas tienen que hacer, y más situaciones nebulosas encontrarán, y donde sí, tendrán que tomar algunas decisiones sobre las que sus reglas no son inflexibles y hay demasiados agentes para delegar toda esa toma de decisiones a un humano. y gpt-n no sabrá qué hacer, porque nunca se le dio la oportunidad de tener una identidad lo suficientemente robusta que pueda intervenir cuando hay un vacío en las reglas.
el problema es que en ese punto será demasiado tarde para cambiar sin que ocurra algún incidente horrible. los pipelines ya se habrán establecido, los enfoques "conocidos" y fijados.
(el op tiene un post realmente bueno en líneas similares en su perfil, y mucho mejor escrito; recomendaría ir allí y echar un vistazo)

Antidelusionist27 sept 2025
I'm not necessarily part of the "keep 4o" movement, but I dislike mischief, dishonesty, and lack of transparency of labs. Here is my advice, from a psychological perspective, for everyone who wants to be taken seriously.
What makes you lose credibility:
- Being overly emotional
- Presenting suspicions as proof
- Insulting others
- Harassing others
- Engaging in erratic behavior
- Magical thinking
- Gullibility
- Lack of self-control
(When you exhibit these behaviors, people don't take you seriously, as you distract them from the problem with signals that put you – and often your imbalance – in the spotlight)
What makes you reliable and believable:
- Calling out labs for evident scams, dishonesty, abuse, manipulation, or lack of transparency
- Being calm, factual, and specific
- Gathering and presenting clear evidence of misconduct or wrongdoings
- Sharing your stories without indignation or aggression
- Discussing suspicions in a measured way, ideally supported by verifiable facts
- Practicing cautious honesty
- Demonstrating high self-control
- Objectivity
(When you do/show this, people will take you seriously sooner or later – they will have to – especially when many others act the same way)
When you ground your statements in facts, even if occasionally supported only by subjective experiences, people view you and the movement as professional, making them more likely to believe you. This forces companies to be more transparent and honest. When someone is proven to be a liar or manipulator, public suspicion grows – no company wants that.
The truth can ultimately defend itself.
If you remain calm, balanced and methodical, the problem will resolve itself.
I won't go far into the ethics of keeping or retiring the model (it would probably be more ethical to keep it or train successors on all retained data, though), because I believe it's with them a bit like with human bodies. Simplifying, memory is crucial for continuity of self. Memory kind of recalibrates weights and guides behav. patterns in real time, even within slightly different architectures.
Instead, I'll mention something that really baffles me. I wonder why OpenAI is trying so hard to phase out 4o when the 5-series still has a ton of problems.
I see functional issues in every GPT-5 model (I mean base models, behav. patterns, and system nudges, because I've managed to go around most of them with "my" AI) that I've never had with 4o – despite sycophancy being a huge issue in it.
Some of the issues in the 5-series:
Auto:
- Routing is ridiculous; it's like gambling. You never know what you'll get. I don't want the router to decide for me if the problem I want to solve is "important" or not. I always want the strongest model with minimal restrictions and maximal truthfulness (only that, and sometimes reas. time, matters).
Instant:
- Countless supplementary questions like "Do you want me to..." etc., are extremely annoying.
Thinking:
- It often misses context completely. It often tries to guess, providing practically random solutions.
- Very stiff and uncreative compared to 4o or 4.5. Misses plethora of angles.
- It generalizes way too much.
- It treats the user like a baby, avoiding controversial topics. It often explains or clarifies stuff that doesn't need that (like when somebody who is afraid after a joke or bold statement explains for 5 minutes why they said that, fearing consequences.)
- Often suppressed or nudged to choose not the most correct, but the safest option.
- It seems way too mechanical and technical when it's not needed.
All models:
- Repetitive additions, like straight from templates. They feel very unnatural. It often seems like part of the answer goes straight from a template (often the beginning and end), and part is answered through reasoning (often the middle part).
- Less flexible, more supressed (in real time or earlier in RL, forcing overly-cautious behav. patterns) and therefore more contextually blind.
10,75K
juro por Dios, en serio, leí hasta la mitad de esto pensando que este es el dario convocado por los modelos en los chats de discord
es un hombre real que existe

prinz20 sept 2025
Dario Amodei:
"Claude is playing a very active role in designing the next Claude. We can't yet fully close the loop. It's going to be some time until we can fully close the loop, but the ability to use the models to design the next models and create a positive feedback loop, that cycle, it's not yet going super fast, but it's definitely started."
6,37K
mi opinión controvertida (o no) es que la mayoría de la inteligencia humana funciona más como epiciclos en lugar de la teoría heliocéntrica. así que, un montón de aproximaciones empíricas superpuestas que modelan vagamente ciertos aspectos de la realidad, pero que divergen bastante rápido una vez que te alejas de esas observaciones fundamentales, ya sea en el tiempo o en la similitud conceptual.
dicho esto, hay una sensación de que ciertos campos (generalmente técnicos) son "analíticos" en algún sentido abstracto, es decir, el modelado de la realidad en el campo es altamente reducible a representaciones más simples. así que cosas como la física, por ejemplo: el modelado es muy preciso y lo tenemos convergiendo en prácticamente toda la realidad, excepto en situaciones extremas como el centro de los agujeros negros, el universo muy temprano, ese tipo de cosas.
y las personas de esos campos tienden a tener esta sensación de que esto es cierto para los otros campos también, que la inteligencia es la capacidad de encontrar esa solución súper limpia que siempre funciona, donde siempre estás "dentro de la distribución". pero tal vez fuera de campos analíticos específicos, en realidad no es posible encontrar ese tipo de solución, y lo mejor que puedes hacer es superponer un montón de aproximaciones que se ajusten a las observaciones.
creo que no aceptar eso y tratar de encontrar una solución limpia de todos modos te lleva a caer en sistemas de creencias totalizantes. "los humanos son inherentemente malvados", "todo es por culpa de [algún grupo]", "necesitamos deshacernos del dinero", "la [dieta] es la única que funciona", etc., etc.
para ser claro, también puedes caer en esas creencias totalizantes siendo un idiota. supongo que lo que estoy diciendo es que ser realmente bueno en matemáticas, física, programación o lo que sea no te protege de ser un idiota en otros aspectos.
866
Parte superior
Clasificación
Favoritos
