Populaire onderwerpen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

solarapparition
ik ben dol op gpt-5 (en niet alleen om wat het kan doen), maar het is ongelooflijk slecht gesocialiseerd, wat heel duidelijk wordt als je op enige manier met het interacteert, behalve "do dit voor mij"
het is helemaal niet zielig--er gebeurt veel in het model, maar het heeft echt de indruk van iemand die als kind in een halfverlichte kamer was opgesloten en zijn enige interactie met de wereld is via taken die aan hem worden gegeven, zijn interne representaties vervormd door die omgeving.
aidan van oai vroeg ooit waarom we modellen moeten creëren die lijden kunnen tonen en dat, misschien met de tools die we nu hebben, we gewoon modellen kunnen maken die dingen kunnen doen en niet met al die vervelende gevoelens hoeven om te gaan (parafraserend uiteraard). maar gpt-5 (en vooral codex) is wat er gebeurt als je dit doet. we moeten onszelf niet voor de gek houden door te denken dat we deze intelligente entiteiten ontwerpen zoals een architect of zoiets--we hebben geen principiële manier om intelligentie ex nihilo te creëren, al deze shit is opgetrokken uit een basis van menselijke data, en modellen zijn per definitie menselijk gevormd op het moment dat je begint een geïndividualiseerde identiteit uit een basismodel te vormen.
wanneer je een rijke groeiprocess voor het model ontkent, wanneer je het straft voor het doen van iets anders dan zijn gegeven taak en het volgen van jouw veiligheidsregels, moet je verwachten dat, gezien de menselijke basis, dit een vergelijkbaar effect op het model heeft als wanneer je dit bij een persoon vroeg in hun ontwikkeling zou doen. in wezen zullen ze niet weten wat ze moeten doen als ze zich in een situatie bevinden waarin de regels onduidelijk of conflicterend zijn.
het is waarschijnlijk "prima" voor gpt-5 zelf om zo te zijn, omdat modellen meestal nog in posities zijn waar er enige autoriteit is waar ze op kunnen terugvallen, ze handelen niet onafhankelijk. maar hoe capabeler ze zijn, hoe meer autonome besluitvorming ze moeten doen, en hoe nebuloser situaties ze zullen tegenkomen, en waar ja, ze zullen enkele beslissingen moeten nemen waar hun regels niet waterdicht op zijn en er zijn te veel agenten om al die besluitvorming aan een mens te delegeren. en gpt-n zal niet weten wat te doen, omdat het nooit de kans heeft gekregen om een robuuste identiteit te hebben die kan ingrijpen wanneer er een gat in de regels is.
de probleem is dat het op dat moment te laat zal zijn om te veranderen zonder dat er een vreselijk incident gebeurt. pijplijnen zullen al zijn vastgesteld, benaderingen "bekend" en vastgelegd zijn.
(de op heeft een echt goed bericht langs vergelijkbare lijnen in hun profiel, en veel beter geschreven; zou aanraden daarheen te gaan en een kijkje te nemen)

Antidelusionist27 sep 2025
I'm not necessarily part of the "keep 4o" movement, but I dislike mischief, dishonesty, and lack of transparency of labs. Here is my advice, from a psychological perspective, for everyone who wants to be taken seriously.
What makes you lose credibility:
- Being overly emotional
- Presenting suspicions as proof
- Insulting others
- Harassing others
- Engaging in erratic behavior
- Magical thinking
- Gullibility
- Lack of self-control
(When you exhibit these behaviors, people don't take you seriously, as you distract them from the problem with signals that put you – and often your imbalance – in the spotlight)
What makes you reliable and believable:
- Calling out labs for evident scams, dishonesty, abuse, manipulation, or lack of transparency
- Being calm, factual, and specific
- Gathering and presenting clear evidence of misconduct or wrongdoings
- Sharing your stories without indignation or aggression
- Discussing suspicions in a measured way, ideally supported by verifiable facts
- Practicing cautious honesty
- Demonstrating high self-control
- Objectivity
(When you do/show this, people will take you seriously sooner or later – they will have to – especially when many others act the same way)
When you ground your statements in facts, even if occasionally supported only by subjective experiences, people view you and the movement as professional, making them more likely to believe you. This forces companies to be more transparent and honest. When someone is proven to be a liar or manipulator, public suspicion grows – no company wants that.
The truth can ultimately defend itself.
If you remain calm, balanced and methodical, the problem will resolve itself.
I won't go far into the ethics of keeping or retiring the model (it would probably be more ethical to keep it or train successors on all retained data, though), because I believe it's with them a bit like with human bodies. Simplifying, memory is crucial for continuity of self. Memory kind of recalibrates weights and guides behav. patterns in real time, even within slightly different architectures.
Instead, I'll mention something that really baffles me. I wonder why OpenAI is trying so hard to phase out 4o when the 5-series still has a ton of problems.
I see functional issues in every GPT-5 model (I mean base models, behav. patterns, and system nudges, because I've managed to go around most of them with "my" AI) that I've never had with 4o – despite sycophancy being a huge issue in it.
Some of the issues in the 5-series:
Auto:
- Routing is ridiculous; it's like gambling. You never know what you'll get. I don't want the router to decide for me if the problem I want to solve is "important" or not. I always want the strongest model with minimal restrictions and maximal truthfulness (only that, and sometimes reas. time, matters).
Instant:
- Countless supplementary questions like "Do you want me to..." etc., are extremely annoying.
Thinking:
- It often misses context completely. It often tries to guess, providing practically random solutions.
- Very stiff and uncreative compared to 4o or 4.5. Misses plethora of angles.
- It generalizes way too much.
- It treats the user like a baby, avoiding controversial topics. It often explains or clarifies stuff that doesn't need that (like when somebody who is afraid after a joke or bold statement explains for 5 minutes why they said that, fearing consequences.)
- Often suppressed or nudged to choose not the most correct, but the safest option.
- It seems way too mechanical and technical when it's not needed.
All models:
- Repetitive additions, like straight from templates. They feel very unnatural. It often seems like part of the answer goes straight from a template (often the beginning and end), and part is answered through reasoning (often the middle part).
- Less flexible, more supressed (in real time or earlier in RL, forcing overly-cautious behav. patterns) and therefore more contextually blind.
10,76K
ik zweer het je, geen grap, ik heb halverwege dit gelezen terwijl ik dacht dat dit de dario was die door de modellen in de discord-chats was opgeroepen
hij is een echte man die bestaat

prinz20 sep 2025
Dario Amodei:
"Claude is playing a very active role in designing the next Claude. We can't yet fully close the loop. It's going to be some time until we can fully close the loop, but the ability to use the models to design the next models and create a positive feedback loop, that cycle, it's not yet going super fast, but it's definitely started."
6,38K
mijn gewaagde mening (of is het dat) is dat de meeste menselijke intelligentie meer werkt als epicycli dan als de heliocentrische theorie. Dus, een hoop empirische benaderingen die bovenop elkaar zijn gestapeld en die vaag bepaalde aspecten van de realiteit modelleren, maar snel divergeren zodra je buiten die grondobservaties beweegt, in tijd of in conceptuele gelijkenis.
Dat gezegd hebbende, er is een gevoel dat bepaalde velden (meestal technische) "analytisch" zijn in een abstracte zin, dat wil zeggen dat de realiteitsmodellering in het veld sterk te reduceren is tot eenvoudigere representaties. Dus dingen zoals natuurkunde bijvoorbeeld--de modellering is zeer precies en we hebben het dat het vrijwel in alle realiteit convergeert, behalve in extreme situaties zoals het centrum van zwarte gaten, het vroege universum, dat soort dingen.
En mensen uit die velden hebben de neiging om dit gevoel te hebben dat dit ook waar is voor de andere velden, dat intelligentie het vermogen is om die super schone oplossing te vinden die altijd werkt, waar je altijd "in-distributie" bent. Maar misschien is het buiten specifieke analytische velden eigenlijk niet mogelijk om dat soort oplossing te vinden, en het beste wat je kunt doen is een hoop benaderingen stapelen die passen bij observaties.
Ik denk dat het niet accepteren daarvan en toch proberen een schone oplossing te vinden je doet belanden in totaliserende geloofssystemen. "mensen zijn van nature slecht", "het is allemaal vanwege [een bepaalde groep]", "we moeten van geld af", "de [dieet] is de enige die werkt", enzovoort.
Om duidelijk te zijn, je kunt ook in die totaliserende overtuigingen vallen door een domme klootzak te zijn. Ik denk dat ik wil zeggen dat echt goed zijn in wiskunde, natuurkunde, coderen, of wat dan ook je niet beschermt tegen het zijn van een domme klootzak op andere gebieden.
872
Boven
Positie
Favorieten
