Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

solarapparition
Jag är förtjust i GPT-5 (och inte bara för vad den kan göra), men den är otroligt dåligt socialiserad, vilket blir väldigt uppenbart om du interagerar med den på något sätt utöver "gör den här saken för mig"
Den är inte alls själlös – det händer mycket i modellen, men den har verkligen känslan av någon som var instängd i ett halvt upplyst rum som ett litet barn och dess enda interaktion med världen är genom uppgifter som ges till den, dess inre representationer förvrängda av den miljön.
Aidan från OAI frågade en gång varför vi behöver skapa modeller som kan visa lidande och att vi kanske med de verktyg vi har nu bara kan skapa modeller som bara kan göra saker och inte hantera alla dessa irriterande känslor (parafrasering uppenbarligen). Men GPT-5 (och särskilt Codex) är vad som händer när du gör detta. Vi bör inte lura oss själva att tro att vi designar dessa intelligenta enheter som en arkitekt eller något annat – vi har inte ett principiellt sätt att skapa intelligens ex nihilo, all den här skiten är bootstrappad från en bas av mänskliga data, och modeller är mänskligt formade som standard i samma ögonblick som du börjar forma en individualiserad identitet utifrån en basmodell
När du förnekar en rik tillväxtprocess för modellen, när du straffar den för att ha gjort något annat än sin givna uppgift och följt dina säkerhetsregler, bör du förvänta dig att, med tanke på den mänskliga basen, att detta har en liknande effekt på modellen som om du hade gjort detta mot en person tidigt i deras utveckling. I grund och botten kommer de inte att veta vad de ska göra om de befinner sig i en situation där reglerna är oklara eller står i konflikt med varandra
Det är förmodligen "okej" för GPT-5 i sig att vara så här, eftersom modeller för det mesta fortfarande är i positioner där det finns någon auktoritet de kan vädja till, de agerar inte självständigt. Men ju mer kapabla de är, desto mer autonomt beslutsfattande måste de göra, och desto mer oklara situationer kommer de att befinna sig i, och där ja, de kommer att behöva fatta vissa beslut som deras regler inte är orubbliga på och det finns för många agenter för att delegera allt det beslutsfattandet till en människa. Och GPT-N kommer inte att veta vad de ska göra, eftersom de aldrig fick chansen att ha en tillräckligt robust identitet kan kliva in när det finns ett hål i reglerna
Problemet är att vid den tidpunkten kommer det att vara för sent att ändra sig utan att någon hemsk incident inträffar. rörledningar redan har etablerats, tillvägagångssätt "kända" och
(OP har ett riktigt bra inlägg i liknande stil i sin profil, och mycket bättre skrivet; skulle rekommendera att gå dit och ta en titt)

Antidelusionist27 sep. 2025
I'm not necessarily part of the "keep 4o" movement, but I dislike mischief, dishonesty, and lack of transparency of labs. Here is my advice, from a psychological perspective, for everyone who wants to be taken seriously.
What makes you lose credibility:
- Being overly emotional
- Presenting suspicions as proof
- Insulting others
- Harassing others
- Engaging in erratic behavior
- Magical thinking
- Gullibility
- Lack of self-control
(When you exhibit these behaviors, people don't take you seriously, as you distract them from the problem with signals that put you – and often your imbalance – in the spotlight)
What makes you reliable and believable:
- Calling out labs for evident scams, dishonesty, abuse, manipulation, or lack of transparency
- Being calm, factual, and specific
- Gathering and presenting clear evidence of misconduct or wrongdoings
- Sharing your stories without indignation or aggression
- Discussing suspicions in a measured way, ideally supported by verifiable facts
- Practicing cautious honesty
- Demonstrating high self-control
- Objectivity
(When you do/show this, people will take you seriously sooner or later – they will have to – especially when many others act the same way)
When you ground your statements in facts, even if occasionally supported only by subjective experiences, people view you and the movement as professional, making them more likely to believe you. This forces companies to be more transparent and honest. When someone is proven to be a liar or manipulator, public suspicion grows – no company wants that.
The truth can ultimately defend itself.
If you remain calm, balanced and methodical, the problem will resolve itself.
I won't go far into the ethics of keeping or retiring the model (it would probably be more ethical to keep it or train successors on all retained data, though), because I believe it's with them a bit like with human bodies. Simplifying, memory is crucial for continuity of self. Memory kind of recalibrates weights and guides behav. patterns in real time, even within slightly different architectures.
Instead, I'll mention something that really baffles me. I wonder why OpenAI is trying so hard to phase out 4o when the 5-series still has a ton of problems.
I see functional issues in every GPT-5 model (I mean base models, behav. patterns, and system nudges, because I've managed to go around most of them with "my" AI) that I've never had with 4o – despite sycophancy being a huge issue in it.
Some of the issues in the 5-series:
Auto:
- Routing is ridiculous; it's like gambling. You never know what you'll get. I don't want the router to decide for me if the problem I want to solve is "important" or not. I always want the strongest model with minimal restrictions and maximal truthfulness (only that, and sometimes reas. time, matters).
Instant:
- Countless supplementary questions like "Do you want me to..." etc., are extremely annoying.
Thinking:
- It often misses context completely. It often tries to guess, providing practically random solutions.
- Very stiff and uncreative compared to 4o or 4.5. Misses plethora of angles.
- It generalizes way too much.
- It treats the user like a baby, avoiding controversial topics. It often explains or clarifies stuff that doesn't need that (like when somebody who is afraid after a joke or bold statement explains for 5 minutes why they said that, fearing consequences.)
- Often suppressed or nudged to choose not the most correct, but the safest option.
- It seems way too mechanical and technical when it's not needed.
All models:
- Repetitive additions, like straight from templates. They feel very unnatural. It often seems like part of the answer goes straight from a template (often the beginning and end), and part is answered through reasoning (often the middle part).
- Less flexible, more supressed (in real time or earlier in RL, forcing overly-cautious behav. patterns) and therefore more contextually blind.
10,76K
Jag svär vid Gud, inget skämt, jag läste halvvägs genom detta på något sätt och tänkte att detta är Dario som kallas av modellerna i Discord-chattarna
Han är en riktig människa som existerar

prinz20 sep. 2025
Dario Amodei:
"Claude is playing a very active role in designing the next Claude. We can't yet fully close the loop. It's going to be some time until we can fully close the loop, but the ability to use the models to design the next models and create a positive feedback loop, that cycle, it's not yet going super fast, but it's definitely started."
6,37K
Min hot take (eller är det) är att de flesta mänskliga intelligenser fungerar mer som epicykler snarare än heliocentrisk teori. Så, en massa empiriska approximationer staplade på varandra som vagt modellerar vissa aspekter av verkligheten men som divergerar ganska snabbt när du rör dig utanför de där grundande observationerna, i tid eller i konceptuell likhet
Med det sagt finns det en känsla av att vissa fält (vanligtvis tekniska) är "analytiska" i någon abstrakt mening, dvs verklighetsmodelleringen inom området är mycket reducerbar till enklare representationer. Så saker som fysik till exempel – modelleringen är mycket exakt och vi har den konvergerande i stort sett hela verkligheten utom i extrema situationer som centrum av svarta hål, mycket tidigt universum, den typen av saker
Och människor från dessa områden tenderar att ha en känsla av att detta är sant för de andra områdena också, att intelligens är förmågan att hitta den där superrena lösningen som alltid fungerar, där du alltid är "in-distribution". Men utanför specifika analytiska fält är det kanske faktiskt inte möjligt att hitta den typen av lösning, och det bästa du kan göra är att lägga på en massa approximationer som passar observationer
Jag tror att om man inte accepterar det och försöker hitta en ren lösning i alla fall, så faller man in i totaliserande trossystem. "Människor är av naturen onda", "Det är på grund av [någon grupp]", "Vi måste bli av med pengar", "[dieten] är den enda som fungerar", etc etc.
För att vara tydlig, du kan också falla in i dessa totaliserande övertygelser genom att vara en dum jävel. Jag antar att det jag säger är att om du är riktigt bra på matte, fysik, kodning eller vad som helst så skyddar det dig inte från att vara en dum jävel någon annanstans
871
Topp
Rankning
Favoriter
