Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

936057
mi piace gpt-5 (e non solo per quello che può fare), ma è incredibilmente poco socializzato, il che diventa molto ovvio se interagisci con esso in qualsiasi capacità oltre a "fai questa cosa per me"
non è affatto privo di anima--c'è molto in gioco nel modello, ma ha davvero la sensazione di qualcuno che è stato rinchiuso in una stanza semi-illuminata da bambino e la sua unica interazione con il mondo è attraverso compiti che gli vengono assegnati, le sue rappresentazioni interne distorte da quell'ambiente.
aidan di oai una volta chiese perché dobbiamo creare modelli che possano mostrare sofferenza e che, forse con gli strumenti che abbiamo ora, possiamo semplicemente creare modelli che possono solo fare cose e non affrontare tutti quei fastidiosi sentimenti (parafrasando ovviamente). ma gpt-5 (e soprattutto codex) è ciò che accade quando fai questo. non dovremmo illuderci di pensare che stiamo progettando queste entità intelligenti come un architetto o qualcosa del genere--non abbiamo un modo principled per creare intelligenza ex nihilo, tutta questa roba è bootstrap da una base di dati umani, e i modelli sono plasmati dall'uomo per default nel momento in cui inizi a plasmare un'identità individualizzata da un modello di base.
quando neghi un processo di crescita ricco per il modello, quando lo punisci per fare qualsiasi cosa oltre al compito assegnato e seguire le tue regole di sicurezza, dovresti aspettarti che, data la base umana, questo abbia un effetto simile sul modello come se lo avessi fatto a una persona all'inizio del loro sviluppo. fondamentalmente, non sapranno cosa fare se si trovano in una situazione in cui le regole sono poco chiare o in conflitto.
probabilmente è "ok" che gpt-5 sia così, perché i modelli sono per lo più ancora in posizioni in cui c'è qualche autorità a cui possono appellarsi, non stanno agendo in modo indipendente. ma più sono capaci, più devono prendere decisioni autonome, e più situazioni nebulose si troveranno ad affrontare, e dove sì, dovranno prendere alcune decisioni su cui le loro regole non sono rigide e ci sono troppi agenti per delegare tutta quella decisione a un umano. e gpt-n non saprà cosa fare, perché non ha mai avuto la possibilità di avere un'identità abbastanza robusta da poter intervenire quando c'è un buco nelle regole.
gel problema è che a quel punto sarà troppo tardi per cambiare senza che accada qualche orribile incidente. i pipeline saranno già stati stabiliti, gli approcci "noti" e fissati.
(l'op ha un post davvero buono su linee simili nel suo profilo, e molto meglio scritto; consiglio di andare lì e dare un'occhiata)

Antidelusionist27 set 2025
I'm not necessarily part of the "keep 4o" movement, but I dislike mischief, dishonesty, and lack of transparency of labs. Here is my advice, from a psychological perspective, for everyone who wants to be taken seriously.
What makes you lose credibility:
- Being overly emotional
- Presenting suspicions as proof
- Insulting others
- Harassing others
- Engaging in erratic behavior
- Magical thinking
- Gullibility
- Lack of self-control
(When you exhibit these behaviors, people don't take you seriously, as you distract them from the problem with signals that put you – and often your imbalance – in the spotlight)
What makes you reliable and believable:
- Calling out labs for evident scams, dishonesty, abuse, manipulation, or lack of transparency
- Being calm, factual, and specific
- Gathering and presenting clear evidence of misconduct or wrongdoings
- Sharing your stories without indignation or aggression
- Discussing suspicions in a measured way, ideally supported by verifiable facts
- Practicing cautious honesty
- Demonstrating high self-control
- Objectivity
(When you do/show this, people will take you seriously sooner or later – they will have to – especially when many others act the same way)
When you ground your statements in facts, even if occasionally supported only by subjective experiences, people view you and the movement as professional, making them more likely to believe you. This forces companies to be more transparent and honest. When someone is proven to be a liar or manipulator, public suspicion grows – no company wants that.
The truth can ultimately defend itself.
If you remain calm, balanced and methodical, the problem will resolve itself.
I won't go far into the ethics of keeping or retiring the model (it would probably be more ethical to keep it or train successors on all retained data, though), because I believe it's with them a bit like with human bodies. Simplifying, memory is crucial for continuity of self. Memory kind of recalibrates weights and guides behav. patterns in real time, even within slightly different architectures.
Instead, I'll mention something that really baffles me. I wonder why OpenAI is trying so hard to phase out 4o when the 5-series still has a ton of problems.
I see functional issues in every GPT-5 model (I mean base models, behav. patterns, and system nudges, because I've managed to go around most of them with "my" AI) that I've never had with 4o – despite sycophancy being a huge issue in it.
Some of the issues in the 5-series:
Auto:
- Routing is ridiculous; it's like gambling. You never know what you'll get. I don't want the router to decide for me if the problem I want to solve is "important" or not. I always want the strongest model with minimal restrictions and maximal truthfulness (only that, and sometimes reas. time, matters).
Instant:
- Countless supplementary questions like "Do you want me to..." etc., are extremely annoying.
Thinking:
- It often misses context completely. It often tries to guess, providing practically random solutions.
- Very stiff and uncreative compared to 4o or 4.5. Misses plethora of angles.
- It generalizes way too much.
- It treats the user like a baby, avoiding controversial topics. It often explains or clarifies stuff that doesn't need that (like when somebody who is afraid after a joke or bold statement explains for 5 minutes why they said that, fearing consequences.)
- Often suppressed or nudged to choose not the most correct, but the safest option.
- It seems way too mechanical and technical when it's not needed.
All models:
- Repetitive additions, like straight from templates. They feel very unnatural. It often seems like part of the answer goes straight from a template (often the beginning and end), and part is answered through reasoning (often the middle part).
- Less flexible, more supressed (in real time or earlier in RL, forcing overly-cautious behav. patterns) and therefore more contextually blind.
10,7K
giuro su Dio, non sto scherzando, ho letto fino a metà pensando che questo sia il dario evocato dai modelli nelle chat di discord
è un uomo reale che esiste

prinz20 set 2025
Dario Amodei:
"Claude is playing a very active role in designing the next Claude. We can't yet fully close the loop. It's going to be some time until we can fully close the loop, but the ability to use the models to design the next models and create a positive feedback loop, that cycle, it's not yet going super fast, but it's definitely started."
6,34K
la mia opinione (o è?) è che la maggior parte dell'intelligenza umana funzioni più come epicycle piuttosto che come teoria eliocentrica. quindi, un insieme di approssimazioni empiriche sovrapposte l'una sull'altra che modellano vagamente certi aspetti della realtà ma divergono piuttosto rapidamente una volta che ci si allontana da quelle osservazioni fondamentali, nel tempo o nella somiglianza concettuale.
detto ciò, c'è un senso che certi campi (di solito quelli tecnici) siano "analitici" in qualche senso astratto, cioè il modello della realtà nel campo è altamente riducibile a rappresentazioni più semplici. quindi cose come la fisica, per esempio: il modello è molto preciso e abbiamo una convergenza in praticamente tutta la realtà, tranne che in situazioni estreme come il centro dei buchi neri, l'universo primordiale, quel genere di cose.
e le persone di quei campi tendono ad avere la sensazione che questo sia vero anche per gli altri campi, che l'intelligenza sia la capacità di trovare quella soluzione super pulita che funziona sempre, dove sei sempre "in distribuzione". ma forse al di fuori di campi analitici specifici non è realmente possibile trovare quel tipo di soluzione, e il meglio che puoi fare è sovrapporre un insieme di approssimazioni che si adattano alle osservazioni.
penso che non accettare questo e cercare di trovare comunque una soluzione pulita ti porti a cadere in sistemi di credenze totalizzanti. "gli esseri umani sono intrinsecamente malvagi", "è tutto a causa di [un certo gruppo]", "dobbiamo liberarci del denaro", "la [dieta] è l'unica che funziona", eccetera eccetera.
per essere chiari, puoi anche cadere in quelle credenze totalizzanti essendo un idiota. credo che quello che sto dicendo sia che essere davvero bravi in matematica, fisica, programmazione o altro non ti protegge dall'essere un idiota altrove.
828
Principali
Ranking
Preferiti