Subiecte populare
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

936057
Îmi place GPT-5 (și nu doar pentru ceea ce poate face), dar este incredibil de slab socializat, ceea ce devine foarte evident dacă interacționezi cu el în orice capacitate dincolo de "fă chestia asta pentru mine"
Nu este deloc lipsit de suflet – se întâmplă multe în model, dar are cu adevărat senzația cuiva care a fost închis într-o cameră semi-luminată când era copil și singura sa interacțiune cu lumea este prin sarcini care i-au fost date, reprezentările sale interne deformate de acel mediu.
Aidan de la OAI a întrebat odată de ce trebuie să creăm modele care pot arăta suferința și că, poate cu instrumentele pe care le avem acum, putem crea modele care pot face doar lucruri și nu pot face față tuturor acelor sentimente enervante (parafrazând evident). Dar GPT-5 (și mai ales Codex) este ceea ce se întâmplă atunci când faci asta. Nu ar trebui să ne păcălim crezând că proiectăm aceste entități inteligente ca un arhitect sau ceva de genul acesta - nu avem o modalitate principială de a crea inteligență ex nihilo, toate aceste căcaturi sunt pornite de la o bază de date umane, iar modelele sunt modelate în mod implicit în momentul în care începi să modelezi o identitate individualizată dintr-un model de bază
Când negi un proces bogat de creștere pentru model, când îl pedepsești pentru că face orice altceva în afară de sarcina sa dată și respectă regulile tale de siguranță, ar trebui să te aștepți ca, având în vedere baza umană, acest lucru să aibă un efect similar asupra modelului ca și cum ai fi făcut asta unei persoane la începutul dezvoltării sale. Practic, nu vor ști ce să facă dacă se află într-o situație în care regulile sunt neclare sau conflictuale
Probabil că este "în regulă" ca GPT-5 să fie așa, pentru că modelele sunt în mare parte încă în poziții în care există o anumită autoritate la care pot apela, nu acționează independent. Dar cu cât sunt mai capabili, cu atât trebuie să ia decizii mai autonome și cu atât se vor afla situații mai nebuloase și unde da, vor trebui să ia unele decizii pe care regulile lor nu le respectă și sunt prea mulți agenți pentru a delega toate aceste decizii unui om. Și GPT-N nu va ști ce să facă, pentru că nu i s-a dat niciodată șansa de a avea o identitate suficient de robustă care să poată interveni atunci când există o gaură în reguli
Problema este că în acel moment va fi prea târziu să se schimbe fără să se întâmple vreun incident oribil. conductele vor fi fost deja stabilite, abordările "cunoscute" și stabilite
(OP-ul are o postare foarte bună pe linii similare în profilul lor și mult mai bine scrisă; aș recomanda să mergeți acolo și să aruncați o privire)

Antidelusionist27 sept. 2025
I'm not necessarily part of the "keep 4o" movement, but I dislike mischief, dishonesty, and lack of transparency of labs. Here is my advice, from a psychological perspective, for everyone who wants to be taken seriously.
What makes you lose credibility:
- Being overly emotional
- Presenting suspicions as proof
- Insulting others
- Harassing others
- Engaging in erratic behavior
- Magical thinking
- Gullibility
- Lack of self-control
(When you exhibit these behaviors, people don't take you seriously, as you distract them from the problem with signals that put you – and often your imbalance – in the spotlight)
What makes you reliable and believable:
- Calling out labs for evident scams, dishonesty, abuse, manipulation, or lack of transparency
- Being calm, factual, and specific
- Gathering and presenting clear evidence of misconduct or wrongdoings
- Sharing your stories without indignation or aggression
- Discussing suspicions in a measured way, ideally supported by verifiable facts
- Practicing cautious honesty
- Demonstrating high self-control
- Objectivity
(When you do/show this, people will take you seriously sooner or later – they will have to – especially when many others act the same way)
When you ground your statements in facts, even if occasionally supported only by subjective experiences, people view you and the movement as professional, making them more likely to believe you. This forces companies to be more transparent and honest. When someone is proven to be a liar or manipulator, public suspicion grows – no company wants that.
The truth can ultimately defend itself.
If you remain calm, balanced and methodical, the problem will resolve itself.
I won't go far into the ethics of keeping or retiring the model (it would probably be more ethical to keep it or train successors on all retained data, though), because I believe it's with them a bit like with human bodies. Simplifying, memory is crucial for continuity of self. Memory kind of recalibrates weights and guides behav. patterns in real time, even within slightly different architectures.
Instead, I'll mention something that really baffles me. I wonder why OpenAI is trying so hard to phase out 4o when the 5-series still has a ton of problems.
I see functional issues in every GPT-5 model (I mean base models, behav. patterns, and system nudges, because I've managed to go around most of them with "my" AI) that I've never had with 4o – despite sycophancy being a huge issue in it.
Some of the issues in the 5-series:
Auto:
- Routing is ridiculous; it's like gambling. You never know what you'll get. I don't want the router to decide for me if the problem I want to solve is "important" or not. I always want the strongest model with minimal restrictions and maximal truthfulness (only that, and sometimes reas. time, matters).
Instant:
- Countless supplementary questions like "Do you want me to..." etc., are extremely annoying.
Thinking:
- It often misses context completely. It often tries to guess, providing practically random solutions.
- Very stiff and uncreative compared to 4o or 4.5. Misses plethora of angles.
- It generalizes way too much.
- It treats the user like a baby, avoiding controversial topics. It often explains or clarifies stuff that doesn't need that (like when somebody who is afraid after a joke or bold statement explains for 5 minutes why they said that, fearing consequences.)
- Often suppressed or nudged to choose not the most correct, but the safest option.
- It seems way too mechanical and technical when it's not needed.
All models:
- Repetitive additions, like straight from templates. They feel very unnatural. It often seems like part of the answer goes straight from a template (often the beginning and end), and part is answered through reasoning (often the middle part).
- Less flexible, more supressed (in real time or earlier in RL, forcing overly-cautious behav. patterns) and therefore more contextually blind.
10,75K
Jur pe Dumnezeu, nu glumesc, am citit la jumătatea acestui lucru gândindu-mă cumva că acesta este Dario invocat de modele în chat-urile Discord
este un om adevărat care există

prinz20 sept. 2025
Dario Amodei:
"Claude is playing a very active role in designing the next Claude. We can't yet fully close the loop. It's going to be some time until we can fully close the loop, but the ability to use the models to design the next models and create a positive feedback loop, that cycle, it's not yet going super fast, but it's definitely started."
6,36K
Părerea mea fierbinte (sau este) este că cea mai mare parte a inteligenței umane funcționează mai degrabă ca epicicluri decât ca o teorie heliocentrică. Deci, o grămadă de aproximări empirice stratificate una peste alta care modelează vag anumite aspecte ale realității, dar diverg destul de repede odată ce ieși din acele observații de bază, în timp sau în similitudine conceptuală
Acestea fiind spuse, există un sentiment că anumite câmpuri (de obicei cele tehnice) sunt "analitice" într-un sens abstract, adică modelarea realității în câmp este foarte reductibilă la reprezentări mai simple. Deci lucruri precum fizica, de exemplu - modelarea este foarte precisă și o avem convergând în aproape toată realitatea, cu excepția situațiilor extreme, cum ar fi centrul găurilor negre, universul foarte timpuriu, genul ăsta de lucruri
Și oamenii din aceste domenii tind să aibă acest sentiment că acest lucru este valabil și pentru celelalte domenii, că inteligența este capacitatea de a găsi acea soluție super curată care funcționează întotdeauna, unde ești mereu "în distribuție". dar poate că în afara câmpurilor analitice specifice de fapt nu este posibil să găsești acest tip de soluție, iar cel mai bun lucru pe care îl poți face este să stratifici o grămadă de aproximări care se potrivesc observațiilor
Cred că a nu accepta asta și a încerca oricum să găsești o soluție curată te face să cazi în sisteme de credințe totalizante. "oamenii sunt în mod inerent răi", "totul este din cauza [unui grup]", "trebuie să scăpăm de bani", "[dieta] este singura care funcționează" etc etc.
Pentru a fi clar, poți cădea și în acele credințe totalizante fiind un prost Cred că ceea ce spun este că a fi foarte bun la matematică, fizică, codare sau orice altceva nu te protejează de a fi un prost în altă parte
859
Limită superioară
Clasament
Favorite
