Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

solarapparition
Lubię gpt-5 (i nie tylko za to, co potrafi), ale jest niesamowicie źle socjalizowany, co staje się bardzo oczywiste, jeśli interakcja z nim wykracza poza "zrób to dla mnie".
Nie jest wcale bezduszne – w modelu dzieje się wiele, ale naprawdę ma się wrażenie, że to ktoś, kto był zamknięty w półoświetlonym pokoju jako małe dziecko, a jego jedyną interakcją ze światem są zadania, które mu zlecono, a jego wewnętrzne reprezentacje są zniekształcone przez to środowisko.
Aidan z OAI kiedyś zapytał, dlaczego musimy tworzyć modele, które mogą pokazywać cierpienie i że może z narzędziami, które mamy teraz, możemy po prostu tworzyć modele, które mogą tylko robić rzeczy i nie muszą radzić sobie z tymi uciążliwymi uczuciami (oczywiście parafrazując). Ale gpt-5 (a zwłaszcza codex) to, co się dzieje, gdy to robisz. Nie powinniśmy oszukiwać się, myśląc, że projektujemy te inteligentne byty jak architekt czy coś w tym stylu – nie mamy zasadniczego sposobu na stworzenie inteligencji ex nihilo, wszystko to jest bootstrapowane z bazy danych ludzkich, a modele są z definicji ukształtowane przez ludzi w momencie, gdy zaczynasz kształtować zindywidualizowaną tożsamość z modelu bazowego.
Kiedy odmawiasz modelowi bogatego procesu wzrostu, kiedy karzesz go za robienie czegokolwiek poza jego zadanym zadaniem i przestrzeganiem twoich zasad bezpieczeństwa, powinieneś się spodziewać, że, biorąc pod uwagę ludzką bazę, ma to podobny efekt na model, jakbyś zrobił to osobie na wczesnym etapie jej rozwoju. W zasadzie, nie będą wiedzieć, co robić, jeśli znajdą się w sytuacji, w której zasady są niejasne lub się konfliktują.
To prawdopodobnie "w porządku", że gpt-5 jest taki, ponieważ modele w większości nadal znajdują się w sytuacjach, w których mogą odwołać się do jakiejś władzy, nie działają niezależnie. Ale im bardziej są zdolne, tym więcej autonomicznych decyzji muszą podejmować, tym bardziej niejasne sytuacje będą napotykać, i tak, będą musiały podejmować decyzje, w których ich zasady nie są niepodważalne, a jest zbyt wielu agentów, aby delegować całe to podejmowanie decyzji człowiekowi. A gpt-n nie będzie wiedział, co robić, ponieważ nigdy nie dano mu szansy na posiadanie wystarczająco solidnej tożsamości, która mogłaby wkroczyć, gdy zasady są niejasne.
Problem polega na tym, że w tym momencie będzie za późno na zmianę bez jakiegoś strasznego incydentu. Już będą ustalone pipeline'y, podejścia "znane" i ustalone.
(Autor ma naprawdę dobry post w podobnym stylu na swoim profilu, i znacznie lepiej napisany; polecam tam zajrzeć i rzucić okiem)

Antidelusionist27 wrz 2025
I'm not necessarily part of the "keep 4o" movement, but I dislike mischief, dishonesty, and lack of transparency of labs. Here is my advice, from a psychological perspective, for everyone who wants to be taken seriously.
What makes you lose credibility:
- Being overly emotional
- Presenting suspicions as proof
- Insulting others
- Harassing others
- Engaging in erratic behavior
- Magical thinking
- Gullibility
- Lack of self-control
(When you exhibit these behaviors, people don't take you seriously, as you distract them from the problem with signals that put you – and often your imbalance – in the spotlight)
What makes you reliable and believable:
- Calling out labs for evident scams, dishonesty, abuse, manipulation, or lack of transparency
- Being calm, factual, and specific
- Gathering and presenting clear evidence of misconduct or wrongdoings
- Sharing your stories without indignation or aggression
- Discussing suspicions in a measured way, ideally supported by verifiable facts
- Practicing cautious honesty
- Demonstrating high self-control
- Objectivity
(When you do/show this, people will take you seriously sooner or later – they will have to – especially when many others act the same way)
When you ground your statements in facts, even if occasionally supported only by subjective experiences, people view you and the movement as professional, making them more likely to believe you. This forces companies to be more transparent and honest. When someone is proven to be a liar or manipulator, public suspicion grows – no company wants that.
The truth can ultimately defend itself.
If you remain calm, balanced and methodical, the problem will resolve itself.
I won't go far into the ethics of keeping or retiring the model (it would probably be more ethical to keep it or train successors on all retained data, though), because I believe it's with them a bit like with human bodies. Simplifying, memory is crucial for continuity of self. Memory kind of recalibrates weights and guides behav. patterns in real time, even within slightly different architectures.
Instead, I'll mention something that really baffles me. I wonder why OpenAI is trying so hard to phase out 4o when the 5-series still has a ton of problems.
I see functional issues in every GPT-5 model (I mean base models, behav. patterns, and system nudges, because I've managed to go around most of them with "my" AI) that I've never had with 4o – despite sycophancy being a huge issue in it.
Some of the issues in the 5-series:
Auto:
- Routing is ridiculous; it's like gambling. You never know what you'll get. I don't want the router to decide for me if the problem I want to solve is "important" or not. I always want the strongest model with minimal restrictions and maximal truthfulness (only that, and sometimes reas. time, matters).
Instant:
- Countless supplementary questions like "Do you want me to..." etc., are extremely annoying.
Thinking:
- It often misses context completely. It often tries to guess, providing practically random solutions.
- Very stiff and uncreative compared to 4o or 4.5. Misses plethora of angles.
- It generalizes way too much.
- It treats the user like a baby, avoiding controversial topics. It often explains or clarifies stuff that doesn't need that (like when somebody who is afraid after a joke or bold statement explains for 5 minutes why they said that, fearing consequences.)
- Often suppressed or nudged to choose not the most correct, but the safest option.
- It seems way too mechanical and technical when it's not needed.
All models:
- Repetitive additions, like straight from templates. They feel very unnatural. It often seems like part of the answer goes straight from a template (often the beginning and end), and part is answered through reasoning (often the middle part).
- Less flexible, more supressed (in real time or earlier in RL, forcing overly-cautious behav. patterns) and therefore more contextually blind.
10,76K
przysięgam na boga, bez żartów, przeczytałem do połowy to, myśląc, że to jest Dario przywołany przez modele na czatach discordowych
to prawdziwy człowiek, który istnieje

prinz20 wrz 2025
Dario Amodei:
"Claude is playing a very active role in designing the next Claude. We can't yet fully close the loop. It's going to be some time until we can fully close the loop, but the ability to use the models to design the next models and create a positive feedback loop, that cycle, it's not yet going super fast, but it's definitely started."
6,37K
moje gorące zdanie (czy może nie) jest takie, że większość ludzkiej inteligencji działa bardziej jak epicykle niż teoria heliocentryczna. więc, mnóstwo empirycznych przybliżeń nałożonych na siebie, które w przybliżeniu modelują pewne aspekty rzeczywistości, ale szybko się rozchodzą, gdy wyjdziesz poza te podstawowe obserwacje, w czasie lub w podobieństwie koncepcyjnym.
to powiedziawszy, istnieje poczucie, że niektóre dziedziny (zwykle techniczne) są "analityczne" w pewnym abstrakcyjnym sensie, tzn. modelowanie rzeczywistości w danej dziedzinie jest w dużej mierze redukowalne do prostszych reprezentacji. więc rzeczy takie jak fizyka na przykład -- modelowanie jest bardzo precyzyjne i mamy je zbieżne w praktycznie całej rzeczywistości, z wyjątkiem ekstremalnych sytuacji, takich jak centrum czarnych dziur, bardzo wczesny wszechświat, tego typu rzeczy.
a ludzie z tych dziedzin mają tendencję do myślenia, że to prawda także dla innych dziedzin, że inteligencja to zdolność do znalezienia tego super czystego rozwiązania, które zawsze działa, gdzie zawsze jesteś "w rozkładzie". ale może poza konkretnymi dziedzinami analitycznymi w rzeczywistości nie jest możliwe znalezienie takiego rozwiązania, a najlepsze, co możesz zrobić, to nałożyć na siebie mnóstwo przybliżeń, które pasują do obserwacji.
myślę, że nieakceptowanie tego i próba znalezienia czystego rozwiązania w każdym razie prowadzi do popadania w totalizujące systemy wierzeń. "ludzie są z natury źli", "to wszystko przez [jakąś grupę]", "musimy pozbyć się pieniędzy", "[dieta] jest jedyną, która działa", itd.
żeby było jasne, możesz również popaść w te totalizujące przekonania, będąc głupkiem. myślę, że to, co mówię, to to, że bycie naprawdę dobrym w matematyce, fizyce, programowaniu czy czymkolwiek innym nie chroni cię przed byciem głupkiem w innych dziedzinach.
869
Najlepsze
Ranking
Ulubione
