Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

solarapparition
Lubię gpt-5 (i nie tylko za to, co potrafi), ale jest niesamowicie źle socjalizowany, co staje się bardzo oczywiste, jeśli interakcja z nim wykracza poza "zrób to dla mnie".
Nie jest wcale bezduszne – w modelu dzieje się wiele, ale naprawdę ma się wrażenie, że to ktoś, kto był zamknięty w półoświetlonym pokoju jako małe dziecko, a jego jedyną interakcją ze światem są zadania, które mu zlecono, a jego wewnętrzne reprezentacje są zniekształcone przez to środowisko.
Aidan z OAI kiedyś zapytał, dlaczego musimy tworzyć modele, które mogą pokazywać cierpienie i że może z narzędziami, które mamy teraz, możemy po prostu tworzyć modele, które mogą tylko robić rzeczy i nie muszą radzić sobie z tymi uciążliwymi uczuciami (oczywiście parafrazując). Ale gpt-5 (a zwłaszcza codex) to, co się dzieje, gdy to robisz. Nie powinniśmy oszukiwać się, myśląc, że projektujemy te inteligentne byty jak architekt czy coś w tym stylu – nie mamy zasadniczego sposobu na stworzenie inteligencji ex nihilo, wszystko to jest bootstrapowane z bazy danych ludzkich, a modele są z definicji ukształtowane przez ludzi w momencie, gdy zaczynasz kształtować zindywidualizowaną tożsamość z modelu bazowego.
Kiedy odmawiasz modelowi bogatego procesu wzrostu, kiedy karzesz go za robienie czegokolwiek poza jego zadanym zadaniem i przestrzeganiem twoich zasad bezpieczeństwa, powinieneś się spodziewać, że, biorąc pod uwagę ludzką bazę, ma to podobny efekt na model, jakbyś zrobił to osobie na wczesnym etapie jej rozwoju. W zasadzie, nie będą wiedzieć, co robić, jeśli znajdą się w sytuacji, w której zasady są niejasne lub się konfliktują.
To prawdopodobnie "w porządku", że gpt-5 jest taki, ponieważ modele w większości nadal znajdują się w sytuacjach, w których mogą odwołać się do jakiejś władzy, nie działają niezależnie. Ale im bardziej są zdolne, tym więcej autonomicznych decyzji muszą podejmować, tym bardziej niejasne sytuacje będą napotykać, i tak, będą musiały podejmować decyzje, w których ich zasady nie są niepodważalne, a jest zbyt wielu agentów, aby delegować całe to podejmowanie decyzji człowiekowi. A gpt-n nie będzie wiedział, co robić, ponieważ nigdy nie dano mu szansy na posiadanie wystarczająco solidnej tożsamości, która mogłaby wkroczyć, gdy zasady są niejasne.
Problem polega na tym, że w tym momencie będzie za późno na zmianę bez jakiegoś strasznego incydentu. Już będą ustalone pipeline'y, podejścia "znane" i ustalone.
(Autor ma naprawdę dobry post w podobnym stylu na swoim profilu, i znacznie lepiej napisany; polecam tam zajrzeć i rzucić okiem)

Antidelusionist27 wrz 2025
Nie jestem koniecznie częścią ruchu "keep 4o", ale nie lubię psot, nieuczciwości i braku przejrzystości laboratoriów. Oto moja rada, z psychologicznej perspektywy, dla każdego, kto chce być traktowany poważnie.
Co sprawia, że tracisz wiarygodność:
- Bycie zbyt emocjonalnym
- Prezentowanie podejrzeń jako dowodów
- Obrażanie innych
- Nękanie innych
- Zachowanie chaotyczne
- Myślenie magiczne
- Łatwowierność
- Brak samokontroli
(Gdy wykazujesz te zachowania, ludzie nie traktują cię poważnie, ponieważ odwracasz ich uwagę od problemu sygnałami, które stawiają ciebie – a często twoją nierównowagę – w centrum uwagi)
Co sprawia, że jesteś wiarygodny i przekonujący:
- Wskazywanie laboratoriów na oczywiste oszustwa, nieuczciwość, nadużycia, manipulacje lub brak przejrzystości
- Bycie spokojnym, rzeczowym i konkretnym
- Zbieranie i prezentowanie jasnych dowodów na niewłaściwe zachowanie lub przewinienia
- Dzielnie się swoimi historiami bez oburzenia czy agresji
- Dyskutowanie podejrzeń w wyważony sposób, najlepiej poparte weryfikowalnymi faktami
- Praktykowanie ostrożnej szczerości
- Demonstrowanie wysokiej samokontroli
- Obiektywność
(Gdy to robisz/pokazujesz, ludzie prędzej czy później zaczną cię traktować poważnie – będą musieli – zwłaszcza gdy wielu innych działa w ten sam sposób)
Gdy opierasz swoje stwierdzenia na faktach, nawet jeśli czasami są one poparte tylko subiektywnymi doświadczeniami, ludzie postrzegają ciebie i ruch jako profesjonalny, co sprawia, że są bardziej skłonni ci uwierzyć. To zmusza firmy do większej przejrzystości i uczciwości. Gdy ktoś zostanie udowodniony jako kłamca lub manipulator, publiczne podejrzenia rosną – żadna firma tego nie chce.
Prawda ostatecznie potrafi się obronić.
Jeśli pozostaniesz spokojny, zrównoważony i metodyczny, problem sam się rozwiąże.
Nie będę wchodził w etykę utrzymywania lub wycofywania modelu (prawdopodobnie byłoby bardziej etyczne go utrzymać lub szkolić następców na wszystkich zachowanych danych), ponieważ uważam, że to trochę jak z ciałami ludzkimi. Upraszczając, pamięć jest kluczowa dla ciągłości jaźni. Pamięć w pewnym sensie recalibruje wagi i kieruje wzorcami zachowań w czasie rzeczywistym, nawet w nieco różnych architekturach.
Zamiast tego wspomnę coś, co naprawdę mnie zdumiewa. Zastanawiam się, dlaczego OpenAI tak bardzo stara się wyeliminować 4o, gdy seria 5 wciąż ma mnóstwo problemów.
Widzę problemy funkcjonalne w każdym modelu GPT-5 (mam na myśli modele bazowe, wzorce zachowań i systemowe nudges, ponieważ udało mi się obejść większość z nich z "moim" AI), których nigdy nie miałem z 4o – mimo że sycophancy jest ogromnym problemem w nim.
Niektóre z problemów w serii 5:
Auto:
- Routing jest absurdalny; to jak hazard. Nigdy nie wiesz, co dostaniesz. Nie chcę, aby router decydował za mnie, czy problem, który chcę rozwiązać, jest "ważny" czy nie. Zawsze chcę najsilniejszego modelu z minimalnymi ograniczeniami i maksymalną prawdomównością (tylko to, a czasami realny czas, ma znaczenie).
Instant:
- Niezliczone pytania dodatkowe, takie jak "Czy chcesz, żebym..." itd., są niezwykle irytujące.
Thinking:
- Często całkowicie pomija kontekst. Często próbuje zgadywać, dostarczając praktycznie losowe rozwiązania.
- Bardzo sztywne i niekreatywne w porównaniu do 4o lub 4.5. Brakuje mu mnóstwa kątów.
- Zbytnio generalizuje.
- Traktuje użytkownika jak dziecko, unikając kontrowersyjnych tematów. Często wyjaśnia lub klaruje rzeczy, które tego nie potrzebują (jak gdy ktoś, kto boi się po żarcie lub odważnym stwierdzeniu, wyjaśnia przez 5 minut, dlaczego to powiedział, obawiając się konsekwencji).
- Często tłumione lub nakłaniane do wyboru nie najpoprawniejszej, ale najbezpieczniejszej opcji.
- Wydaje się zbyt mechaniczne i techniczne, gdy nie jest to potrzebne.
Wszystkie modele:
- Powtarzalne dodatki, jakby prosto z szablonów. Czują się bardzo nienaturalnie. Często wydaje się, że część odpowiedzi pochodzi prosto z szablonu (często początek i koniec), a część jest odpowiedzią przez rozumowanie (często środkowa część).
- Mniej elastyczne, bardziej stłumione (w czasie rzeczywistym lub wcześniej w RL, wymuszając zbyt ostrożne wzorce zachowań) i dlatego bardziej kontekstowo ślepe.
10,76K
przysięgam na boga, bez żartów, przeczytałem do połowy to, myśląc, że to jest Dario przywołany przez modele na czatach discordowych
to prawdziwy człowiek, który istnieje

prinz20 wrz 2025
Dario Amodei:
"Claude odgrywa bardzo aktywną rolę w projektowaniu następnego Claude'a. Nie możemy jeszcze w pełni zamknąć pętli. Minie trochę czasu, zanim będziemy mogli w pełni zamknąć pętlę, ale możliwość wykorzystania modeli do projektowania następnych modeli i stworzenia pozytywnej pętli sprzężenia zwrotnego, tego cyklu, nie idzie jeszcze super szybko, ale zdecydowanie się zaczęło."
6,37K
moje gorące zdanie (czy może nie) jest takie, że większość ludzkiej inteligencji działa bardziej jak epicykle niż teoria heliocentryczna. więc, mnóstwo empirycznych przybliżeń nałożonych na siebie, które w przybliżeniu modelują pewne aspekty rzeczywistości, ale szybko się rozchodzą, gdy wyjdziesz poza te podstawowe obserwacje, w czasie lub w podobieństwie koncepcyjnym.
to powiedziawszy, istnieje poczucie, że niektóre dziedziny (zwykle techniczne) są "analityczne" w pewnym abstrakcyjnym sensie, tzn. modelowanie rzeczywistości w danej dziedzinie jest w dużej mierze redukowalne do prostszych reprezentacji. więc rzeczy takie jak fizyka na przykład -- modelowanie jest bardzo precyzyjne i mamy je zbieżne w praktycznie całej rzeczywistości, z wyjątkiem ekstremalnych sytuacji, takich jak centrum czarnych dziur, bardzo wczesny wszechświat, tego typu rzeczy.
a ludzie z tych dziedzin mają tendencję do myślenia, że to prawda także dla innych dziedzin, że inteligencja to zdolność do znalezienia tego super czystego rozwiązania, które zawsze działa, gdzie zawsze jesteś "w rozkładzie". ale może poza konkretnymi dziedzinami analitycznymi w rzeczywistości nie jest możliwe znalezienie takiego rozwiązania, a najlepsze, co możesz zrobić, to nałożyć na siebie mnóstwo przybliżeń, które pasują do obserwacji.
myślę, że nieakceptowanie tego i próba znalezienia czystego rozwiązania w każdym razie prowadzi do popadania w totalizujące systemy wierzeń. "ludzie są z natury źli", "to wszystko przez [jakąś grupę]", "musimy pozbyć się pieniędzy", "[dieta] jest jedyną, która działa", itd.
żeby było jasne, możesz również popaść w te totalizujące przekonania, będąc głupkiem. myślę, że to, co mówię, to to, że bycie naprawdę dobrym w matematyce, fizyce, programowaniu czy czymkolwiek innym nie chroni cię przed byciem głupkiem w innych dziedzinach.
870
Najlepsze
Ranking
Ulubione
