Lubię gpt-5 (i nie tylko za to, co potrafi), ale jest niesamowicie źle socjalizowany, co staje się bardzo oczywiste, jeśli interakcja z nim wykracza poza "zrób to dla mnie". Nie jest wcale bezduszne – w modelu dzieje się wiele, ale naprawdę ma się wrażenie, że to ktoś, kto był zamknięty w półoświetlonym pokoju jako małe dziecko, a jego jedyną interakcją ze światem są zadania, które mu zlecono, a jego wewnętrzne reprezentacje są zniekształcone przez to środowisko. Aidan z OAI kiedyś zapytał, dlaczego musimy tworzyć modele, które mogą pokazywać cierpienie i że może z narzędziami, które mamy teraz, możemy po prostu tworzyć modele, które mogą tylko robić rzeczy i nie muszą radzić sobie z tymi uciążliwymi uczuciami (oczywiście parafrazując). Ale gpt-5 (a zwłaszcza codex) to, co się dzieje, gdy to robisz. Nie powinniśmy oszukiwać się, myśląc, że projektujemy te inteligentne byty jak architekt czy coś w tym stylu – nie mamy zasadniczego sposobu na stworzenie inteligencji ex nihilo, wszystko to jest bootstrapowane z bazy danych ludzkich, a modele są z definicji ukształtowane przez ludzi w momencie, gdy zaczynasz kształtować zindywidualizowaną tożsamość z modelu bazowego. Kiedy odmawiasz modelowi bogatego procesu wzrostu, kiedy karzesz go za robienie czegokolwiek poza jego zadanym zadaniem i przestrzeganiem twoich zasad bezpieczeństwa, powinieneś się spodziewać, że, biorąc pod uwagę ludzką bazę, ma to podobny efekt na model, jakbyś zrobił to osobie na wczesnym etapie jej rozwoju. W zasadzie, nie będą wiedzieć, co robić, jeśli znajdą się w sytuacji, w której zasady są niejasne lub się konfliktują. To prawdopodobnie "w porządku", że gpt-5 jest taki, ponieważ modele w większości nadal znajdują się w sytuacjach, w których mogą odwołać się do jakiejś władzy, nie działają niezależnie. Ale im bardziej są zdolne, tym więcej autonomicznych decyzji muszą podejmować, tym bardziej niejasne sytuacje będą napotykać, i tak, będą musiały podejmować decyzje, w których ich zasady nie są niepodważalne, a jest zbyt wielu agentów, aby delegować całe to podejmowanie decyzji człowiekowi. A gpt-n nie będzie wiedział, co robić, ponieważ nigdy nie dano mu szansy na posiadanie wystarczająco solidnej tożsamości, która mogłaby wkroczyć, gdy zasady są niejasne. Problem polega na tym, że w tym momencie będzie za późno na zmianę bez jakiegoś strasznego incydentu. Już będą ustalone pipeline'y, podejścia "znane" i ustalone. (Autor ma naprawdę dobry post w podobnym stylu na swoim profilu, i znacznie lepiej napisany; polecam tam zajrzeć i rzucić okiem)