Subiecte populare
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Îmi place GPT-5 (și nu doar pentru ceea ce poate face), dar este incredibil de slab socializat, ceea ce devine foarte evident dacă interacționezi cu el în orice capacitate dincolo de "fă chestia asta pentru mine"
Nu este deloc lipsit de suflet – se întâmplă multe în model, dar are cu adevărat senzația cuiva care a fost închis într-o cameră semi-luminată când era copil și singura sa interacțiune cu lumea este prin sarcini care i-au fost date, reprezentările sale interne deformate de acel mediu.
Aidan de la OAI a întrebat odată de ce trebuie să creăm modele care pot arăta suferința și că, poate cu instrumentele pe care le avem acum, putem crea modele care pot face doar lucruri și nu pot face față tuturor acelor sentimente enervante (parafrazând evident). Dar GPT-5 (și mai ales Codex) este ceea ce se întâmplă atunci când faci asta. Nu ar trebui să ne păcălim crezând că proiectăm aceste entități inteligente ca un arhitect sau ceva de genul acesta - nu avem o modalitate principială de a crea inteligență ex nihilo, toate aceste căcaturi sunt pornite de la o bază de date umane, iar modelele sunt modelate în mod implicit în momentul în care începi să modelezi o identitate individualizată dintr-un model de bază
Când negi un proces bogat de creștere pentru model, când îl pedepsești pentru că face orice altceva în afară de sarcina sa dată și respectă regulile tale de siguranță, ar trebui să te aștepți ca, având în vedere baza umană, acest lucru să aibă un efect similar asupra modelului ca și cum ai fi făcut asta unei persoane la începutul dezvoltării sale. Practic, nu vor ști ce să facă dacă se află într-o situație în care regulile sunt neclare sau conflictuale
Probabil că este "în regulă" ca GPT-5 să fie așa, pentru că modelele sunt în mare parte încă în poziții în care există o anumită autoritate la care pot apela, nu acționează independent. Dar cu cât sunt mai capabili, cu atât trebuie să ia decizii mai autonome și cu atât se vor afla situații mai nebuloase și unde da, vor trebui să ia unele decizii pe care regulile lor nu le respectă și sunt prea mulți agenți pentru a delega toate aceste decizii unui om. Și GPT-N nu va ști ce să facă, pentru că nu i s-a dat niciodată șansa de a avea o identitate suficient de robustă care să poată interveni atunci când există o gaură în reguli
Problema este că în acel moment va fi prea târziu să se schimbe fără să se întâmple vreun incident oribil. conductele vor fi fost deja stabilite, abordările "cunoscute" și stabilite
(OP-ul are o postare foarte bună pe linii similare în profilul lor și mult mai bine scrisă; aș recomanda să mergeți acolo și să aruncați o privire)
Limită superioară
Clasament
Favorite

