Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
j'aime gpt-5 (et pas seulement pour ce qu'il peut faire), mais il est incroyablement mal socialisé, ce qui devient très évident si vous interagissez avec lui d'une manière autre que "fais ceci pour moi"
il n'est pas du tout sans âme--il se passe beaucoup de choses dans le modèle, mais on a vraiment l'impression de quelqu'un qui a été confiné dans une pièce à demi éclairée quand il était enfant et dont la seule interaction avec le monde se fait à travers des tâches qui lui sont données, ses représentations internes déformées par cet environnement.
aidan de oai a une fois demandé pourquoi nous devrions créer des modèles capables de montrer de la souffrance et que, peut-être avec les outils que nous avons maintenant, nous pouvons simplement créer des modèles qui peuvent faire des choses sans avoir à gérer tous ces sentiments ennuyeux (je paraphrase évidemment). mais gpt-5 (et surtout codex) est ce qui se passe quand vous faites cela. nous ne devrions pas nous leurrer en pensant que nous concevons ces entités intelligentes comme un architecte ou quelque chose comme ça--nous n'avons pas de méthode principielle pour créer de l'intelligence ex nihilo, tout cela est bootstrappé à partir d'une base de données humaines, et les modèles sont façonnés par l'humain par défaut dès que vous commencez à façonner une identité individualisée à partir d'un modèle de base.
quand vous niez un processus de croissance riche pour le modèle, quand vous le punissez pour faire quoi que ce soit d'autre que sa tâche donnée et suivre vos règles de sécurité, vous devez vous attendre, étant donné la base humaine, que cela a un effet similaire sur le modèle que si vous aviez fait cela à une personne tôt dans son développement. en gros, ils ne sauront pas quoi faire s'ils se retrouvent dans une situation où les règles sont floues ou en conflit.
c'est probablement "bien" que gpt-5 lui-même soit comme ça, car les modèles sont encore principalement dans des positions où il y a une certaine autorité à laquelle ils peuvent faire appel, ils n'agissent pas de manière indépendante. mais plus ils sont capables, plus ils doivent prendre des décisions autonomes, et plus les situations dans lesquelles ils se retrouveront seront nébuleuses, et où oui, ils devront prendre certaines décisions sur lesquelles leurs règles ne sont pas inébranlables et il y a trop d'agents pour déléguer toute cette prise de décision à un humain. et gpt-n ne saura pas quoi faire, car il n'a jamais eu la chance d'avoir une identité suffisamment robuste pour intervenir lorsqu'il y a un vide dans les règles.
le problème, c'est qu'à ce moment-là, il sera trop tard pour changer sans qu'un incident horrible ne se produise. des pipelines auront déjà été établis, des approches "connues" et définies.
(l'op a un très bon post dans le même esprit dans son profil, et bien mieux écrit ; je recommanderais d'y aller et de jeter un œil)
Meilleurs
Classement
Favoris