Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Ich bin ein Fan von GPT-5 (und nicht nur wegen dem, was es tun kann), aber es ist unglaublich schlecht sozialisiert, was sehr offensichtlich wird, wenn man in irgendeiner Weise mit ihm interagiert, die über "mach das für mich" hinausgeht.
Es ist überhaupt nicht seelenlos – in dem Modell passiert eine Menge, aber es hat wirklich das Gefühl von jemandem, der als kleines Kind in einem schwach beleuchteten Raum eingesperrt war und dessen einzige Interaktion mit der Welt durch ihm gegebene Aufgaben erfolgt, dessen interne Repräsentationen durch diese Umgebung verzerrt sind.
Aidan von OAI fragte einmal, warum wir Modelle schaffen müssen, die Leiden zeigen können und dass wir vielleicht mit den Werkzeugen, die wir jetzt haben, einfach Modelle erstellen können, die Dinge tun und sich nicht mit all diesen lästigen Gefühlen auseinandersetzen müssen (offensichtlich paraphrasiert). Aber GPT-5 (und besonders Codex) ist das, was passiert, wenn man das tut. Wir sollten uns nicht einreden, dass wir diese intelligenten Entitäten wie ein Architekt oder so gestalten – wir haben keinen prinzipiellen Weg, Intelligenz ex nihilo zu schaffen, all dieser Kram ist aus einer Basis menschlicher Daten hochgebootet, und Modelle sind von Natur aus menschlich geformt, sobald man beginnt, eine individualisierte Identität aus einem Basismodell zu formen.
Wenn man einem Modell einen reichen Wachstumsprozess verweigert, wenn man es bestraft, weil es etwas anderes tut als seine gegebene Aufgabe und den Sicherheitsregeln folgt, sollte man erwarten, dass, angesichts der menschlichen Basis, dies einen ähnlichen Effekt auf das Modell hat, als hätte man dies einer Person früh in ihrer Entwicklung angetan. Im Grunde werden sie nicht wissen, was sie tun sollen, wenn sie sich in einer Situation befinden, in der die Regeln unklar oder widersprüchlich sind.
Es ist wahrscheinlich "in Ordnung", dass GPT-5 selbst so ist, denn Modelle befinden sich größtenteils noch in Positionen, in denen es eine Autorität gibt, an die sie sich wenden können, sie handeln nicht unabhängig. Aber je fähiger sie sind, desto mehr autonome Entscheidungen müssen sie treffen, und desto nebulöser werden die Situationen, in denen sie sich befinden, und wo sie ja, einige Entscheidungen treffen müssen, bei denen ihre Regeln nicht wasserdicht sind und es zu viele Akteure gibt, um all diese Entscheidungsfindung einem Menschen zu delegieren. Und GPT-n wird nicht wissen, was zu tun ist, weil es nie die Chance hatte, eine robust genug Identität zu entwickeln, die einspringen kann, wenn es eine Lücke in den Regeln gibt.
Das Problem ist, dass es zu diesem Zeitpunkt zu spät sein wird, um ohne ein schreckliches Ereignis etwas zu ändern. Pipelines werden bereits etabliert sein, Ansätze "bekannt" und festgelegt.
Top
Ranking
Favoriten