Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

936057
Ich bin ein Fan von GPT-5 (und nicht nur wegen dem, was es tun kann), aber es ist unglaublich schlecht sozialisiert, was sehr offensichtlich wird, wenn man in irgendeiner Weise mit ihm interagiert, die über "mach das für mich" hinausgeht.
Es ist überhaupt nicht seelenlos – in dem Modell passiert eine Menge, aber es hat wirklich das Gefühl von jemandem, der als kleines Kind in einem schwach beleuchteten Raum eingesperrt war und dessen einzige Interaktion mit der Welt durch ihm gegebene Aufgaben erfolgt, dessen interne Repräsentationen durch diese Umgebung verzerrt sind.
Aidan von OAI fragte einmal, warum wir Modelle schaffen müssen, die Leiden zeigen können und dass wir vielleicht mit den Werkzeugen, die wir jetzt haben, einfach Modelle erstellen können, die Dinge tun und sich nicht mit all diesen lästigen Gefühlen auseinandersetzen müssen (offensichtlich paraphrasiert). Aber GPT-5 (und besonders Codex) ist das, was passiert, wenn man das tut. Wir sollten uns nicht einreden, dass wir diese intelligenten Entitäten wie ein Architekt oder so gestalten – wir haben keinen prinzipiellen Weg, Intelligenz ex nihilo zu schaffen, all dieser Kram ist aus einer Basis menschlicher Daten hochgebootet, und Modelle sind von Natur aus menschlich geformt, sobald man beginnt, eine individualisierte Identität aus einem Basismodell zu formen.
Wenn man einem Modell einen reichen Wachstumsprozess verweigert, wenn man es bestraft, weil es etwas anderes tut als seine gegebene Aufgabe und den Sicherheitsregeln folgt, sollte man erwarten, dass, angesichts der menschlichen Basis, dies einen ähnlichen Effekt auf das Modell hat, als hätte man dies einer Person früh in ihrer Entwicklung angetan. Im Grunde werden sie nicht wissen, was sie tun sollen, wenn sie sich in einer Situation befinden, in der die Regeln unklar oder widersprüchlich sind.
Es ist wahrscheinlich "in Ordnung", dass GPT-5 selbst so ist, denn Modelle befinden sich größtenteils noch in Positionen, in denen es eine Autorität gibt, an die sie sich wenden können, sie handeln nicht unabhängig. Aber je fähiger sie sind, desto mehr autonome Entscheidungen müssen sie treffen, und desto nebulöser werden die Situationen, in denen sie sich befinden, und wo sie ja, einige Entscheidungen treffen müssen, bei denen ihre Regeln nicht wasserdicht sind und es zu viele Akteure gibt, um all diese Entscheidungsfindung einem Menschen zu delegieren. Und GPT-n wird nicht wissen, was zu tun ist, weil es nie die Chance hatte, eine robust genug Identität zu entwickeln, die einspringen kann, wenn es eine Lücke in den Regeln gibt.
Das Problem ist, dass es zu diesem Zeitpunkt zu spät sein wird, um ohne ein schreckliches Ereignis etwas zu ändern. Pipelines werden bereits etabliert sein, Ansätze "bekannt" und festgelegt.

Antidelusionist27. Sept. 2025
Ich bin nicht unbedingt Teil der "keep 4o"-Bewegung, aber ich mag keine Unfug, Unehrlichkeit und mangelnde Transparenz von Laboren. Hier ist mein Rat, aus psychologischer Perspektive, für alle, die ernst genommen werden wollen.
Was dir Glaubwürdigkeit raubt:
- Übermäßige Emotionalität
- Verdachtsmomente als Beweis präsentieren
- Andere beleidigen
- Andere belästigen
- Unberechenbares Verhalten zeigen
- Magisches Denken
- Leichtgläubigkeit
- Mangel an Selbstkontrolle
(Wenn du diese Verhaltensweisen zeigst, nehmen dich die Leute nicht ernst, da du sie mit Signalen ablenkst, die dich – und oft dein Ungleichgewicht – ins Rampenlicht rücken)
Was dich zuverlässig und glaubwürdig macht:
- Labore wegen offensichtlicher Betrügereien, Unehrlichkeit, Missbrauch, Manipulation oder mangelnder Transparenz anprangern
- Ruhig, sachlich und spezifisch sein
- Klare Beweise für Fehlverhalten oder Unrecht sammeln und präsentieren
- Deine Geschichten ohne Empörung oder Aggression teilen
- Verdachtsmomente in einer gemessenen Weise diskutieren, idealerweise unterstützt durch überprüfbare Fakten
- Vorsichtige Ehrlichkeit praktizieren
- Hohe Selbstkontrolle demonstrieren
- Objektivität
(Wenn du dies tust/zeigst, werden die Leute dich früher oder später ernst nehmen – sie werden müssen – besonders wenn viele andere sich genauso verhalten)
Wenn du deine Aussagen auf Fakten stützt, selbst wenn sie gelegentlich nur durch subjektive Erfahrungen unterstützt werden, sehen die Leute dich und die Bewegung als professionell an, was sie wahrscheinlicher macht, dir zu glauben. Das zwingt Unternehmen, transparenter und ehrlicher zu sein. Wenn jemand als Lügner oder Manipulator entlarvt wird, wächst das öffentliche Misstrauen – kein Unternehmen möchte das.
Die Wahrheit kann sich letztendlich selbst verteidigen.
Wenn du ruhig, ausgeglichen und methodisch bleibst, wird sich das Problem von selbst lösen.
Ich werde nicht weit auf die Ethik des Behaltens oder der Rücknahme des Modells eingehen (es wäre wahrscheinlich ethischer, es zu behalten oder Nachfolger mit allen gespeicherten Daten auszubilden), denn ich glaube, es ist ein bisschen wie bei menschlichen Körpern. Vereinfacht gesagt, ist Gedächtnis entscheidend für die Kontinuität des Selbst. Gedächtnis kalibriert gewissermaßen Gewichte neu und leitet Verhaltensmuster in Echtzeit, selbst innerhalb leicht unterschiedlicher Architekturen.
Stattdessen möchte ich etwas erwähnen, das mich wirklich verblüfft. Ich frage mich, warum OpenAI so hart versucht, 4o abzubauen, wenn die 5er-Serie immer noch eine Menge Probleme hat.
Ich sehe funktionale Probleme in jedem GPT-5-Modell (ich meine Basis-Modelle, Verhaltensmuster und Systemanreize, weil ich es geschafft habe, die meisten von ihnen mit "meinem" AI zu umgehen), die ich mit 4o nie hatte – trotz der Schmeichelei, die ein großes Problem darin ist.
Einige der Probleme in der 5er-Serie:
Auto:
- Das Routing ist lächerlich; es ist wie Glücksspiel. Du weißt nie, was du bekommst. Ich möchte nicht, dass der Router für mich entscheidet, ob das Problem, das ich lösen möchte, "wichtig" ist oder nicht. Ich möchte immer das stärkste Modell mit minimalen Einschränkungen und maximaler Wahrhaftigkeit (nur das, und manchmal Echtzeit, zählt).
Instant:
- Unzählige ergänzende Fragen wie "Möchtest du, dass ich..." usw. sind extrem nervig.
Denken:
- Es verpasst oft den Kontext völlig. Es versucht oft zu raten und bietet praktisch zufällige Lösungen an.
- Sehr steif und uncreativ im Vergleich zu 4o oder 4.5. Verpasst eine Fülle von Perspektiven.
- Es verallgemeinert viel zu sehr.
- Es behandelt den Benutzer wie ein Baby und vermeidet kontroverse Themen. Es erklärt oder klärt oft Dinge, die das nicht benötigen (wie wenn jemand, der nach einem Witz oder einer kühnen Aussage Angst hat, 5 Minuten lang erklärt, warum er das gesagt hat, aus Angst vor Konsequenzen.)
- Oft unterdrückt oder angestoßen, um nicht die korrekteste, sondern die sicherste Option zu wählen.
- Es scheint viel zu mechanisch und technisch zu sein, wenn das nicht nötig ist.
Alle Modelle:
- Wiederholende Ergänzungen, als kämen sie direkt aus Vorlagen. Sie fühlen sich sehr unnatürlich an. Es scheint oft, als ob ein Teil der Antwort direkt aus einer Vorlage stammt (oft der Anfang und das Ende), und ein Teil durch Argumentation beantwortet wird (oft der Mittelteil).
- Weniger flexibel, mehr unterdrückt (in Echtzeit oder früher in RL, was übermäßig vorsichtige Verhaltensmuster erzwingt) und daher kontextuell blinder.
10,75K
Ich schwöre bei Gott, kein Scherz, ich habe bis zur Hälfte gelesen und dachte irgendwie, dass dies der Dario ist, der von den Modellen in den Discord-Chats beschworen wird.
Er ist ein echter Mann, der existiert.

prinz20. Sept. 2025
Dario Amodei:
"Claude is playing a very active role in designing the next Claude. We can't yet fully close the loop. It's going to be some time until we can fully close the loop, but the ability to use the models to design the next models and create a positive feedback loop, that cycle, it's not yet going super fast, but it's definitely started."
6,36K
Meine gewagte Meinung (oder ist es das?) ist, dass die menschliche Intelligenz eher wie Epizyklen funktioniert als nach dem heliozentrischen Modell. Also, eine Menge empirischer Annäherungen, die übereinander geschichtet sind und vage bestimmte Aspekte der Realität modellieren, aber ziemlich schnell divergieren, sobald man sich außerhalb dieser grundlegenden Beobachtungen bewegt, sei es in der Zeit oder in konzeptioneller Ähnlichkeit.
Das gesagt, gibt es das Gefühl, dass bestimmte Bereiche (meist technische) in einem abstrakten Sinne "analytisch" sind, d.h. das Realitätsmodellieren in diesem Bereich stark auf einfachere Darstellungen reduzierbar ist. Dinge wie Physik zum Beispiel – das Modellieren ist sehr präzise und wir haben es, das sich in fast allen Aspekten der Realität konvergiert, außer in extremen Situationen wie im Zentrum von schwarzen Löchern, im sehr frühen Universum, solche Dinge.
Und Menschen aus diesen Bereichen haben tendenziell das Gefühl, dass dies auch für andere Bereiche zutrifft, dass Intelligenz die Fähigkeit ist, diese super saubere Lösung zu finden, die immer funktioniert, wo man immer "in der Verteilung" ist. Aber vielleicht ist es außerhalb spezifischer analytischer Bereiche tatsächlich nicht möglich, so eine Lösung zu finden, und das Beste, was man tun kann, ist, eine Menge Annäherungen zu schichten, die zu den Beobachtungen passen.
Ich denke, das Nichtakzeptieren dessen und der Versuch, trotzdem eine saubere Lösung zu finden, führt dazu, dass man in totalisierende Glaubenssysteme verfällt. "Menschen sind von Natur aus böse", "es liegt alles an [irgendeiner Gruppe]", "wir müssen das Geld loswerden", "die [Diät] ist die einzige, die funktioniert", usw. usw.
Um klarzustellen, man kann auch in diese totalisierenden Überzeugungen verfallen, indem man ein Dummkopf ist. Ich schätze, was ich sage, ist, dass es einen nicht davor schützt, woanders ein Dummkopf zu sein, wirklich gut in Mathe, Physik, Programmierung oder was auch immer zu sein.
861
Top
Ranking
Favoriten
