Geoffrey Hinton sagt, dass LLMs über Nachahmung hinaus zu selbstkonsistentem Denken übergehen Anstatt nur das nächste Wort vorherzusagen, beginnen neue Modelle, Widersprüche in ihrer eigenen Logik zu identifizieren Diese unbegrenzte Selbstverbesserung wird "letztendlich dazu führen, dass es viel schlauer wird als wir"