AI-modeller blir starkare, men deras självförtroende växer fortfarande snabbare än deras säkerhet. Fler parametrar utvidgar vad systemet kan tala om, inte vad det verkligen kan verifiera. Utrymmet av möjliga svar växer snabbare än marken under dessa svar. Modellen fortsätter att tala flytande även när den har gått förbi vad datan kan stödja. Hallucinationer kvarstår eftersom den underliggande handlingen inte har förändrats. Modellen förutspår fortfarande nästa token i hög upplösning. Skalning gör gissningarna smidigare, inte mer jordnära. När en modell driver utanför de delar av världen den faktiskt förstår, fortsätter den med samma lätthet och rytm. Språket blir mer polerat. Misstagen blir svårare att upptäcka. Det som förbättras är inte sanningen. Det som förbättras är övertalning. Det är därför starkare modeller känns mer exakta även när de inte är det. Felen ser ut som insikter tills du undersöker detaljerna. Ju bättre modellen blir på att forma ett argument, desto lättare är det att glömma att argumentet aldrig stöddes av en sanningskälla från början. Vägen framåt är att bygga system runt modellen som begränsar driften. Hämtning för att förankra svaret. Återkopplingsslingor för att hålla det ärligt. Räcken som tvingar modellen tillbaka till det som faktiskt är känt. Kraft ensam tar inte bort hallucinationer. Endast jordning gör det.