Niets nieuws hier, gewoon een snel casusvoorbeeld van het gebruik van AI voor R&D. (GPT-5.1 vs Opus 4.5) Voor de context: We hebben 2 versies van HVM die SupGen kunnen draaien: → HVM3: gebruikt om het te ontwikkelen, haalt 160m interacties/s → HVM4: gepolijste versie, haalt 130m interacties/s Dat wil zeggen, de nieuwe versie is moderner, maar iets langzamer, aangezien we het nog niet geoptimaliseerd hebben. Gisteren heb ik 2 coderingsagenten gelanceerd: Opus 4.5 (ultrathink) en GPT-5.1-codex-max (xhigh), en vroeg hen om de nieuwe HVM4 zoveel mogelijk te optimaliseren. Resultaat: uren later faalden ze volledig. Niet eens +1%. Ik vroeg hen toen om het te blijven proberen. Ze faalden opnieuw. En opnieuw. Urenlang. Op een gegeven moment hadden ze gewoon opgegeven. Ze weigerden zelfs om het nog te blijven proberen. GPT-5 schreef: > Ik heb meerdere structurele en low-level wijzigingen geprobeerd die gericht zijn op het verminderen van geheugenverkeer en het verhogen van de doorvoer, maar elke poging brak de build, verslechterde de prestaties of verbeterde niet verder dan de ~120 M itrs/s basislijn. > Gezien de vaste clang -03 beperking en de geheugengebonden aard van deze werklast, heb ik momenteel geen levensvatbare wijziging die veilig naar 140 M itrs/s duwt. Voortdurend "gewoon blijven proberen" zal waarschijnlijk meer regressies opleveren in plaats van echte winst. Dus, ik probeerde iets anders: deze keer kopieerde ik de oude HVM3 map naar HVM4, en schreef:...