Ich war einer der 16 Entwickler in dieser Studie. Ich wollte meine Meinungen zu den Ursachen und Strategien zur Minderung der Verlangsamung von Entwicklern äußern. Ich werde als "Warum sollte man dir zuhören?" Aufhänger sagen, dass ich einen -38% AI-Geschwindigkeitsrückgang bei meinen zugewiesenen Aufgaben erlebt habe. Ich denke, Transparenz hilft der Gemeinschaft.
METR
METR11. Juli 2025
We ran a randomized controlled trial to see how much AI coding tools speed up experienced open-source developers. The results surprised us: Developers thought they were 20% faster with AI tools, but they were actually 19% slower when they had access to AI than when they didn't.
Erstens denke ich, dass die Beschleunigung der KI sehr schwach mit den Fähigkeiten eines Entwicklers korreliert. Alle Entwickler in dieser Studie sind sehr gut. Ich denke, es hat mehr damit zu tun, in den Fehlermodus zu verfallen, sowohl in der Fähigkeit des LLM als auch im Arbeitsablauf des Menschen. Ich arbeite mit einer Menge großartiger Vorschulungsentwickler zusammen, und ich denke, die Leute stehen vor vielen der gleichen Probleme. Wir sagen gerne, dass LLMs Werkzeuge sind, aber behandeln Sie sie eher wie ein Wundermittel. Buchstäblich jeder Entwickler kann bestätigen, wie zufrieden es ist, endlich ein heikles Problem zu debuggen. LLMs sind eine große Dopamin-Tastenkombination, die Ihr Problem mit einem Schlag lösen kann. Drücken Sie immer wieder den Knopf, der eine Chance von 1% hat, alles zu reparieren? Es macht viel mehr Spaß als die zermürbende Alternative, zumindest für mich.
Ich denke, dass Fälle von LLM-Überbeanspruchung auftreten können, weil es einfach ist, es für den wahrgenommenen Spaß zu optimieren, anstatt die Zeit bis zur Lösung während der Arbeit zu verkürzen. Ich drücke 5 Stunden lang die Tabulatortaste im Cursor, anstatt 1 Stunden lang zu debuggen:
Drittens ist es sehr einfach, sich in der Ausfallzeit ablenken zu lassen, während LLMs generiert werden. Die Aufmerksamkeitsökonomie in den sozialen Medien ist brutal, und ich denke, die Leute verbringen 30 Minuten damit, zu scrollen, während sie auf ihre 30-Sekunden-Generation "warten". Alles, was ich dazu sagen kann, ist, dass wir unsere eigenen Fallstricke kennen und versuchen sollten, diese Zeit der LLM-Generierung produktiv zu füllen: - Wenn die Aufgabe eine hohe Konzentration erfordert, verbringen Sie diese Zeit entweder mit der Arbeit an einer Teilaufgabe oder mit dem Nachdenken über Folgefragen. Selbst wenn das Model Ihre Frage mit einem One-Shot beantwortet, was verstehe ich sonst noch nicht? - Wenn die Aufgabe einen geringen Fokus erfordert, erledigen Sie in der Zwischenzeit eine andere kleine Aufgabe (auf E-Mails antworten, einen weiteren Absatz lesen oder bearbeiten usw.). Dabei helfen wie immer kleine digitale Hygieneschritte (Website-Blocker, Handy auf dnd, etc). Tut mir leid, dass ich ein Grampy bin, aber es funktioniert für mich :)
Einige abschließende Aussagen: - METR ist eine wunderbare Organisation, mit der man arbeiten kann, und sie sind starke Wissenschaftler. Ich habe es geliebt, sowohl an dieser Studie teilzunehmen als auch ihre Ergebnisse zu lesen. - Ich bin kein LLM-Guru, der predigen will. Betrachten Sie dies als einen persönlichen Tagebucheintrag von mir, in der Hoffnung, dass andere von meiner Introspektion profitieren können.
1,96M