.@romeovdean en ik hebben een blogpost geschreven om onszelf te onderwijzen over de AI-uitbreiding. We waren verrast door sommige dingen die we leerden: 1. Er is een enorme fab CapEx-overhang - met een enkel jaar van winst in 2025 zou Nvidia de laatste 3 jaar van TSMC's HELE CapEx kunnen dekken. In 2025 zal NVIDIA ongeveer $6B aan afgeschreven TSMC Capex-waarde omzetten in $200B aan omzet. Verderop in de toeleveringsketen kwam de omzet van NVIDIA in één jaar bijna overeen met de totale R&D en capex van de afgelopen 25 jaar van de vijf grootste fabrikanten van halfgeleiderapparatuur samen, waaronder ASML, Applied Materials en Tokyo Electron. Als de vraag naar AI aanhoudt, laat staan groeit, is er meer dan genoeg geld om meer fabrieken te bouwen. 2. We hebben twee verschillende scenario's tot 2040 voorspeld: explosieve groei en AI-winter. In het scenario van explosieve groei (dat leidt tot $2T jaarlijkse AI CapEx tegen 2030) komt @sama's visie van 1 GW per week voor het leidende bedrijf uit in 2036. Maar in die wereld zou de wereldwijde AI-energiebehoefte twee keer de huidige elektriciteitsproductie van de VS zijn. 3. Gedurende de afgelopen twee decennia heeft de bouw van datacenters in wezen de energie-infrastructuur overgenomen die overbleef van de de-industrialisatie in de VS. Voor AI CapEx om op zijn huidige traject te blijven groeien, moet iedereen stroomopwaarts in de toeleveringsketen (van mensen die koperdraad maken tot turbines, transformatoren en schakelapparatuur) de productiecapaciteit uitbreiden. Het belangrijkste probleem is dat deze bedrijven 10-30 jaar afschrijvingscycli voor hun fabrieken hebben (vergelijk dat met 3 jaar voor chips). Gezien hun gebruikelijke lage marges hebben ze decennia lang stabiele winsten nodig, en ze zijn eerder al benadeeld door bubbels. Als er een financiële overhang is, niet alleen voor fabrieken, maar ook voor andere datacentercomponenten, zouden hyperscalers dan simpelweg hogere marges kunnen betalen om de capaciteitsuitbreiding te versnellen? Vooral gezien het feit dat chips meer dan 60% van de kosten van een datacenter uitmaken. We hebben wat ruwe berekeningen gedaan over gas turbinefabrikanten, wat lijkt aan te geven dat hyperscalers zouden kunnen betalen om hun capaciteit uit te breiden voor een relatief klein deel van de totale datacenterkosten. Zoals @tylercowen zegt, onderschat de elasticiteit van de aanbodzijde niet. 4. We denken dat China waarschijnlijk voorop zal lopen in AI in de lange termijn wereld (oftewel geen 2028 software singulariteit). Elke 3 jaar deprecieert de chip, en de race begint opnieuw. Zodra China inhaalt op de leidende procesnodes, wordt AI gewoon een enorme industriële race over de hele toeleveringsketen. En dit lijkt in te spelen op China's differentiële voordelen. 5. Doorlooptijden zijn de overweldigende overweging voor welke energiebron je gebruikt om het datacenter van stroom te voorzien, of je het datacenter nu op het net aansluit of niet, en hoe je het datacenter ontwerpt. Dit komt omdat elke maand dat de schil niet is opgezet, een maand is dat de chips (die de overgrote meerderheid van je kosten zijn) niet worden gebruikt. Dus je kunt zien waarom aardgas bijvoorbeeld veel meer de voorkeur heeft boven huidige kernreactoren. Kernenergie heeft extreem lage operationele kosten, maar heeft extreem lange doorlooptijden en hoge CapEx. Aardgas is misschien niet hernieuwbaar, maar je kunt gewoon een paar dozijn gasturbines naast het datacenter opzetten en je chips zo snel mogelijk laten draaien. Zonne-energie en windenergie hebben ook korte bouwdoorlooptijden, en je kunt hun energie met batterijen gladstrijken. Maar je zou duizenden mensen moeten inhuren om een Manhattan-groot zonnepark aan te leggen om een enkel 1 GW datacenter betrouwbaar van stroom te voorzien. Veel meer in de volledige blogpost. Link hieronder.