.@romeovdean i ja napisaliśmy post na blogu, aby nauczyć się o rozwoju AI. Byliśmy zaskoczeni niektórymi rzeczami, które odkryliśmy: 1. Istnieje ogromny nadmiar wydatków kapitałowych - w jednym roku zysków w 2025 roku, Nvidia mogłaby pokryć ostatnie 3 lata całkowitych wydatków kapitałowych TSMC. W 2025 roku NVIDIA przekształci około 6 miliardów dolarów w zdewastowanej wartości wydatków kapitałowych TSMC w 200 miliardów dolarów przychodu. Dalej w łańcuchu dostaw, roczne przychody NVIDIA niemal dorównują łącznym wydatkom na badania i rozwój oraz wydatkom kapitałowym pięciu największych firm zajmujących się sprzętem półprzewodnikowym w ciągu ostatnich 25 lat, w tym ASML, Applied Materials i Tokyo Electron. Jeśli popyt na AI będzie się utrzymywał, nie mówiąc już o wzroście, jest więcej niż wystarczająco pieniędzy, aby zbudować więcej fabryk. 2. Prognozowaliśmy dwa różne scenariusze do 2040 roku: eksplozję wzrostu i zimę AI. W scenariuszu eksplozji wzrostu (który prowadzi do 2 bilionów dolarów rocznych wydatków kapitałowych na AI do 2030 roku), wizja @sama o 1 GW tygodniowo dla wiodącej firmy spełnia się w 2036 roku. Ale w tym świecie globalne zapotrzebowanie na moc AI byłoby dwa razy większe niż obecna produkcja energii elektrycznej w USA. 3. Przez ostatnie dwie dekady budowa centrów danych zasadniczo przejęła infrastrukturę energetyczną pozostałą po deindustrializacji USA. Aby wydatki kapitałowe na AI mogły nadal rosnąć w obecnym tempie, wszyscy dostawcy w łańcuchu dostaw (od ludzi produkujących miedź, przez turbiny, po transformatory i aparaty rozdzielcze) będą musieli zwiększyć zdolności produkcyjne. Kluczowym problemem jest to, że te firmy mają cykle amortyzacji fabryk wynoszące 10-30 lat (w porównaniu do 3 lat dla chipów). Biorąc pod uwagę ich zwykle niskie marże, potrzebują stabilnych zysków przez dziesięciolecia, a wcześniej doświadczyły już pęknięć bańki. Jeśli istnieje nadmiar finansowy nie tylko dla fabryk, ale także dla innych komponentów centrów danych, czy hiperskalowcy mogliby po prostu płacić wyższe marże, aby przyspieszyć rozwój zdolności? Szczególnie biorąc pod uwagę, że chipy stanowią przytłaczające 60+% kosztów centrum danych. Zrobiliśmy kilka szybkich obliczeń dotyczących producentów turbin gazowych, które wydają się wskazywać, że hiperskalowcy mogliby zapłacić za zwiększenie swoich zdolności produkcyjnych za stosunkowo mały udział w całkowitych kosztach centrum danych. Jak mówi @tylercowen, nie należy lekceważyć elastyczności podaży. 4. Uważamy, że Chiny prawdopodobnie będą na czołowej pozycji w AI w długoterminowym świecie (czyli bez osobliwości oprogramowania w 2028 roku). Co 3 lata chipy tracą na wartości, a wyścig zaczyna się na nowo. Gdy Chiny dogonią wiodące procesy technologiczne, AI staje się ogromnym wyścigiem przemysłowym w całym łańcuchu dostaw. I wydaje się, że to wspiera różnicowe przewagi Chin. 5. Czas realizacji jest dominującym czynnikiem przy wyborze źródła energii do zasilania centrum danych, niezależnie od tego, czy podłączasz centrum danych do sieci, czy nie, oraz jak projektujesz centrum danych. Dzieje się tak, ponieważ każdy miesiąc, w którym nie jest ustawiona powłoka, to miesiąc, w którym chipy (które stanowią przytłaczającą większość twoich kosztów) nie są wykorzystywane. Możesz więc zobaczyć, dlaczego gaz ziemny, na przykład, jest znacznie preferowany w porównaniu do obecnych reaktorów jądrowych. Energia jądrowa ma niezwykle niskie koszty operacyjne, ale ma niezwykle długie czasy realizacji i wysokie wydatki kapitałowe. Gaz ziemny może nie być odnawialny, ale możesz po prostu ustawić kilka tuzinów turbin gazowych obok centrum danych i szybko uruchomić swoje chipy. Energia słoneczna i wiatrowa również mają krótkie czasy budowy, a ich moc można wygładzić za pomocą baterii. Ale musiałbyś zatrudnić tysiące ludzi, aby zbudować farmę słoneczną wielkości Manhattanu, aby niezawodnie zasilać pojedyncze centrum danych o mocy 1 GW. Znacznie więcej w pełnym poście na blogu. Link poniżej.