.@romeovdean và tôi đã viết một bài blog để tự học về việc xây dựng AI. Chúng tôi đã ngạc nhiên bởi một số điều mà chúng tôi đã học được: 1. Có một khối lượng lớn chi phí CapEx cho fab - với một năm lợi nhuận duy nhất vào năm 2025, Nvidia có thể trang trải toàn bộ chi phí CapEx của TSMC trong 3 năm qua. Vào năm 2025, NVIDIA sẽ chuyển đổi giá trị Capex TSMC đã khấu hao khoảng 6 tỷ USD thành 200 tỷ USD doanh thu. Ở phía trên của chuỗi cung ứng, doanh thu của NVIDIA trong một năm gần như tương đương với tổng chi phí R&D và capex trong 25 năm qua của năm công ty thiết bị bán dẫn lớn nhất, bao gồm ASML, Applied Materials và Tokyo Electron. Nếu nhu cầu AI tiếp tục, chưa nói đến việc tăng trưởng, thì có đủ tiền để xây dựng thêm nhiều fab. 2. Chúng tôi đã dự đoán hai kịch bản khác nhau cho đến năm 2040: tăng trưởng bùng nổ và mùa đông AI. Trong kịch bản tăng trưởng bùng nổ (dẫn đến 2 nghìn tỷ USD chi phí CapEx AI hàng năm vào năm 2030), tầm nhìn của @sama về 1 GW mỗi tuần cho công ty dẫn đầu trở thành hiện thực vào năm 2036. Nhưng trong thế giới đó, tổng công suất tiêu thụ AI toàn cầu sẽ gấp đôi sản lượng điện hiện tại của Mỹ. 3. Trong hai thập kỷ qua, việc xây dựng trung tâm dữ liệu đã cơ bản chiếm đoạt cơ sở hạ tầng điện lực còn lại từ sự phi công nghiệp hóa của Mỹ. Để chi phí CapEx AI tiếp tục tăng trưởng theo quỹ đạo hiện tại, mọi người ở phía trên trong chuỗi cung ứng (từ những người sản xuất dây đồng đến tuabin, máy biến áp và thiết bị chuyển mạch) sẽ cần mở rộng năng lực sản xuất. Vấn đề chính là những công ty này có chu kỳ khấu hao từ 10-30 năm cho các nhà máy của họ (so với 3 năm cho chip). Với biên lợi nhuận thường thấp, họ cần lợi nhuận ổn định trong nhiều thập kỷ, và họ đã từng bị tổn thương bởi các bong bóng trước đây. Nếu có một khối lượng tài chính không chỉ cho các fab, mà còn cho các thành phần trung tâm dữ liệu khác, liệu các hyperscaler có thể đơn giản trả mức biên cao hơn để tăng tốc độ mở rộng năng lực không? Đặc biệt là khi chip chiếm hơn 60% chi phí của một trung tâm dữ liệu. Chúng tôi đã thực hiện một số phép toán sơ bộ về các nhà sản xuất tuabin khí, điều này dường như chỉ ra rằng các hyperscaler có thể trả tiền để mở rộng năng lực của họ với một phần chi phí trung tâm dữ liệu tương đối nhỏ. Như @tylercowen nói, đừng đánh giá thấp tính đàn hồi của nguồn cung. 4. Chúng tôi nghĩ rằng Trung Quốc có khả năng sẽ dẫn đầu trong AI trong thế giới có thời gian dài (tức là không có sự đơn nhất phần mềm vào năm 2028). Mỗi 3 năm, các chip sẽ khấu hao, và cuộc đua bắt đầu lại. Khi Trung Quốc bắt kịp với các nút quy trình tiên tiến, AI chỉ trở thành một cuộc đua công nghiệp lớn trên toàn bộ chuỗi cung ứng. Và điều này dường như phù hợp với những lợi thế khác biệt của Trung Quốc. 5. Thời gian dẫn là yếu tố quyết định chính cho nguồn năng lượng nào bạn sử dụng để cung cấp năng lượng cho trung tâm dữ liệu, cho dù bạn kết nối trung tâm dữ liệu với lưới điện hay không, và cách bạn thiết kế trung tâm dữ liệu. Điều này là vì mỗi tháng mà vỏ không được thiết lập là một tháng mà các chip (chiếm phần lớn chi phí của bạn) không được sử dụng. Vì vậy, bạn có thể thấy tại sao khí tự nhiên, chẳng hạn, được ưa chuộng hơn so với các lò phản ứng hạt nhân hiện tại. Hạt nhân có chi phí vận hành cực kỳ thấp, nhưng có thời gian dẫn cực kỳ dài và chi phí CapEx cao. Khí tự nhiên có thể không tái tạo, nhưng bạn có thể chỉ cần thiết lập một vài chục tuabin khí bên cạnh trung tâm dữ liệu, và có được các chip hoạt động ngay lập tức. Năng lượng mặt trời và gió cũng có thời gian xây dựng ngắn, và bạn có thể làm mượt nguồn điện của chúng bằng pin. Nhưng bạn sẽ phải thuê hàng ngàn người để thiết lập một trang trại năng lượng mặt trời có kích thước Manhattan để cung cấp năng lượng đáng tin cậy cho một trung tâm dữ liệu 1 GW. Còn nhiều điều nữa trong bài blog đầy đủ. Liên kết bên dưới.