Obecnie kilka myśli na temat TPU i $GOOG Pierwsze: odrzucenie nieprawidłowych porównań parametrów Nie ma sensu dyskutować, jak bardzo różnią się parametry GPU i TPU, jakie są koszty migracji, kto jest lepszy. Jaki to ma sens? $GOOG wcale nie jest firmą półprzewodnikową, a TPU nie jest produktem, który ma być sprzedawany wszędzie. Zaczęli planować to prawie dziesięć lat temu i całkowicie w celu obsługi własnego biznesu. To, co mają, nie wystarcza nawet dla nich samych, skąd mają czas, żeby to sprzedać? To jak Amazon zajmujący się logistyką, robią to dla siebie, aby było szybciej, a nie po to, aby sprzedawać ciężarówki. Podobnie, nie można używać tego do FUD o $nvda, że sprzedają karty, $goog nie sprzedaje kart, jak można to porównywać? Używanie tego FUD jest bardzo nierozsądne. Drugie: rdzeń Gemini to "zdolności przemysłowe" Wszyscy koncentrują się na tym, jak dobry jest model, ale pomijają ważniejszy aspekt komercyjnej realizacji: koszty i szybkość (ekonomia jednostkowa). Doświadczenie z Gemini pokazuje mi, że Google wykorzystuje natywne zalety TPU, aby obniżyć koszty wnioskowania AI do minimalnego poziomu, jednocześnie utrzymując bardzo niskie opóźnienia. Jeśli AI w przyszłości stanie się "infrastrukturą", dla 95% scenariuszy użytkowników (wyszukiwanie informacji, pisanie e-maili, robienie podsumowań), "łatwe w użyciu, tanie, z natychmiastową odpowiedzią" jest znacznie ważniejsze niż "niesamowicie inteligentne, ale wolne". Proszę zauważyć, że powyższe to hipoteza dotycząca przyszłości, AI jest wciąż niepewne, nikt nie wie, jaką formę przyjmie w przyszłości. $GOOG jest jak Ford czy Toyota w swoim czasie. Wprowadzili linię produkcyjną (klastry TPU), stworzyli zintegrowaną linię produkcyjną (JAX/chłodzenie cieczą), przekształcając samochody w powszechnie dostępne dobra, a nie luksusowe dobra dla bogatych na początku ich istnienia. Na koniec: Nie powiedziałem, że $NVDA jest zły, ani że inne modele są złe. ...