Mam kilka zastrzeżeń do API OpenAI: Dla użytkownika Linuxa, możesz już samodzielnie zbudować taki system dość łatwo, kupując box 4xH100, instalując go w domu, instalując CUDA i vLLM lokalnie oraz uruchamiając GLM, Kimi lub porównywalny model open-source. Przy typowych obciążeniach konsumenckich, powinieneś oczekiwać wyższej TPS za ułamek kosztów.