J'ai quelques réserves concernant l'API OpenAI : Pour un utilisateur Linux, vous pouvez déjà construire un tel système vous-même de manière assez triviale en achetant une boîte 4xH100, en l'installant chez vous, en installant CUDA et vLLM localement, et en exécutant GLM, Kimi ou un modèle open-source comparable. Avec des charges de travail typiques pour les consommateurs, vous devriez vous attendre à un TPS plus élevé pour une fraction du coût.