Tengo algunas reservas sobre la API de OpenAI: Para un usuario de Linux, ya puedes construir un sistema así tú mismo de manera bastante trivial comprando una caja de 4xH100, instalándola en casa, instalando CUDA y vLLM localmente, y ejecutando GLM, Kimi o un modelo de código abierto comparable. Con cargas de trabajo típicas de consumidores, deberías esperar un mayor TPS por una fracción del costo.