Tenho algumas reservas sobre a API da OpenAI: Para um usuário de Linux, você já pode montar um sistema assim sozinho, de forma bastante trivial, comprando uma caixa 4xH100, instalando-a em casa, instalando CUDA e vLLM localmente, e rodando GLM, Kimi ou um modelo open-source comparável. Com cargas de trabalho típicas para consumidores, você deve esperar um TPS mais alto por uma fração do custo.