Na minha opinião, o SWE-bench e o T-bench são os poucos benchmarks que têm um bom sinal em termos de quanto progresso fazemos com os modelos. Este modelo tem um desempenho tão bom quanto o Qwen3 Coder e é apenas 10% pior que o GPT-5, sendo também um LLM de propósito geral em vez de especializado em código.