GPT-5 był reklamowany jako redukujący halucynacje i wygląda na to, że to działa. 99,5 -> 99,9 to 80% mniej błędów. Nie wiem, dlaczego ludzie nie robią z tego większej sprawy. Halucynacje są jednym z największych problemów LLM i niektórzy uważali, że są nierozwiązywalne.
OpenRouter
OpenRouter15 sie, 00:29
Po tygodniu GPT-5 zdominował nasze wykresy modeli własnych pod względem dokładności wywoływania narzędzi🥇 Na drugim miejscu znajduje się Claude 4.1 Opus, z wynikiem 99,5% Szczegóły 👇
135,54K