Mitt første inntrykk av OpenAIs OSS-modell er på linje med det de annonserte. Den føles nærmere o3 enn andre åpne modeller, bortsett fra at den er mye raskere og billigere. Noen tilbydere tilbyr det til 3000 tokens/s, noe som er vanvittig. Den er definitivt smartere enn Kimi K2, R1 og Qwen 3. Jeg testet alle modellene litt, og fikk veldig avgjørende resultater til fordel for OpenAI-OSS-120b. Dessverre er det én ting disse modellene ikke kan gjøre ennå - min jævla jobb. Så håper dere har det gøy. Jeg kommer tilbake til feilsøking av overliggende λ-kalkulusevaluering, 😭 vi sees
Noen ganger eldes ikke de tidlige inntrykkene mine så godt (det er derfor jeg deler spørsmålene mine), men jeg kan garantere at gpt-oss objektivt slo de andre modellene på mine første tester. Tenk for eksempel på følgende: Gitt en buggy Haskell-fil, peker gpt-oss på det eksakte problemet i den aller første setningen (parseLst er venstre-rekursiv), mens andre OSS-modeller tuller hardt og ikke engang *nevner* problemet. Kanskje modellen tilfeldigvis er god til å feilsøke, eller kanskje inntrykket mitt vil endre seg over tid, men mine første tester var objektivt i favør av gpt-oss 🤷 ♂️
dax
dax6. aug., 03:48
Alle legitime jeg vet har det ikke bra med GPT-OSS så langt Det er nyttig fordi nå når jeg ser populære kontoer si "det er så bra wow" vet jeg at de tuller
373,68K