Ik geloofde het niet toen ik het voor het eerst zag, maar: We hebben een prompt stealing-model getraind dat een nauwkeurigheid van >3x SoTA krijgt. Het geheim is het weergeven van LLM-outputs *correct* 🚲 Demo/blog: 📄: 🤖: 🧑‍💻:
8,73K