j'ai totalement oublié cette expérience où j'ai découvert qu'il était plus rapide et moins cher de faire de la classification via des embeddings plutôt qu'en utilisant le llm le plus rapide/le moins cher (à l'époque)
J'ai effectué un test rapide en comparant la classification (positive/négative) en utilisant gpt-3.5-turbo, et en comparant la similarité avec les embeddings de positif et négatif (j'ai utilisé scapy ici).
La méthode d'embedding était ~50x plus rapide, mais pas aussi précise. C'était juste un test rapide, mais je vais probablement approfondir.
le week-end dernier, je suis tombé dans le terrier du lapin sur la façon de construire des ontologies dynamiques, et je revenais sans cesse au clustering des embeddings
je suis curieux de savoir si quelqu'un a des expériences intéressantes que je pourrais consulter à ce sujet