La prochaine étape serait de connecter vos LLM avec d'autres, permettant le partage P2P. Pensez-y comme à un mini réseau d'entraînement décentralisé (privé), chaque pair améliorant son modèle de manière incrémentale en échangeant des mises à jour ou des gradients.
definikola
definikolail y a 17 heures
Combien de temps avant que nous ayons un modèle similaire à chatgpt que nous pouvons entraîner avec nos propres données, capable d'apprendre des conversations historiques, et que nous pouvons payer pour un serveur / l'exécuter localement (sans fuites de données), etc ? Je l'utiliserais sans aucun doute.
Je ne suis pas un expert dans le domaine, donc ce sont probablement des rêves utopiques, mais je suppose que c'est techniquement possible pour des modèles petits et moyens.
969