Der nächste Schritt wäre, Ihre LLMs mit anderen zu verbinden, um P2P-Sharing zu ermöglichen. Denken Sie daran, es als ein mini (privates) dezentrales Trainingsnetzwerk zu betrachten, bei dem jeder Peer sein Modell schrittweise verbessert, indem er Updates oder Gradienten austauscht.
definikola
definikola15. Okt., 04:18
Wie lange wird es dauern, bis wir ein Modell ähnlich wie ChatGPT haben, das wir mit unseren eigenen Daten trainieren können, in der Lage ist, aus historischen Gesprächen zu lernen, und für das wir einen Server bezahlen oder es lokal betreiben können (keine Datenlecks) usw.? Ich würde das auf jeden Fall nutzen.
Ich bin zwar kein Experte auf diesem Gebiet, also wahrscheinlich utopische Träume, aber ich schätze, es ist technisch möglich für kleine und mittlere Modelle.
1,2K