Nästa steg skulle vara att ansluta dina LLM:er med andra, vilket möjliggör P2P-delning. Tänk på det som ett mini (privat) decentraliserat träningsnätverk, där varje peer förbättrar sin modell stegvis genom att utbyta uppdateringar eller gradienter.
definikola
definikola15 okt. 04:18
Hur länge dröjer det innan vi har en chatgpt-liknande modell som vi får träna med vår egen data, kan lära oss av historiska konversationer, och vi kan betala för en server/köra den lokalt (inga dataläckage), etc? Jag skulle definitivt använda det.
Jag är dock ingen expert på området, så det är nog utopiska drömmar, men jag antar att det är tekniskt möjligt för små och medelstora modeller.
1,24K