O próximo passo seria conectar os seus LLMs com outros, permitindo o compartilhamento P2P. Pense nisso como uma mini rede de treinamento descentralizada (privada), onde cada par melhora seu modelo incrementalmente ao trocar atualizações ou gradientes.
definikola
definikola15/10, 04:18
Quanto tempo até termos um modelo semelhante ao chatgpt que possamos treinar com os nossos próprios dados, capaz de aprender com conversas históricas, e que possamos pagar por um servidor/executá-lo localmente (sem vazamentos de dados), etc? Eu definitivamente usaria isso.
Não sou um especialista na área, portanto, provavelmente são sonhos utópicos, mas acho que é tecnicamente possível para modelos pequenos e médios.
1,24K