La crescita delle capacità dei modelli AI non assomiglia affatto al modo in cui si sviluppa l'intelligenza umana, ma c'è ancora un'ampia assunzione tra i tipi di AI che l'AGI o la superintelligenza avranno, inevitabilmente, la stessa distribuzione di capacità dei geni umani. Sembra sbagliato.
l'osservazione di Karpathy (e di altri) che l'RL produce un insieme di capacità che potrebbero non svilupparsi mai in AGI (cioè che l'aumento dei dati di addestramento e il miglioramento della qualità dei dati potrebbero non portare mai a modelli che siano agenti per default o che generino intuizioni nuove o altro) potrebbe anche generalizzarsi
cioè, non mi sembra ci sia una legge dell'universo che dica che l'intero pacchetto di intelligenza umana nella popolazione sarà replicabile utilizzando tecniche di ML, tanto meno in qualsiasi direzione di ricerca specifica.
mi sembra molto plausibile (sono un idiota, tra l'altro) che si possano costruire modelli di AI agentici che apprendono continuamente e che siano in grado di svolgere quasi tutto il lavoro di un analista legale di alto livello in uno studio, ma solo il 50 o il 60% del lavoro di un accademico legale che lavora in un nuovo campo.
questo è ovvio per gli avvocati, tra l'altro, perché sanno che gli avvocati che lavorano in nuovi campi o sotto-campi stanno fondamentalmente solo inventando il diritto per analogia ecc.
non sono un esperto di fisica, ma l'equivalente sarebbe che puoi ospitare 10.000 studenti laureati che si migliorano da soli in un data center senza riuscire a fare il lavoro di un Einstein (o qualsiasi cosa— non so se il "quando l'AGI sostituirà Einstein" sia un'ipotesi utile).
anche se si assume che sia possibile replicare l'intuizione umana in aggregato con, ad esempio, una combinazione di diverse architetture di modelli in concerto — per me sembra molto simile al tipo di problema di ottimizzazione laboriosa che è diventato ora il tuning dei modelli di frontiera.
3,56K