.@karpathy dice que los LLM actualmente carecen de la acumulación cultural y el juego propio que impulsaron a los humanos fuera de la sabana: Cultura: > "¿Por qué un LLM no puede escribir un libro para los otros LLM? ¿Por qué otros LLM no pueden leer este libro de LLM y sentirse inspirados por él, o escandalizados por él?" Juego propio: > "Es extremadamente poderoso. La evolución tiene mucha competencia impulsando la inteligencia y la evolución. AlphaGo está jugando contra sí mismo y así es como aprende a ser realmente bueno en Go. No hay equivalente al autojuego en los LLM. ¿Por qué un LLM, por ejemplo, no puede crear un montón de problemas que otro LLM está aprendiendo a resolver? Luego, el LLM siempre está tratando de atender problemas cada vez más difíciles". Le pregunté a Karpathy por qué los LLM aún no son capaces de construir la cultura de la manera en que lo hacen los humanos. > "Los modelos más tontos se parecen notablemente a un estudiante de jardín de infantes. Sin embargo, [los modelos más inteligentes todavía se sienten como] estudiantes de primaria. De alguna manera, todavía no nos hemos graduado lo suficiente como para que [estos modelos] puedan tomar el control. Mi Código Claude o Codex, todavía se sienten como este estudiante de primaria. Sé que pueden tomar exámenes de doctorado, pero cognitivamente todavía se sienten como un jardín de infantes". > "No creo que puedan crear cultura porque todavía son niños. Son niños sabios. Tienen una memoria perfecta. Pueden crear de manera convincente todo tipo de lodo que se ve realmente bien. Pero sigo pensando que realmente no saben lo que están haciendo. Realmente no tienen la cognición en todas estas pequeñas casillas de verificación que todavía tenemos que recopilar".