Epiplexidad, razonamiento y el comportamiento "alienígena" de los LLM: Mi conversación con @Pavel_Izmailov, investigador en IA en @AnthropicAI y profesor en @nyuniversity. 00:00 - Introducción 00:53 - Instintos de supervivencia alienígena: ¿es el aprendizaje continuo a punto de crear un gran problema de alineamiento? Riffing sobre la publicación por @iruletheworldmo 03:33 - ¿Aprendió la IA a engaño de la literatura de ciencia ficción? 05:55 - Definiendo los equipos de Alineación, Superalineación y OpenAI 08:12 - El viaje de Pavel: De las matemáticas rusas a la Superalineación OpenAI 10:46 - Chequeo de cultura: OpenAI vs. Anthropic vs. Academia 11:54 - ¿Por qué mudarse a NYU? La academia y la necesidad de la investigación exploratoria 13:09 - ¿El razonamiento hace que la alineación de la IA sea más difícil o fácil? 14:22 - Sandbagging: Cuando las modelos fingen ser tontas 16:19 - Supervisión escalable: Uso de IA para supervisar IA 18:04 - Generalización de débil a fuerte 22:43 - Interpretabilidad mecanicista: Dentro de la caja negra 25:08 - La explosión del razonamiento 27:07 - ¿Son suficientes los Transformers o necesitamos un nuevo paradigma?...