Epiplexidade, Raciocínio e o Comportamento "Alienígena" dos LLMs: minha conversa com @Pavel_Izmailov, pesquisador de IA na @AnthropicAI e professor na @nyuniversity. 00:00 - Introdução 00:53 - Instintos de sobrevivência alienígena: o aprendizado contínuo está prestes a criar um grande problema de alinhamento? Riffing no post por @iruletheworldmo 03:33 - A IA aprendeu engano com a literatura de ficção científica? 05:55 - Definindo as equipes de Alinhamento, Superalinhamento e OpenAI 08:12 - Jornada de Pavel: Da matemática russa ao Superalinhamento OpenAI 10:46 - Checagem de cultura: OpenAI vs. Anthropic vs. Academia 11:54 - Por que se mudar para a NYU? Academias e a necessidade de pesquisa exploratória 13:09 - O raciocínio torna o alinhamento da IA mais difícil ou mais fácil? 14:22 - Sandbagging: Quando modelos fingem ser burros 16:19 - Supervisão Escalável: Usando IA para supervisionar IA 18:04 - Generalização de fraco para forte 22:43 - Interpretabilidade Mecanicista: Dentro da caixa preta 25:08 - A explosão do raciocínio 27:07 - Transformers são suficientes ou precisamos de um novo paradigma?...