Moderei uma discussão entre Dwarkesh, Dr. Burry e John Clark (da Anthropic) sobre desacordos entre o grupo de pessoas mais bem informadas sobre IA, incluindo o impacto futuro no emprego, se é uma bolha, etc. Obrigado ao Substack por tornar isso possível.
Uma sub-discussão é até que ponto os LLMs, que este grupo concorda absolutamente que podem fazer coisas comercialmente valiosas, são irregulares e propensos a erros de maneiras difíceis de prever. Sim! Os humanos também são. E, por sorte, temos diferentes falhas.
Um ponto destacado por Jack e que é uma das maiores lacunas de entendimento entre pessoas bem informadas e aquelas que precisam estar bem informadas: as capacidades de hoje são um piso em vez de um teto. Qualquer sistema futuro pode optar por adotá-las ou descartá-las.
Jack narra brevemente como os LLMs foram uma ruptura acentuada em relação à noção anteriormente popular de que desenvolveríamos inteligência construindo cem mil bancos de testes, fazendo com que soluções pontuais aprendessem a vencer de forma restrita, então ??? a generalização implica inteligência.
Em vez disso, construímos uma ferramenta *notavelmente* geral sobre o que se resume a um ambiente (“coloque-a numa sala com todos os documentos escritos”) e então a coisa que saiu acontece por acaso ser extremamente bem-sucedida quando você a aplica a novas tarefas. Os próximos anos podem envolver a criação de bancos de teste.
Como observei: costumávamos treinar IAs para jogar StarCraft. Todas as tentativas futuras de fazer isso podem assumir que o sistema leu a Arte da Guerra no chinês original, a menos que o(s) arquiteto(s) acreditem que esse conhecimento tornará você pior em parar os ataques de zerglings.
* Jack Clark, não John Clark. Desculpe, cresci a ler Tom Clancy. Um dia eles poderão pré-visualizar os meus tweets, e eu me alegrarei com o quanto menos "ovo no rosto" acontece ao redigir no móvel.
250