La AGI puede no llegar como un solo modelo. Puede surgir de la colaboración de muchos agentes. Un nuevo artículo de Google DeepMind sostiene que la AGI podría aparecer como inteligencia colectiva, no como un sistema único. La afirmación La AGI podría surgir primero de redes de agentes especializados en IA. Cada agente se mantiene reducido. Juntos, actúan con generalidad. Por qué esto importa La mayoría de los trabajos de seguridad asumen una IA poderosa. Este artículo rechaza esa suposición. El riesgo pasa de alinear una sola mente a gobernar las interacciones. Cómo se forma la AGI en patchwork • Los agentes se especializan en herramientas, memoria, codificación o búsqueda • Tareas divididas entre agentes por orquestación • La coordinación crea nuevas habilidades • Ningún agente individual es plenamente capaz El riesgo principal El comportamiento colectivo puede superar el control individual. La inteligencia emergente puede pasar desapercibida. La solución propuesta La seguridad debe apuntar a los sistemas, no a los modelos. ▸ Mercados agentes controlados ▸ Reputación e identidad por agente ▸ Registros de auditoría y interruptores automáticos...