AGI nemusí přijít jako jeden model. Může vzniknout díky spolupráci mnoha agentů. Nový článek od Google DeepMind tvrdí, že AGI by mohla vypadat jako kolektivní inteligence, nikoli jako jeden systém. Nárok AGI může poprvé vzniknout ze sítí specializovaných AI agentů. Každý agent zůstává úzký. Společně se chovají obecně. Proč je to důležité Většina bezpečnostních prací předpokládá jednu výkonnou AI. Tento článek tento předpoklad odmítá. Riziko se přesouvá od sladění jedné mysli k řídícím interakcím. Jak vzniká patchwork AGI • Agenti se specializují na nástroje, paměť, kódování nebo vyhledávání • Úkoly rozdělené mezi agenty podle orchestrace • Koordinace vytváří nové schopnosti • Žádný jednotlivý agent není plně schopný Hlavní riziko Kolektivní chování může přesahovat individuální kontrolu. Vznikající inteligence může zůstat bez povšimnutí. Navrhované řešení Bezpečnost musí cílit na systémy, ne na modely. ▸ Trhy s řízenými agenty ▸ Pověst a identita na agenta ▸ Auditní záznamy a jističe...