AGIは一つのモデルとして現れるわけではありません。多くのエージェントが協力することで生まれるかもしれません。 Google DeepMindの新しい論文は、AGIが単一のシステムではなく集合知として現れる可能性があると主張しています。 請求権 AGIは、まず専門的なAIエージェントのネットワークから生まれるかもしれません。 各エージェントは狭く守る。 彼らは一緒に、一般的な行動をとります。 なぜこれが重要なのか ほとんどの安全作業は強力なAIが一人のものであることを前提としています。 本論文はその前提を否定します。 リスクは、一つの心を合わせることから、相互作用を支配する方向へと移ります。 パッチワークAGIの形成方法 ・エージェントはツール、メモリ、コーディング、検索に特化しています • オーケストレーションによるエージェント間のタスク分割 ・協調は新たな能力を生み出す • 単一のエージェントが完全に能力を持つことはありません 核心リスク 集団行動は個人のコントロールを超えることがあります。 創発的な知能は見過ごされがちです。 提案された修正案 安全はモデルではなくシステムを対象とすべきです。 ・管理エージェント市場 ★ エージェントごとの評判と身元情報 ・監査ログと回路ブレーカー...