AI 模型的能力增長與人類智力的發展並不相似,但在 AI 界中,仍然普遍存在一種假設,即 AGI 或超智能不可避免地會擁有與人類天才相同的能力分佈。這似乎是錯誤的。
卡帕西的觀察(還有其他人)指出,強化學習產生的一系列能力可能永遠不會發展成AGI(即擴大訓練數據和改善數據質量可能永遠無法導致模型成為默認的代理或產生新見解或其他),這一點也可能具有普遍性。
也就是說,我並不認為宇宙中有一條法律規定,整個人類智慧的包裹在整個人口中都可以通過機器學習技術來複製,更不用說任何特定的研究方向了。
對我來說(順便說一下,我是一個白癡),似乎非常合理的是,你可以建立持續學習的代理 AI 模型,這些模型能夠完成幾乎所有頂級法律分析師在律所的工作,但僅能完成新領域中法律學者工作的大約 50% 或 60%。
這對律師來說是顯而易見的,因為他們知道在新領域或子領域工作的律師基本上只是通過類比等方式創造法律。
我不是物理學家,但相當於你可以在數據中心容納10,000名自我提升的研究生,而無法完成一個愛因斯坦的工作(或者其他的——我不知道「當AGI何時會取代愛因斯坦」是否是一個有用的假設)。
即使你假設可以通過幾種不同模型架構的組合來複製人類的洞察力——在我看來,這看起來很像現在調整前沿模型所變成的那種繁瑣的優化問題。
3.57K