AIモデルの能力の成長は、人間の知能の発達とはまったく似ていませんが、AIタイプの間では、AGIまたは超知能は必然的に人間の天才と同じ能力の分布を持つという仮定が依然として広まっています。間違っているようです
RLがAGIに発展しない可能性のある一連の機能を生成するというカルパシーの観察(他のものも)も一般化する可能性があります
つまり、特定の研究の方向性はおろか、人口全体の人間の知能のパッケージ全体が ML 技術を使用して複製可能であるという宇宙の法則はまったくないように私には思えます
私(ところで)私(ところで)にとって、法律事務所の一流の法律アナリストの仕事のほぼすべてを実行できるエージェントAIモデルを継続的に構築できるが、新しい分野で働く法学者の仕事の50〜60%しか実行できないというのは非常にもっともらしいように思えます
ちなみに、これは弁護士にとって明らかであり、新しい分野やサブ分野で働く弁護士は基本的に類推などによって法律をでっち上げているだけであることを知っているからです。
物理学の人ではありませんが、同等のものは、1人のアインシュタインの仕事をすることができなくても、データセンターで10,000人の自己啓発的な大学院生をホストできるということです(または何でも、「AGIがアインシュタインに取って代わるとき」がまったく有用な仮説であるなら、idk)
たとえば、いくつかの異なるモデルアーキテクチャを組み合わせて、人間の洞察を集合的に複製できると仮定したとしても、それはフロンティアモデルのチューニングが現在になっているような、グラインドな最適化の問題によく似ています。
3.57K