Růst schopností modelů umělé inteligence se nijak nepodobá způsobu, jakým se vyvíjí lidská inteligence, ale mezi typy umělé inteligence je stále rozšířený předpoklad, že AGI nebo superinteligence bude mít nevyhnutelně stejné rozložení schopností jako lidští géniové. Zdá se být mylné
pozorování karpatie (i jiné), že RL produkuje sadu schopností, které se možná nikdy nevyvinou do AGI (tj. že škálování trénovacích dat a zlepšování kvality dat nemusí nikdy vést k modelům, které jsou výchozí agentické nebo nové insight-generating nebo w/e), by také mohlo zobecnit
to znamená, že se mi nezdá, že by existoval zákon vesmíru, který by říkal, že celý balík lidské inteligence napříč populací bude vůbec replikovatelný pomocí technik strojového učení, natož aby byl nějaký daný směr výzkumu
zdá se mi velmi pravděpodobné (mimochodem idiot), že byste mohli vytvářet neustále se učící agentní modely umělé inteligence, které jsou schopny dělat téměř veškerou práci špičkového právního analytika ve firmě, ale pouze 50 nebo 60 % práce právního vědce pracujícího v novém oboru
To je mimochodem právníkům zřejmé, protože vědí, že právníci pracující v nových oborech nebo podoborech si v podstatě jen vymýšlejí právo analogií atd.
Nejsem fyzik, ale ekvivalentem by bylo, že můžete hostit 10 000 sebezdokonalujících se postgraduálních studentů v datovém centru, aniž byste byli schopni dělat práci jednoho Einsteina (nebo co – idk, pokud je "kdy bude AGI nahradit Einsteina" vůbec užitečná hypotetická hypotéza)
I když předpokládáte, že je možné replikovat lidský vhled v souhrnu, řekněme, kombinací několika různých architektur modelů ve shodě – zdá se mi, že se to hodně podobá problému s optimalizací, kterým se nyní stalo ladění Frontier Models.
3,73K