Рост возможностей моделей ИИ не выглядит так, как развивается человеческий интеллект, но среди специалистов по ИИ все еще существует широко распространенное предположение, что AGI или суперинтеллект, неизбежно, будут иметь такое же распределение возможностей, как у человеческих гениев. Это кажется неправильным.
наблюдение Карпаты (и других тоже) о том, что RL производит набор возможностей, которые могут никогда не развиться в AGI (т.е. что увеличение объема обучающих данных и улучшение качества данных могут никогда не привести к моделям, которые являются по умолчанию агентными или генерирующими новые идеи или что-то в этом роде), также может обобщаться.
то есть, мне не кажется, что существует закон вселенной, который говорит о том, что весь пакет человеческого интеллекта среди населения можно будет воспроизвести с помощью методов машинного обучения, не говоря уже о каком-либо конкретном направлении исследований.
Мне кажется вполне правдоподобным (я, кстати, идиот), что можно создать постоянно обучающиеся агентные модели ИИ, которые способны выполнять почти всю работу юриста высшего уровня в фирме, но только 50 или 60% работы юридического ученого, работающего в новой области.
это очевидно для юристов, потому что они знают, что юристы, работающие в новых областях или подполях, по сути, просто создают право по аналогии и так далее.
я не физик, но эквивалентом было бы то, что вы можете разместить 10 000 саморазвивающихся аспирантов в дата-центре, не будучи способным выполнить работу одного Эйнштейна (или что-то в этом роде — не знаю, является ли гипотеза «когда ИИ заменит Эйнштейна» вообще полезной)
даже если вы предполагаете, что возможно воспроизвести человеческое понимание в совокупности, скажем, с помощью комбинации нескольких различных архитектур моделей в сотрудничестве — это, на мой взгляд, похоже на ту самую утомительную задачу оптимизации, которой стало настраивание передовых моделей.
3,72K