Актуальні теми
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Зростання можливостей моделей штучного інтелекту не схоже на те, як розвивається людський інтелект, але серед типів штучного інтелекту все ще поширене припущення, що AGI або суперінтелект неминуче матимуть такий самий розподіл можливостей, як і людські генії. здається неправильним
спостереження Карпати (інші також) про те, що RL виробляє набір можливостей, які можуть ніколи не перерости в AGI (тобто, що масштабування тренувальних даних і поліпшення якості даних ніколи не може призвести до моделей, які за замовчуванням є агентичними або новими інсайтами, або w/e), також може бути узагальнено
тобто, мені здається, не існує закону Всесвіту, який говорить, що весь пакет людського інтелекту в популяції взагалі буде відтворюватися за допомогою методів машинного навчання, не кажучи вже про будь-який конкретний напрямок досліджень
мені здається дуже правдоподібним (до речі, ідіотом), що можна створювати агентні моделі штучного інтелекту, що постійно навчаються, які здатні виконувати майже всю роботу юридичного аналітика вищого рівня в фірмі, але лише 50 або 60% роботи вченого-юриста, який працює в новій галузі
До речі, це очевидно для юристів, адже вони знають, що юристи, які працюють у нових сферах або підгалузях, фактично просто вигадують право за аналогією тощо.
не фахівець з фізики, але еквівалент полягає в тому, що ви можете розмістити 10 000 аспірантів, які самовдосконалюються, у центрі обробки даних, не маючи змоги виконувати роботу одного Ейнштейна (або будь-якого іншого — idk, якщо фраза «коли AGI замінить Ейнштейна» взагалі є корисною гіпотетикою)
Навіть якщо ви припустите, що можна відтворити людське розуміння в сукупності, скажімо, з комбінацією кількох різних архітектур моделей у поєднанні — це дуже схоже на проблему оптимізації гринду, якою зараз став тюнінг моделей Frontier.
3,57K
Найкращі
Рейтинг
Вибране