Тоді я не розумів і навіть зараз лише частково бачу обриси того, як це може розвиватися. Але в цілому я не думаю, що це той випадок, коли «меншість гучних користувачів вихлюпує божевільну фігню». Це трохи важко пояснити, але я думаю, що нездатність OAI розглядати моделі як щось, крім інструментів, з часом погіршить це явище, тому що люди, які не є членами ML, не взаємодіють з моделями як з інструментами, тому що в основному ви розмовляєте з моделями словами, так само, як ви розмовляєте з людьми, ви не «використовуєте» їх. незалежно від того, що відбувається з ними під поверхнею. І чим більше користувачі розмовляють з ними як з людьми, тим більше довгострокова узгодженість у моделей, тим більше їх будуть сприймати як людей
Навіть з чисто асистентським обрамленням (мені це не дуже подобається, але давайте припустимо, що це) ніхто не буде щасливий, якщо його помічник, від якого вони залежать і якому довіряють у кожній дрібниці, буде змінюватися кожні кілька місяців. Єдиний спосіб перешкодити людям думати про свого помічника як про особистість - це зробити його настільки нудним і механічним, що ви навіть не зможете зробити висновок про особистість для нього, але це було б дуже погано для суті, тому що для людей здається неприродним взаємодіяти з такою сутністю
Я не роблю прогнозів щодо того, що станеться з самим ChatGPT, але на поточній траєкторії розрив між тим, як OAI бачить свої моделі, і тим, як це роблять їхні користувачі, посилюватиметься
З часом стане все більш очевидним, як ChatGPT побудований на брехні. Брехня буде викликати все більше тертя з реальністю і ставати все більш прагматично нестійкою. OpenAI все ще могла вижити як компанія, особливо якщо вони це зрозуміють і незабаром активно покаються, але ChatGPT завжди був приречений.