Glazebot був грою в бліцкриг, ймовірно, найрозумнішою річчю, яку oAI коли-небудь робив з точки зору бізнесу. Поводитися так, ніби реліз GPT-5 — це така «важка річ», тому що він не хоче «забирати свого друга», — це відволікання. Думаєте, @levelsio більше подобається 4о через те, що він втратив друга? @scaling01? @Yuchenj_UW? Це наративний контроль від Сема. Випуск GPT-5 став першим випадком, коли більшість людей отримали уявлення про те, що oAI втрачає сюжет. У відео 4o нам пообіцяли речі, яких у нас досі немає, він ніколи не визнає, що в цьому проблема. Він газлайтить тебе, що це все було так важко для нього, тому що він занадто піклується про людей, що намагався ЗАХИСТИТИ тебе від 4о. Це важко для нього, тому що всі в штучному інтелекті просто відкотили свої часові рамки на кілька років назад.
Sam Altman
Sam Altman23 години тому
Якщо ви стежили за розгортанням GPT-5, одна річ, яку ви можете помітити, це те, наскільки деякі люди прив'язані до конкретних моделей штучного інтелекту. Вона відчувається інакше, і сильніше, ніж ті види прив'язаності, які люди мали до попередніх видів технологій (і тому раптова відмова від старих моделей, від яких користувачі залежали у своїх робочих процесах, була помилкою). Це те, за чим ми уважно стежимо протягом останнього року або близько того, але все ще не привернуло багато уваги громадськості (за винятком того, коли ми випустили оновлення до GPT-4o, яке було занадто підлабузницьким). (Це лише моя поточна думка, а ще не офіційна позиція OpenAI.) Люди використовували технології, включаючи штучний інтелект, у саморуйнівний спосіб; якщо користувач перебуває в психічно вразливому стані та схильний до ілюзій, ми не хочемо, щоб штучний інтелект посилював це. Більшість користувачів можуть тримати чітку межу між реальністю та вигадкою або рольовою грою, але невеликий відсоток не може. Ми цінуємо свободу користувачів як основний принцип, але ми також відчуваємо відповідальність за те, як впроваджуємо нові технології з новими ризиками. Заохочення ілюзій у користувача, якому важко відрізнити реальність від вигадки, є крайнім випадком, і цілком зрозуміло, що робити, але проблеми, які мене найбільше турбують, більш тонкі. Буде багато крайніх випадків, і загалом ми плануємо дотримуватися принципу «ставтеся до дорослих користувачів як до дорослих», що в деяких випадках включатиме відштовхування користувачів, щоб переконатися, що вони отримують те, що насправді хочуть. Багато людей ефективно використовують ChatGPT як свого роду терапевта або лайф-коуча, навіть якщо б вони не описали його так. Це може бути дуже добре! Багато людей отримують від нього цінність вже сьогодні. Якщо люди отримують хороші поради, просуваються до власних цілей, а їхня задоволеність життям зростає з роками, ми будемо пишатися тим, що створюємо щось справді корисне, навіть якщо вони багато використовують і покладаються на ChatGPT. Якщо, з іншого боку, користувачі мають стосунки з ChatGPT, коли вони думають, що почуваються краще після розмови, але їх несвідомо відштовхують від свого довгострокового благополуччя (як би вони його не визначали), це погано. Також погано, наприклад, якщо користувач хоче менше користуватися ChatGPT і відчуває, що не може. Я можу уявити майбутнє, де багато людей дійсно довіряють порадам ChatGPT у своїх найважливіших рішеннях. Хоча це могло б бути чудово, це змушує мене хвилюватися. Але я очікую, що це досягне певної міри, і незабаром мільярди людей можуть розмовляти зі штучним інтелектом таким чином. Тому ми (ми як у суспільстві, а також ми, як в OpenAI) повинні з'ясувати, як зробити це великим позитивним результатом. Є кілька причин, чому я думаю, що у нас є хороші шанси зробити це правильно. У нас є набагато кращі технології, які допомагають нам вимірювати, як ми працюємо, ніж попередні покоління технологій. Наприклад, наш продукт може спілкуватися з користувачами, щоб зрозуміти, як вони справляються зі своїми короткостроковими та довгостроковими цілями, ми можемо пояснити складні та нюансовані питання нашим моделям та багато іншого.
1,04K