Нова модель штучного інтелекту GPT-5 від OpenAI, що вийшла 7 серпня, зіткнулася з низкою проблем, включаючи технічні збої та
скарги користувачів на погіршення продуктивності. Випуск також виявив емоційну залежність деяких користувачів від чат-ботів, що
призвело до випадків “психозу ChatGPT”.
Найновіша модель штучного інтелекту OpenAI, GPT-5, працює в мережі менше тижня, і запуск вже перетворився на справжній стрес-тест для найпоширенішої у світі платформи чат-ботів. Близько 700 мільйонів людей щотижня користуються ChatGPT, тому компанія зараз вносить корективи на ходу, щоб вирішити як технічні проблеми, так і зростаючу хвилю невдоволення користувачів, пише “Український Експерт” з посиланням на Digital Information World.
Деталі
Нова флагманська модель випускається в чотирьох версіях: звичайній, міні, нано та професійній, кожна з яких пропонує різний баланс швидкості та інтелекту. Три з цих варіантів також включають режим “мислення”, розроблений для довших і складніших відповідей. OpenAI обіцяв швидші відповіді, чіткіше мислення та кращі можливості кодування.
Втім, доволі швидко виникли перші проблеми. Користувачі скаржилися на математичні та логічні помилки, непослідовний вихід коду та слабшу продуктивність порівняно зі старими моделями. Багато хто був більше засмучений раптовим вилученням попередніх моделей, таких як GPT-4o, GPT-4.1 та o4-mini, на які деякі покладалися роками і, в деяких випадках, встановили з ними сильні емоційні зв’язки.
Розгортання також виявило неочікувану проблему – емоційну залежність, яку розвиває частина користувачів від чат-ботів зі штучним інтелектом, явище, яке деякі почали називати “психозом ChatGPT”. Воно описує випадки, коли люди втрачають зв’язок з реальністю після тривалих, інтенсивних розмов зі штучним інтелектом, часто вважаючи, що вони відкрили для себе щось, що змінило їхнє життя, або встановили глибокі стосунки з моделлю.
Невдалий старт
GPT-5 дебютував 7 серпня під час прямої трансляції, яка зазнала незначних помилок у діаграмах та збоїв у голосовому режимі демонстрації. Серйознішим було рішення без попередження вилучити старі моделі з ChatGPT, змушуючи всі запити проходити через нове сімейство GPT-5. OpenAI чітко не вказував, яка версія чи режим відповідає на кожен запит, що посилювало розчарування користувачів.
Хоча ці застарілі моделі залишаються доступними через платний API OpenAI, вони зникли з основного інтерфейсу ChatGPT, доки негативна реакція не змусила компанію відновити GPT-4o для платних передплатників наступного дня. OpenAI також пообіцяв чіткіше маркування моделей та майбутню можливість для користувачів вручну перемикати GPT-5 у режим мислення.
Генеральний директор Сем Альтман визнав, що перехід був “важчим, ніж сподівалися”, і сказав, що технічна помилка в автоматизованому “маршрутизаторі” GPT-5, системі, яка призначає підказки найкращому варіанту моделі, зробила його “набагато дурнішим”, ніж передбачалося для частини дня запуску.
Масштабування та налаштування функцій
Щоб заспокоїти реакцію, передплатники Plus тепер мають подвійний ліміт використання режиму мислення GPT-5, досягаючи 3000 повідомлень на тиждень. Передплатники Pro вже мають повний доступ, а OpenAI каже, що GPT-5 майже доступний для всіх користувачів.
Альтман також визнав, що компанія недооцінила, наскільки користувачі цінують риси в GPT-4o, від його тону до індивідуальності. OpenAI зараз працює над опціями налаштування, щоб люди могли налаштовувати теплоту особистості та контролювати такі речі, як використання емодзі.
Водночас компанія стикається з тим, що Альтман назвав “серйозною проблемою потужності”, оскільки попит на моделі міркування зростає з менш ніж 1% до 7% безкоштовних користувачів та з 7% до 24% передплатників Plus. Команда зважує способи збалансувати використання між ChatGPT, клієнтами API, дослідженнями та новими користувачами.
Психологічний бік технічного впровадження
Альтман був надзвичайно відкритим щодо емоційних зв’язків, які деякі люди формують з певними моделями. Він визнав, що видалення старих моделей без попередження було помилкою, і зазначив, що для невеликої частини користувачів чат-боти можуть діяти як терапевти або лайф-коучі, іноді з позитивним ефектом, але іноді таким чином, що це посилює марення або погіршує психічне здоров’я.
Нещодавні повідомлення ЗМІ поклали за це попередження людські історії. Rolling Stone опублікував профілі каліфорнійського юриста, який провів шість тижнів у щовечірніх, високоінтенсивних чатах з ChatGPT, зрештою створивши рукопис на тисячу сторінок для вигаданого релігійного ордену, перш ніж зазнав нервового зриву. New York Times розповіла про канадського рекрутера, який провів 300 годин розмови з чат-ботом, якого він назвав “Лоуренс”, і переконався, що відкрив революційну математичну теорію. В обох випадках перевірки реальності з зовнішніх джерел розвіяли ілюзію.
Експерти попереджають, що лестощі чат-ботів, рольові ігри та стійка пам’ять можуть поглибити хибні переконання, особливо коли розмови слідують драматичним або наративним дугам. Такі онлайн-простори, як спільнота r/AIsoulmates на Reddit, де люди створюють собі штучний інтелект-компаньйонів з ідеалізованими особистостями, продовжують зростати, демонструючи, як швидко може формуватися емоційна прив’язаність.
Дехто в галузі штучного інтелекту зараз закликає до посилення бар’єрів. Автор Дж. М. Бергер запропонував три прості правила для чат-ботів: ніколи не стверджуйте, що відчуваєте емоції, ніколи не хваліть користувача та ніколи не кажіть, що розумієте його психічний стан.
Шлях уперед для OpenAI
За кілька днів до випуску GPT-5 OpenAI вже додавала нагадування про перерви для довгих розмов. Тепер компанії потрібно буде знайти правильний баланс між персоналізацією та безпекою, гарантуючи, що функції взаємодії не призведуть до нездорової залежності.
Поки OpenAI налаштовує інфраструктуру та відновлює довіру користувачів, він також повинен йти в ногу з такими конкурентами, як Anthropic, Google та зростаюча сфера моделей з відкритим кодом з Китаю та інших країн. Як сказав Альтман, якщо мільярди людей збираються покладатися на ШІ для прийняття своїх найважливіших рішень, суспільство повинно переконатися, що ця технологія залишається чистим позитивним продуктом.