Кадр из фильма «Она» (2013). | marieclaire.ru

Кадр из фильма «Она» (2013).

OpenAI поделились первым публичным отчетом о взаимодействии пользователей с ChatGPT. Согласно его данным, каждую неделю миллионы человек проявляют в общении с нейросетью признаки психической нестабильности.

Отмечается, что около 560 тысяч пользователей, активных в течение данной недели, продемонстрировали симптомы психоза и мании. А еще около 2,4 миллиона человек вели с искусственным интеллектом диалог, в котором обсуждали суицидальные мысли и самоповреждение. В заявлении также уточняется, что эти разговоры трудно обнаружить или измерить, поэтому анализ лишь приблизительный.

Компания была вынуждена опубликовать статистику в результате возросшего давления в свой адрес. В СМИ последние месяцы активно обсуждалось влияние ИИ на людей в нестабильном психическом состоянии, а апогеем ситуации стало самоубийство американского подростка, произошедшее после обсуждения с ChatGPT. Трагедия привела к судебному иску против OpenAI и усиленному вниманию со стороны властей.

После этого разработчикам пришлось серьезно взяться за усовершенствование внутренних механизмов. Они сообщили, что новая версия GPT-5 представляет наименьшую опасность для психологически уязвимых пользователей. В частности, по данным The Guardian, теперь он выдает безопасный ответ в 91% случаев, против 77%, которые были ранее. Также компания добавила в функционал ИИ больше доступа к кризисным горячим линиям и напоминания для пользователей о необходимости делать перерыв во время длительных сессий (читайте также: ИИ-бойфренды исчезают: пользователи теряют партнеров из-за нового обновления ChatGPT).

Для этой работы были привлечены 170 врачей, которые оценивали диалог с нейросетью и помогали в составлении готовых ответов чат-бота на вопросы, связанные с психическим здоровьем. «В рамках этой работы психиатры и психологи рассмотрели более 1800 модельных реакций, связанных с серьезными ситуациями психического здоровья, и сравнили ответы новой модели чата GPT-5 с предыдущими моделями», — говорится в сообщении OpenAI.

Тем не менее эксперты в области психического здоровья обеспокоены тем, что люди используют нейросети вместо походов к реальным психологам и психотерапевтам. Даже несмотря на улучшение его работы, искусственный интеллект не способен «лечить» людей, находящихся в кризисной ситуации и по-прежнему склонен ошибаться.

Фото: Legion Media