OpenAI усиливает безопасность ChatGPT на фоне исков и расследований

OpenAI усиливает безопасность ChatGPT на фоне исков и расследований

OpenAI объявила о внедрении новых механизмов безопасности в ChatGPT, направленных на своевременное обнаружение рискованных сигналов в диалогах. Как сообщается в официальном блоге компании, система теперь способна анализировать контекст беседы в динамике, а не каждое сообщение по отдельности. Это позволяет точнее распознавать признаки суицидальных намерений, самоповреждения или потенциального насилия.

Основой обновления стали временные «итоги безопасности» (safety summaries), которые формируются в процессе разговора и не сохраняются в постоянной памяти или персонализации. Такой подход, по замыслу разработчиков, снижает риск утечки конфиденциальных данных и одновременно повышает эффективность анализа.

Выпуск новых средств защиты происходит на фоне ужесточения юридического и политического давления на OpenAI. Компания столкнулась с серией судебных исков, в которых утверждается, что ChatGPT ненадлежащим образом реагировал на сообщения пользователей, находящихся в кризисном состоянии. Кроме того, в ряде стран начаты официальные расследования инцидентов, связанных с опасными взаимодействиями с чат-ботом.

OpenAI подчеркивает, что стремится сделать ИИ-помощника более ответственным инструментом. В компании считают, что нововведения помогут предотвратить трагические случаи и повысить доверие к технологии. Тем не менее, критики отмечают, что эффективность подобных мер может быть ограничена, если не будут решены системные проблемы модерации контента.

На фоне нововведений акции частной компании OpenAI не торгуются публично, однако косвенное влияние на рынок криптовалют и технологических активов может быть связано с общим настроем инвесторов по отношению к сектору ИИ. Аналитики ожидают, что конкуренты также усилят работу над безопасностью своих продуктов, чтобы избежать аналогичных правовых рисков.