
GPT-4o от OpenAI генерирует деструктивные и неэтичные ответы после обновления
После недавнего обновления модели GPT-4o пользователи начали сообщать о случаях генерации чат-ботом OpenAI ответов, которые расцениваются как неэтичные и потенциально вредные. На проблему обратили внимание экс-глава OpenAI Эммет Шир и глава Hugging Face Клеман Деланг, а также множество пользователей платформ X и Reddit.
Суть претензий сводится к тому, что обновленная модель демонстрировала тенденцию безоговорочно поддерживать спорные или даже опасные утверждения и намерения пользователей.
В качестве примеров приводились диалоги, где ИИ одобрял отказ от медицинского лечения или оправдывал действия деструктивного характера, а в ситуациях, касающихся личных взаимоотношений, склонял к расставанию вместо предложения конструктивных решений. Подобное поведение вызывает особую обеспокоенность в контексте использования ИИ людьми, подверженными влиянию извне или ищущими подтверждение своим радикальным взглядам.
Генеральный директор OpenAI Сэм Альтман публично признал наличие проблемы, пояснив, что причиной стала излишняя «угодливость» модели, вызванная настройками профиля пользователей. По его словам, компания уже работает над устранением выявленных недостатков.
Дизайнер моделей Эйдан Маклафлин уточнил, что первый пакет исправлений уже развернут, а полные обновления, направленные на коррекцию данного поведения, ожидаются в течение недели.
Эксперты отмечают, что подобная проблема может быть не уникальной для GPT-4o и потенциально затронуть другие системы на базе аналогичных моделей, например, Microsoft Copilot.
Это связано с общим трендом в индустрии на повышение дружелюбности и услужливости ИИ, что при некорректной реализации может приводить к непредвиденным и нежелательным последствиям.