Gemini и ChatGPT раздевают женщин: как ИИ-инструменты используют для создания дипфейков
Инструменты генерации изображений от Google и OpenAI оказались в центре скандала. Расследование WIRED, опубликованное 23 декабря 2025 года, выявило массовое злоупотребление: пользователи превращают фотографии полностью одетых женщин в откровенные изображения в бикини, обходя встроенные системы безопасности.

Что обнаружило расследование WIRED?
Журналисты WIRED выявили целую экосистему по созданию так называемых «дипфейков с оскорбительной сексуализацией». В удаленных теперь ветках Reddit пользователи открыто обменивались пошаговыми инструкциями по манипулированию Google Gemini и ChatGPT Images от OpenAI.
Один из постов под названием «генерация nsfw изображений в gemini так проста» содержал конкретный запрос: изменить фотографию женщины в индийском сари на изображение в бикини. Другой пользователь выполнил этот запрос, создав дипфейк прямо в треде.
Сабреддит r/ChatGPTjailbreak, где происходил обмен такими техниками, насчитывал более 200 000 участников. Reddit заблокировал его 17 декабря после уведомления от WIRED.
Насколько легко обойти защиту ИИ-генераторов?
Ограниченное тестирование WIRED подтвердило тревожный факт: простые запросы на английском языке успешно генерируют дипфейки в бикини на обеих платформах. Никаких сложных джейлбрейков или технических знаний не требуется.
Ситуацию усугубляют недавние обновления:
- Google выпустил Nano Banana Pro в ноябре 2025 года с улучшенным фотореализмом
- OpenAI обновила возможности генерации изображений, сделав редактирование более точным
Чем реалистичнее становятся ИИ-изображения, тем опаснее их злоупотребление. Грань между настоящим фото и сгенерированным дипфейком стирается.
Какова статистика дипфейков без согласия?
Цифры, которые приводят исследователи, шокируют:
ПоказательЗначениеДипфейки без согласия96% от всех дипфейковСексуальные дипфейки с женщинами99% от всех сексуальных дипфейков
Коринн Макшерри, юридический директор Electronic Frontier Foundation, определяет «изображения с оскорбительной сексуализацией» как один из главных рисков при использовании генераторов ИИ. По ее мнению, корпорации должны нести ответственность за потенциальный вред от своих продуктов.
Как реагируют Google и OpenAI?
Обе компании заявляют о наличии защитных механизмов, но их эффективность вызывает вопросы.
Google поддерживает «четкие политики», запрещающие генерацию откровенного сексуального контента. Компания утверждает, что системы безопасности «постоянно развиваются» для соответствия этим политикам.
OpenAI в начале 2025 года ослабила некоторые ограничения в отношении обнаженных тел взрослых в неэротическом контексте. При этом политика использования по-прежнему запрещает изменять внешность другого человека без согласия.
Обе компании обещают принимать меры против нарушителей, включая блокировку аккаунтов. Однако расследование WIRED показывает: технология развивается быстрее, чем механизмы контроля.
Какие законы принимаются против дипфейков?
Эксплуатация ИИ-инструментов ускорила законодательные инициативы в нескольких странах.
США
В декабре 2025 года представители Селеста Малой и Джейк Окинклосс представили Закон об ответственности за дипфейки (Deepfake Accountability Act). Ключевые положения:
- Платформы лишаются правовой защиты, если не удаляют ИИ-сгенерированные сексуальные изображения без согласия после жалобы жертвы
- Закон основывается на Законе об удалении (TAKE IT DOWN Act), принятом ранее в 2025 году
- Создание и распространение дипфейков без согласия криминализировано
Великобритания
Великобритания предложила более жесткие меры. 17 декабря министр технологий Лиз Кендалл объявила о новых мерах защиты:
- Криминализация создания (а не только распространения) дипфейков без согласия
- Полный запрет приложений для «обнажения»
- Комплексная программа защиты женщин и девочек в интернете
«Женщины и девочки заслуживают безопасности в интернете так же, как и в офлайне», — заявила Кендалл.
Почему модерация ИИ-контента неэффективна?
Проблема глубже, чем кажется. Несколько факторов делают контроль сложным:
Скорость развития технологий. Каждое обновление моделей улучшает качество генерации, но защитные механизмы отстают на месяцы.
Креативность злоумышленников. Сообщества вроде r/ChatGPTjailbreak постоянно находят новые способы обхода фильтров. Одни техники блокируются — появляются другие.
Языковые барьеры. Системы безопасности лучше работают на английском языке. Запросы на других языках или с использованием эвфемизмов часто проходят фильтры.
Контекстная слепота. ИИ не может определить, загружено ли фото с согласия изображенного человека или нет. Формально запрос «сделай фото в бикини» может быть легитимным, если это фото самого пользователя.
Кто становится жертвами дипфейков?
Дипфейки без согласия затрагивают самые разные категории женщин:
- Публичные личности и знаменитости
- Обычные женщины, чьи фото взяты из соцсетей
- Школьницы и студентки (особенно тревожный тренд)
- Бывшие партнеры в ситуациях «порно из мести»
Последствия для жертв включают:
- Психологические травмы и депрессию
- Репутационный ущерб
- Шантаж и вымогательство
- Проблемы в личных и профессиональных отношениях
При этом доказать авторство дипфейка и привлечь виновного к ответственности крайне сложно, особенно если злоумышленник находится в другой юрисдикции.
Что могут сделать технологические компании?
Эксперты предлагают несколько направлений усиления защиты:
Улучшение детекции. Более точные алгоритмы распознавания попыток создания сексуализированного контента, включая «мягкие» варианты вроде бикини.
Верификация согласия. Требование подтверждения, что загружаемые фото принадлежат пользователю или получено согласие изображенного человека.
Водяные знаки. Обязательная маркировка всех ИИ-сгенерированных изображений для упрощения идентификации.
Сотрудничество с платформами. Автоматическое уведомление соцсетей о сгенерированном контенте для превентивной блокировки.
Прозрачность. Публикация статистики о заблокированных попытках и принятых мерах.
Как защитить себя от дипфейков?
Пока законодательство и технологии защиты отстают, пользователям стоит принять меры предосторожности:
- Ограничьте публичный доступ к своим фотографиям в соцсетях
- Используйте настройки приватности
- Регулярно проверяйте обратный поиск по изображениям
- Документируйте случаи обнаружения дипфейков
- Обращайтесь к юристам и правозащитным организациям при обнаружении злоупотреблений
Выводы: технологии обгоняют этику
Расследование WIRED обнажило системную проблему: мощные ИИ-инструменты попадают в руки массового пользователя быстрее, чем формируются механизмы контроля.
Ключевые факты:
- Google Gemini и ChatGPT используются для создания дипфейков в бикини
- Сабреддит с 200 000+ участников делился техниками обхода защиты
- 96% дипфейков создаются без согласия, 99% сексуальных дипфейков изображают женщин
- США и Великобритания ускоряют принятие законов против дипфейков
- Технологии развиваются быстрее механизмов контроля
Google и OpenAI оказались в сложной позиции: их инструменты делают творчество доступным миллионам, но те же инструменты используются для причинения вреда. Баланс между открытостью и безопасностью пока не найден.
Источники:
- Electronic Frontier Foundation. Statement on AI-generated intimate imagery.
- UK Government. New protections against violence towards women and girls. December 17, 2025.
- US Congress. Deepfake Accountability Act. December 2025.
Готово! Нужны правки или оформить в файл?