ИИ-мошенники используют нейросети для имитации бывших партнеров: новые схемы обмана

Киберпреступники нашли новый способ обмана россиян — имитацию общения с бывшими партнерами с помощью искусственного интеллекта. Эксперты по кибербезопасности отмечают рост числа случаев, когда мошенники используют нейросети для создания убедительных подделок голоса, видео и текстовых сообщений, играя на эмоциональной связи и доверии, которое когда-то существовало между бывшими возлюбленными.
Как работают новые схемы обмана
Злоумышленники делают ставку на то, что люди склонны доверять тем, с кем когда-то были в близких отношениях. При этом они активно применяют последние достижения в области искусственного интеллекта для создания максимально реалистичных имитаций.
Основные схемы мошенничества, выявленные в 2025 году:
- AI-клоны голоса для срочных просьб о деньгахИспользуя всего несколько секунд настоящей аудиозаписи, мошенники могут создать реалистичную имитацию голоса бывшего партнера, который звонит с просьбой о срочном займе из-за якобы возникшей чрезвычайной ситуации.
- Дипфейки и AI-сгенерированные «кружочки» в мессенджерахТехнологии генерации видео позволяют создавать короткие видеосообщения, где лицо бывшего партнера выглядит невероятно реалистично. Эти "кружочки" в мессенджерах повышают доверие жертвы к последующим просьбам.
- Чат-боты, имитирующие манеру общенияСовременные языковые модели могут анализировать переписку и точно воспроизводить индивидуальный стиль общения человека, включая характерные фразы, шутки и даже ошибки в написании.
- AI-инструменты для копирования стиля перепискиМошенники используют специальные инструменты, которые могут воспроизводить не только текст, но и привычки в использовании эмодзи, пунктуации и других особенностей письменной речи.
Мнение экспертов
Эксперты по кибербезопасности отмечают, что новые технологии существенно повышают эффективность мошеннических схем:
«Злоумышленники получают всё больше возможностей для создания иллюзии общения с реальным человеком, так как технические решения для создания дипфейков становятся более продвинутыми и доступными», — комментирует Марина Пробетс, интернет-аналитик и эксперт компании «Газинформсервис».
По словам Евгения Егорова, ведущего аналитика департамента защиты от цифровых рисков компании F6, мошеннические схемы с «бывшими» требуют детального изучения потенциальных жертв — и весь вопрос в том, как глубоко киберпреступники проработают свои сценарии.
Почему это работает: психологический аспект
Ольга Свистунова, старший контент-аналитик «Лаборатории Касперского», объясняет психологическую основу таких атак:
«Когда человек получает сообщение от бывшего партнера, особенно если расставание было недавним или эмоционально сложным, его критическое мышление может быть ослаблено эмоциональной реакцией — будь то ностальгия, чувство вины или желание помочь. Этим и пользуются мошенники».
Добавляет сложности и то, что общение часто происходит в цифровом пространстве, где сложнее проверить подлинность собеседника, особенно если мошенники получили доступ к реальному аккаунту бывшего партнера или создали очень похожий.
Как защититься от таких атак
Эксперты рекомендуют соблюдать следующие меры предосторожности:
- Перепроверяйте информацию по альтернативным каналам связиЕсли вам пришло подозрительное сообщение от бывшего партнера, попробуйте связаться с ним другим способом — например, позвонить по телефону, если сообщение пришло в мессенджере.
- Используйте видеозвонки для подтверждения личностиВ случае сомнений предложите провести видеозвонок, во время которого попросите совершить какое-то простое действие в реальном времени.
- Не спешите выполнять финансовые просьбыДаже если сообщение кажется подлинным, не торопитесь переводить деньги или предоставлять личную информацию.
- Обращайте внимание на необычные детали в общенииЕсли стиль общения, словарный запас или тема разговора кажутся необычными для этого человека, это может быть признаком мошенничества.
- Включите двухфакторную аутентификациюЭто поможет защитить ваши собственные аккаунты от взлома и использования для подобных схем.
Технологическое противодействие
В ответ на растущую угрозу AI-мошенничеств разрабатываются и технологические средства защиты:
- Инструменты для определения синтезированного голоса
- Системы распознавания дипфейков
- Алгоритмы выявления аномалий в стиле общения
Однако эксперты предупреждают, что технологии детекции часто отстают от технологий создания фейков, поэтому наиболее эффективной защитой остается бдительность пользователей.