понедельник, 19 мая 2025 г.
/Новости

ИИ-мошенники используют нейросети для имитации бывших партнеров: новые схемы обмана

Киберпреступники нашли новый способ обмана россиян — имитацию общения с бывшими партнерами с помощью искусственного интеллекта. Эксперты по кибербезопасности отмечают рост числа случаев, когда мошенники используют нейросети для создания убедительных подделок голоса, видео и текстовых сообщений, играя на эмоциональной связи и доверии, которое когда-то существовало между бывшими возлюбленными.

Как работают новые схемы обмана

Злоумышленники делают ставку на то, что люди склонны доверять тем, с кем когда-то были в близких отношениях. При этом они активно применяют последние достижения в области искусственного интеллекта для создания максимально реалистичных имитаций.

Основные схемы мошенничества, выявленные в 2025 году:

  • AI-клоны голоса для срочных просьб о деньгахИспользуя всего несколько секунд настоящей аудиозаписи, мошенники могут создать реалистичную имитацию голоса бывшего партнера, который звонит с просьбой о срочном займе из-за якобы возникшей чрезвычайной ситуации.
  • Дипфейки и AI-сгенерированные «кружочки» в мессенджерахТехнологии генерации видео позволяют создавать короткие видеосообщения, где лицо бывшего партнера выглядит невероятно реалистично. Эти "кружочки" в мессенджерах повышают доверие жертвы к последующим просьбам.
  • Чат-боты, имитирующие манеру общенияСовременные языковые модели могут анализировать переписку и точно воспроизводить индивидуальный стиль общения человека, включая характерные фразы, шутки и даже ошибки в написании.
  • AI-инструменты для копирования стиля перепискиМошенники используют специальные инструменты, которые могут воспроизводить не только текст, но и привычки в использовании эмодзи, пунктуации и других особенностей письменной речи.

Мнение экспертов

Эксперты по кибербезопасности отмечают, что новые технологии существенно повышают эффективность мошеннических схем:

«Злоумышленники получают всё больше возможностей для создания иллюзии общения с реальным человеком, так как технические решения для создания дипфейков становятся более продвинутыми и доступными», — комментирует Марина Пробетс, интернет-аналитик и эксперт компании «Газинформсервис».

По словам Евгения Егорова, ведущего аналитика департамента защиты от цифровых рисков компании F6, мошеннические схемы с «бывшими» требуют детального изучения потенциальных жертв — и весь вопрос в том, как глубоко киберпреступники проработают свои сценарии.

Почему это работает: психологический аспект

Ольга Свистунова, старший контент-аналитик «Лаборатории Касперского», объясняет психологическую основу таких атак:

«Когда человек получает сообщение от бывшего партнера, особенно если расставание было недавним или эмоционально сложным, его критическое мышление может быть ослаблено эмоциональной реакцией — будь то ностальгия, чувство вины или желание помочь. Этим и пользуются мошенники».

Добавляет сложности и то, что общение часто происходит в цифровом пространстве, где сложнее проверить подлинность собеседника, особенно если мошенники получили доступ к реальному аккаунту бывшего партнера или создали очень похожий.

Как защититься от таких атак

Эксперты рекомендуют соблюдать следующие меры предосторожности:

  • Перепроверяйте информацию по альтернативным каналам связиЕсли вам пришло подозрительное сообщение от бывшего партнера, попробуйте связаться с ним другим способом — например, позвонить по телефону, если сообщение пришло в мессенджере.
  • Используйте видеозвонки для подтверждения личностиВ случае сомнений предложите провести видеозвонок, во время которого попросите совершить какое-то простое действие в реальном времени.
  • Не спешите выполнять финансовые просьбыДаже если сообщение кажется подлинным, не торопитесь переводить деньги или предоставлять личную информацию.
  • Обращайте внимание на необычные детали в общенииЕсли стиль общения, словарный запас или тема разговора кажутся необычными для этого человека, это может быть признаком мошенничества.
  • Включите двухфакторную аутентификациюЭто поможет защитить ваши собственные аккаунты от взлома и использования для подобных схем.

Технологическое противодействие

В ответ на растущую угрозу AI-мошенничеств разрабатываются и технологические средства защиты:

  • Инструменты для определения синтезированного голоса
  • Системы распознавания дипфейков
  • Алгоритмы выявления аномалий в стиле общения

Однако эксперты предупреждают, что технологии детекции часто отстают от технологий создания фейков, поэтому наиболее эффективной защитой остается бдительность пользователей.

Подписывайтесь на наш Telegram!
На канале больше новостей и гайдов для ИИ
Загружаем комментарии
Другие новости

Aitoolz.ru — Ваш гид по ИИ и нейросетям.

Последние новости из мира ИИ; Практические гайды по нейросетям и ИИ-инструментам; Обзоры передовых технологий; Раскрываем потенциал искусственного интеллекта. Будьте в авангарде прогресса!