среда, 4 сентября 2024 г.
/Новости

Ваш голос в руках преступников: как ИИ-клоны атакуют ваши деньги через дипфейки

Изображение сгенерировано с помощью Midjourney

Искусственный интеллект (ИИ) продолжает развиваться стремительными темпами. В 2024 году технологии дипфейков (deepfake) достигли такого уровня, что распознать подделку становится всё сложнее. Это вызывает серьёзные опасения среди экспертов по кибербезопасности, так как мошенники всё чаще используют ИИ для создания поддельных видео и аудио в мессенджерах, таких как Telegram. Если раньше для создания реалистичного дипфейка требовались недели работы, то теперь с помощью современных нейросетей это можно сделать за считанные часы и результат будет пугающе правдоподобным.

Как дипфейки используются в Telegram?

Мошенники освоили технику создания поддельных аватаров и кружочков - коротких видеообращений, которые в Telegram сопровождают голосовые сообщения. Эти дипфейковые аватары имитируют реальных людей, зачастую начальников, коллег или родственников, и внешне ничем не отличаются от настоящих. Однако за такими аватарами может скрываться мошенник, используя поддельное видео и аудио для выманивания денег или личных данных.

По оценкам экспертов, количество случаев использования дипфейков в киберпреступлениях увеличилось более чем на 20% за последний год. Эффект правдоподобности этих подделок настолько высок, что без специального программного обеспечения или глубоких знаний о технологии отличить подделку становится практически невозможно.

Аудио-ИИ: новая угроза

Не менее опасным является прогресс в области аудио-ИИ. Для клонирования голоса мошенникам достаточно всего 20-30 секунд аудиозаписи жертвы. С помощью ИИ они могут воссоздать манеру речи, интонации и даже эмоции голоса. Это позволяет преступникам записывать поддельные голосовые сообщения от имени близких людей или начальников с просьбой о срочном переводе денег или предоставлении конфиденциальной информации. Представьте себе ситуацию: вы получаете голосовое сообщение от вашего начальника, который требует немедленно перевести деньги на указанный счёт. Сообщение звучит настолько правдоподобно, что вы даже не сомневаетесь в его подлинности.

Интересные факты

  • Один из самых известных случаев использования дипфейков в преступных целях произошёл в 2020 году, когда злоумышленники с помощью ИИ сгенерировали голос генерального директора крупной компании и украли около 35 миллионов долларов.
  • По данным исследования Университета Карнеги-Меллона, уже сейчас более 90% людей не могут отличить дипфейк от реальной видеозаписи при просмотре на мобильных устройствах.

Почему классические методы защиты больше не работают?

Современные технологии ИИ развиваются быстрее, чем создаются инструменты для их выявления и нейтрализации. Нейросети не только обучаются воспроизводить манеры речи и движения, но и улучшают свои модели, основываясь на анализе огромных массивов данных. Это позволяет им генерировать видео и аудиоматериалы, которые на первый взгляд не вызывают подозрений. В результате традиционные методы проверки, такие как визуальный или аудиальный анализ, становятся неэффективными.

Как защитить себя?

Чтобы минимизировать риск стать жертвой дипфейков и других угроз, связанных с ИИ, следуйте этим простым, но важным рекомендациям:

  • Будьте бдительны: если вы получаете неожиданные сообщения, видеозвонки или голосовые сообщения от знакомых, не торопитесь доверять им. Перепроверьте информацию через другой канал связи, например, позвоните напрямую.
  • Ограничьте доступ к вашим данным: постарайтесь не делиться личными данными и аудиозаписями голоса в общедоступных чатах. Мошенники могут использовать даже короткие фрагменты для создания подделок.
  • Используйте программы для проверки дипфейков: в настоящее время существуют различные инструменты и программы для распознавания фейковых видео и аудиозаписей. Установите такие приложения на ваше устройство и проверяйте подозрительные медиафайлы.
  • Обратите внимание на детали: нейросети ещё не совершенны, и дипфейки могут содержать небольшие ошибки, такие как несоответствие движений губ речи, неестественные паузы или странные движения тела.
  • Обучите себя и своих близких: Регулярно изучайте новые методы защиты и делитесь этой информацией с родными и коллегами.

Подпишитесь на AIToolz

Чтобы всегда быть в курсе последних новостей о развитии нейросетей и способах защиты от дипфейков, подписывайтесь на наш канал в Telegram AIToolz. Мы регулярно публикуем полезные материалы о кибербезопасности и новых угрозах в мире ИИ.

Следование этим рекомендациям поможет вам защитить себя и ваших близких от мошенников, использующих самые передовые технологии.

Загружаем комментарии
Другие новости