ИИ в руках мошенников: новые схемы обмана и фейковая благотворительность

June 6
Новости

Увеличение рисков мошенничества с использованием ИИ в благотворительности

Во всем мире растет угроза мошенничества в сфере благотворительности с использованием технологий искусственного интеллекта. Эксперты предупреждают, что злоумышленники могут начать массово применять ИИ-агентов для сбора средств, создавая убедительный и эмоционально заряженный контент, способный обмануть широкую аудиторию. ИИ-агент — это автономная программа на базе больших языковых моделей, способная анализировать данные, принимать решения и обучаться.

Автоматизация мошеннических схем и дипфейки

Прогнозы показывают, что риски мошенничества с ИИ-агентами будут расти по мере их интеграции в различные сферы. Ожидается, что уже во второй половине 2025 года или начале 2026 года такие схемы станут более распространёнными из-за доступности технологий. ИИ-агенты могут атаковать тысячи пользователей одновременно, создавая персонализированные сообщения. Злоумышленники смогут использовать их для генерации дипфейков и автоматизации кибермошеннических схем, включая создание и распространение вредоносного контента, а также ведение диалогов с жертвами, что значительно экономит время мошенников.

Опасности чрезмерной автономии и эмоциональное воздействие

Использование ИИ-агентов мошенниками представляет реальную и актуальную угрозу. Эти агенты экономят время и ресурсы злоумышленников, позволяя им вовлекать больше жертв. Главная опасность заключается не столько в самих программах, сколько в способности ИИ генерировать контент, вызывающий сильные эмоции — например, видеоролики с больными животными или трогательные истории, которые быстро распространяются и охватывают большую аудиторию. Чрезмерная автономия систем ИИ, например, автоматическая отправка платежей или передача банковских данных, может привести к утечкам данных или финансовым махинациям.

Новые методы обмана и отсутствие прецедентов массового мошенничества

ИИ-агенты способны автономно сканировать социальные сети для выявления эмоционально уязвимых людей. Затем они могут запускать массовые персонализированные рассылки, имитируя искренний интерес или предлагая ложную поддержку. В случае отклика жертвы мошенники могут усилить атаку с помощью дипфейков, создавая реалистичные видеозвонки или голосовые сообщения, что повышает доверие жертвы. Это позволяет злоумышленникам выманивать деньги под предлогом срочной помощи, шантажировать или перенаправлять на фишинговые сайты для кражи данных. 

Несмотря на эти угрозы, пока в США и Европе не зафиксировано широко известных случаев массового мошенничества с использованием ИИ-агентов, хотя отдельные прецеденты с применением нейросетей в мошеннических схемах уже были.