Из отчета TRM Labs (американской технологической компании, которая занимается аналитикой блокчейна и помогает выявлять и предотвращать финансовые преступления в сфере криптовалют) следует, что мошеннические схемы становятся быстрее, масштабнее и технологичнее благодаря ИИ.
В этом материале мы разберем, почему средний перевод жертвы в схемах с ИИ оказался в несколько раз выше, чем в традиционных мошеннических операциях. Как искусственный интеллект создает «синтетическое доверие»? А также каким образом ИИ позволяет даже небольшим группам достигать масштабов, ранее доступных лишь крупным центрам мошенничества?
В 2025 году ИИ-мошенничество принесло в среднем по $3 млн на операцию
Искусственный интеллект трансформирует криптомошенничество из ограниченного человеческими ресурсами предприятия в промышленную систему, масштабируемую вычислительными мощностями.
В 2025 году объем нелегальных операций с цифровыми активами достиг исторического максимума — $158 млрд.
Диаграмма общих сумм нелегальных поступлений на криптокошельки за 2021–2025 годы. Источник: TRM Labs
Внутри этой суммы около $17 млрд пришлось на мошенничество, и эта оценка, вероятно, занижена, так как это только подтвержденные случаи мошенничества. Если учитывать более широкий спектр нелегальной активности, согласно отчету TRM Crypto Crime Report 2026, реальная сумма составит более $30 млрд.
Диаграмма Chainalysis: общая сумма криптомошенничеств за 2020–2025 годы
Как отмечает Chainalysis, средний размер перевода, отправленного жертвой мошенникам, вырос с $800 в 2024 году до $3000 в 2025-м. Такой скачок объясняется интеграцией ИИ в преступные схемы. Аферы с использованием алгоритмов оказались в 4,5 раза результативнее традиционной социальной инженерии по объему похищенных средств.
В среднем одна операция с применением ИИ приносила злоумышленникам более $3 млн, тогда как «классические» схемы — примерно $700 000. Суточная выручка также различалась кратно: $4900 у ИИ-схем против $520 у традиционных.
Показательным примером стала схема с американской системой электронного сбора платы E-ZPass: через поддельные SMS-сообщения от имени сервиса мошенники сумели вывести около $1 млрд за три года.
Что такое мошенничество с использованием ИИ
ИИ-мошенничество — финансовые преступления и схемы, в которых искусственный интеллект используется для автоматизации, персонализации и масштабирования обмана.
Ранее даже крупные мошеннические операции были ограничены человеческим ресурсом. Инвестиционные аферы, романтические схемы, техническая поддержка, выдача себя за других лиц — все это требовало операторов, колл-центров, скриптов, многоязычных сотрудников и управляемых смен. ИИ же устранил многие из этих ограничений.
Теперь генеративные модели позволяют:
за секунды создавать профессиональные фишинговые письма и поддельные инвестиционные сайты;
генерировать реалистичных чат-ботов «службы поддержки»;
адаптировать сообщения под конкретные демографические группы;
масштабировать схемы на разные страны благодаря автоматическому переводу.
Дипфейк-технологии делают возможной имитацию руководителей компаний, публичных лиц и партнеров. В криптосреде это может означать фальшивые рекомендации токенов, поддельные торговые сигналы или сообщения от имени биржи.
Стоит отметить, что ключевое изменение — масштабируемость. Человеческое мошенничество растет линейно с числом сотрудников. ИИ-мошенничество растет вместе с вычислительными ресурсами.
Интересно, что ИИ применяется не только для общения с жертвами. Модели машинного обучения используются для тестирования украденных учетных данных в массовом масштабе, оптимизации потоков отмывания средств, поиска уязвимостей в смарт-контрактах. В общем, то, что раньше требовало больших команд, теперь может быть автоматизировано, стандартизировано и постоянно оптимизироваться. Это меняет экономику обмана, снижая барьеры входа и расширяя круг потенциальных злоумышленников.
Феномен «синтетического доверия» в промышленном масштабе
Главная задача любого мошенничества, в том числе и крипто, — вызвать доверие, выстроить длительное эмоциональное взаимодействие. Генеративный ИИ сжимает и умножает этот процесс, создавая убедительные истории с учетом культурного контекста. Также ИИ может поддерживать сотни диалогов одновременно, сохраняя последовательность и «память» общения и устраняя языковые барьеры. В результате возникает феномен «синтетического доверия»: взаимодействие выглядит личным, но полностью создается алгоритмом и масштабируется промышленным образом.
Получается, что ИИ ускоряет все этапы схемы: автоматизирует разведку и сбор данных, динамически генерирует сообщения, поддерживает коммуникацию без усталости и перерывов, создает поддельные интерфейсы, имитирующие реальные биржи.
Заметим, что отмывание средств также ускоряется, автоматизированные маршруты через DEX, мосты и пулы ликвидности сокращают время между первым переводом жертвы и сложным распределением средств по цепочкам.
Кстати, недавно компания Malwarebytes, специализирующаяся на кибербезопасности, сообщила о выявлении действующего сайта предварительной продажи Google Coin, на котором был размещен чат-бот, выдававший себя за «Gemini — ваш ИИ-помощник для платформы Google Coin».
Бот имитировал фирменный стиль Gemini, создавая впечатление официального сервиса. На вопрос о потенциальной доходности бот сообщил, что инвестиции в размере $395 по цене $3,95 за токен якобы принесут $2755 на момент листинга, то есть примерно 7-кратный рост.
Malwarebytes подчеркнула, что Google не выпускает криптовалюту. Несмотря на это, чат-бот позиционировался как «официальный помощник платформы Google Coin» и стимулировал посетителей к совершению покупок.
Каким образом ИИ снижает издержки преступников
Важно, что ИИ меняет структуру издержек. Человеческие операторы требуют зарплаты, обучения и контроля, а искусственный интеллект способен работать автономно и непрерывно, благодаря чему предельная стоимость привлечения новой жертвы стремится к нулю. Не стоит игнорировать и то, что с ИИ-технологиями кампании быстро тестируются и оптимизируются на основе данных. Так что даже небольшие преступные группы могут достигать масштаба, ранее доступного только крупным центрам мошенничества.
Преступники могут экспериментировать, запуская тысячи микрокампаний с минимальным риском. Правоохранители же ограничены законом, процедурами и риском ложных обвинений. Их ресурсы конечны, а каждое действие должно быть обосновано. В свою очередь, эта асимметрия требует внедрения защитного ИИ: автоматической кластеризации, выявления аномалий, мониторинга сетей почти в реальном времени. Только сопоставив машинный масштаб атак с машинным масштабом анализа, можно сократить разрыв.
Итог: ИИ не способно бороться с прозрачностью блокчейна
Несмотря на рост скорости и масштаба, блокчейн сохраняет ключевое преимущество — прозрачность.
Транзакции записываются в публичный неизменяемый реестр. Средства перемещаются по наблюдаемым маршрутам и в конечном итоге взаимодействуют с биржами, эмитентами стейблкоинов или другими узлами ликвидности.
ИИ ускоряет мошенничество, но не устраняет его следы. Напротив, автоматизация генерирует больше данных, а значит, больше паттернов, совпадений инфраструктуры и повторяющихся поведенческих сигналов. Однако технологии недостаточно. Решающую роль по-прежнему играет человеческий анализ: интерпретация данных, приоритизация сигналов и принятие решений.
Дисклеймер
Мнения экспертов могут не совпадать с позицией редакции. Traffic Cardinal не дает инвестиционных советов, материал опубликован исключительно в ознакомительных целях.
Еще больше полезных материалов о крипте и инвестициях — в нашем телеграм-канале. Подписывайтесь!