Компания Resecurity, специализирующаяся на кибербезопасности, обнаружила опасную новую тенденцию на подпольном рынке - платформу DIG AI. Этот нецензурированный искусственный интеллект быстро набирает популярность среди злоумышленников, позволяя автоматизировать вредоносные кампании и обходить стандартные протоколы цифровой безопасности.
Платформа, впервые зафиксированная 29 сентября, представляет собой так называемую «тёмную» большую языковую модель (Large Language Model, LLM), размещённую в сети Tor. В отличие от легальных инструментов вроде ChatGPT или Claude, имеющих строгие фильтры безопасности, DIG AI создаёт для пользователей фактически безнаказанную среду. По данным команды HUNTER из Resecurity, использование инструмента резко возросло в четвёртом квартале 2025 года, особенно в период зимних праздников, когда активность преступников традиционно увеличивается.
Создатель инструмента, скрывающийся под псевдонимом «Pitch», утверждает, что сервис основан на ChatGPT Turbo, но лишён всех этических ограничений. Поскольку для доступа не требуется учётная запись, а подключение осуществляется через Tor, платформа обеспечивает преступникам полную анонимность. DIG AI значительно снижает порог входа в киберпреступность. Аналитики Resecurity установили, что инструмент способен генерировать вредоносный код, в том числе скрипты для скрытого доступа к уязвимым веб-приложениям и создания другого вредоносного ПО. Более того, платформа предоставляет подробные инструкции по изготовлению взрывчатых веществ и наркотиков, а также способна создавать гиперреалистичные материалы с сексуальным насилием над детьми (Child Sexual Abuse Material, CSAM), что представляет серьёзнейшую проблему для правоохранительных органов.
DIG AI является частью растущего тренда «плохого ИИ» («Not Good AI»). Упоминания подобных вредоносных инструментов на криминальных форумах выросли более чем на 200% между 2024 и 2025 годами. Такие предшественники, как FraudGPT и WormGPT, проложили путь, но DIG AI знаменует собой новый этап, когда злоумышленники создают собственную инфраструктуру для масштабирования атак. На фоне приближения крупных мировых событий 2026 года, включая Зимние Олимпийские игры в Милане и Чемпионат мира по футболу, эксперты предупреждают, что эти инструменты с высокой вероятностью будут использоваться для масштабных мошеннических и дезинформационных кампаний.
Отдельной критической проблемой стало создание с помощью DIG AI материалов с сексуальным насилием над детьми. Технологии генеративного ИИ, такие как диффузионные модели и системы «текст-в-изображение», активно используются для производства как полностью синтетического, так и созданного на основе реальных изображений несовершеннолетних противозаконного контента. Это создаёт беспрецедентные сложности для его обнаружения и преследования. Правоохранительные органы уже фиксируют резкий рост подобных материалов, а в ряде стран, включая государства ЕС, Великобританию и Австралию, были приняты законы, прямо криминализующие CSAM, сгенерированный ИИ, независимо от того, изображены ли реальные дети.
Пока законодатели пытаются догнать технологическое развитие, принимая акты вроде TAKE IT DOWN Act, который запрещает неконсенсуальные интимные изображения, созданные ИИ, эволюция «тёмного» искусственного интеллекта продолжает опережать регулирование. Преступники уже используют специальные техники промптинга и методы вроде DreamBooth для тонкой настройки открытых моделей, полностью обходя встроенные средства защиты. Resecurity прогнозирует, что в 2026 году интернет-сообщество столкнётся с мрачными вызовами безопасности, связанными с ИИ, когда, помимо человеческих акторов, криминальный и «вооружённый» искусственный интеллект трансформирует традиционные угрозы и создаст новые риски для общества с беспрецедентной скоростью.
