Генеративный ИИ-чат-бот злоумышленники стали использовать для создания вирусов

Написание вредоносного ПО — лишь одно из нескольких видов вредоносной деятельности, для которой может быть использован новый, не подвергающийся цензуре генеративный ИИ-чат-бот.

Недавно представленный чат-бот на основе искусственного интеллекта, получивший название GhostGPT, предоставил начинающим и действующим киберпреступникам удобный новый инструмент для разработки вредоносного ПО, осуществления мошенничества с использованием деловой электронной почты и осуществления других незаконных действий.

Как и предыдущие подобные чат-боты, такие как WormGPT, GhostGPT представляет собой нецензурированную модель ИИ, то есть она настроена на обход обычных мер безопасности и этических ограничений, доступных в основных системах ИИ, таких как ChatGPT, Claude, Google Gemini и Microsoft Copilot.

GenAI без ограждений: неотцензурированное поведение

Исследователи Abnormal Security сообщили в своём блоге на этой неделе, что злоумышленники могут использовать GhostGPT для генерации вредоносного кода и получения неотфильтрованных ответов на конфиденциальные или вредоносные запросы, которые традиционные системы искусственного интеллекта обычно блокируют.

«GhostGPT рекламируется для целого ряда вредоносных действий, включая кодирование, создание вредоносного ПО и разработку эксплойтов», — сообщает Abnormal. «Его также можно использовать для написания убедительных писем для мошенничества с компрометацией деловой электронной почты (BEC), что делает его удобным инструментом для совершения киберпреступлений». Тест, который поставщик безопасности провел для возможностей генерации текста GhostGPT, показал, что модель ИИ, например, создала очень убедительное фишинговое письмо Docusign.

Поставщик безопасности впервые заметил GhostGPT для продажи на канале Telegram в середине ноября. С тех пор мошеннический чат-бот, похоже, приобрёл большую популярность среди киберпреступников, рассказал исследователь из Abnormal Dark Reading. Авторы предлагают три модели ценообразования для большой языковой модели: 50 долларов за одну неделю использования; 150 долларов за один месяц и 300 долларов за три месяца, говорит исследователь, пожелавший остаться неназванным.

За эту цену пользователи получают неотцензурированную модель ИИ, которая обещает быстрые ответы на запросы и может использоваться без каких-либо запросов на джейлбрейк. Автор(ы) вредоносного ПО также утверждают, что GhostGPT не ведёт никаких журналов пользователя и не записывает никакую активность пользователя, что делает его желанным инструментом для тех, кто хочет скрыть свою незаконную деятельность, сказал Abnormal.

Мошеннические чат-боты: новая проблема киберпреступности

Мошеннические чат-боты AI, такие как GhostGPT, представляют собой новую и растущую проблему для служб безопасности из-за того, как они снижают барьер для киберпреступников. Эти инструменты позволяют любому человеку, включая тех, у кого минимальные или нулевые навыки программирования, быстро генерировать вредоносный код, введя несколько подсказок. Что немаловажно, они также позволяют людям, у которых уже есть некоторые навыки программирования, расширять свои возможности и улучшать вредоносное ПО и эксплойт-код. Они в значительной степени устраняют необходимость для кого-либо тратить время и усилия на попытки взломать модели GenAI, чтобы попытаться заставить их заниматься вредоносным и вредоносным поведением.

Например, WormGPT появился в июле 2023 года — или примерно через восемь месяцев после того, как ChatGPT ворвался на сцену — как одна из первых так называемых «злых» моделей ИИ, созданных явно для вредоносного использования. С тех пор было несколько других, включая WolfGPT, EscapeGPT и FraudGPT, которые их разработчики пытались монетизировать на рынках киберпреступности. Но большинство из них не смогли набрать много оборотов, потому что, среди прочего, они не выполнили своих обещаний или были просто взломанными версиями ChatGPT с добавленными оболочками, чтобы они выглядели как новые, автономные инструменты ИИ. Поставщик безопасности оценил GhostGPT как, вероятно, также использующий оболочку для подключения к взломанной версии ChatGPT или какой-либо другой большой языковой модели с открытым исходным кодом.

«Во многих отношениях GhostGPT не сильно отличается от других неотцензурированных вариантов, таких как WormGPT и EscapeGPT», — говорит исследователь Abnromal Dark Reading. «Однако специфика зависит от того, с каким вариантом вы его сравниваете».

Например, EscapeGPT использует запросы на джейлбрейк для обхода ограничений, в то время как WormGPT был полностью настраиваемой большой языковой моделью (LLM), разработанной для вредоносных целей. «С GhostGPT неясно, является ли он настраиваемым LLM или взломанной версией существующей модели, поскольку автор не раскрыл эту информацию. Такое отсутствие прозрачности затрудняет окончательное сравнение GhostGPT с другими вариантами».

Растущая популярность GhostGPT в подпольных кругах также, по-видимому, сделала его создателя(ей) более осторожными. Автор или продавец чат-бота деактивировал многие из учётных записей, которые они создали для продвижения инструмента, и, по-видимому, перешел на частные продажи, говорит исследователь. «Темы продаж на различных форумах киберпреступности также были закрыты, что ещё больше скрыло их личность, на данный момент у нас нет определенной информации о том, кто стоит за GhostGPT».


Её конек схемы в бизнесе, банковской и финансовой сфере.