Распространение продвинутых языковых моделей (LLM) создало новые риски для кибербезопасности, заявляют эксперты SlowMist. Вместе с развитием ChatGPT, Gemini и других open-source решений появились так называемые unrestricted LLM — модели без этических ограничений. Они снимают защиту от создания вредоносного контента, фишинга и кода для взломов, становясь мощным инструментом атак в криптопространстве.
Одним из первых таких инструментов стал WormGPT — «черная версия» GPT, которую распространяют на подпольных форумах. За $189 в месяц мошенники используют ее для массовых фишинговых рассылок от имени криптобирж и кошельков, а также для создания вредоносного кода, крадущего файлы и приватные ключи, и управления ботами.
Опасность представляет и DarkBERT — изначально исследовательская модель, обученная на данных с даркнета. Хотя она служит для анализа подпольных форумов и выявления угроз, в руках злоумышленников превращается в инструмент социальной инженерии, краж криптовалюты и отмывания средств.
FraudGPT — продвинутая версия WormGPT с набором вредоносных функций, стоит от $200 до $1700 в месяц. В криптосреде ее применяют для создания фейковых проектов, поддельных сайтов бирж и кошельков, генерации мошеннических текстов для ICO и IDO, а также организации массовых бот-атак в соцсетях.
GhostGPT позиционируется как полностью аморальный AI-ассистент для продвинутых фишинговых атак с имитацией уведомлений от криптобирж. Он помогает искать уязвимости в смарт-контрактах и разрабатывать вредоносный код для кражи seed-фраз.
Отдельный риск несет Venice.ai, предоставляющая доступ к нескольким малоограниченным LLM одновременно. Благодаря отсутствию ограничений, даже пользователи без специальных навыков могут создавать опасный контент и тестировать модели на вредоносные запросы.
источник
уникальность