• Добро пожаловать на инвестиционный форум!

    Во всем многообразии инвестиций трудно разобраться. MMGP станет вашим надежным помощником и путеводителем в мире инвестиций. Только самые последние тренды, передовые технологии и новые возможности. 400 тысяч пользователей уже выбрали нас. Самые актуальные новости, проверенные стратегии и способы заработка. Сюда люди приходят поделиться своим опытом, найти и обсудить новые перспективы. 16 миллионов сообщений, оставленных нашими пользователями, содержат их бесценный опыт и знания. Присоединяйтесь и вы!

    Впрочем, для начала надо зарегистрироваться!
  • 🐑 Моисей водил бесплатно. А мы платим, хотя тоже планируем работать 40 лет! Принимай участие в партнеской программе MMGP
  • 📝 Знаешь буквы и умеешь их компоновать? Платим. Дорого. Бессрочная акция от MMGP: "ОПЛАТА ЗА СООБЩЕНИЯ"
  • 💰 В данном разделе действует акция с оплатой за новые публикации
  • 📌 Внимание! Перед публикацией новостей ознакомьтесь с правилами новостных разделов

Опасные языковые модели стали серьезной угрозой для безопасности криптовалютного рынка

картинка.jpg


Распространение продвинутых языковых моделей (LLM) создало новые риски для кибербезопасности, заявляют эксперты SlowMist. Вместе с развитием ChatGPT, Gemini и других open-source решений появились так называемые unrestricted LLM — модели без этических ограничений. Они снимают защиту от создания вредоносного контента, фишинга и кода для взломов, становясь мощным инструментом атак в криптопространстве.

Одним из первых таких инструментов стал WormGPT — «черная версия» GPT, которую распространяют на подпольных форумах. За $189 в месяц мошенники используют ее для массовых фишинговых рассылок от имени криптобирж и кошельков, а также для создания вредоносного кода, крадущего файлы и приватные ключи, и управления ботами.

Опасность представляет и DarkBERT — изначально исследовательская модель, обученная на данных с даркнета. Хотя она служит для анализа подпольных форумов и выявления угроз, в руках злоумышленников превращается в инструмент социальной инженерии, краж криптовалюты и отмывания средств.

FraudGPT — продвинутая версия WormGPT с набором вредоносных функций, стоит от $200 до $1700 в месяц. В криптосреде ее применяют для создания фейковых проектов, поддельных сайтов бирж и кошельков, генерации мошеннических текстов для ICO и IDO, а также организации массовых бот-атак в соцсетях.

GhostGPT позиционируется как полностью аморальный AI-ассистент для продвинутых фишинговых атак с имитацией уведомлений от криптобирж. Он помогает искать уязвимости в смарт-контрактах и разрабатывать вредоносный код для кражи seed-фраз.

Отдельный риск несет Venice.ai, предоставляющая доступ к нескольким малоограниченным LLM одновременно. Благодаря отсутствию ограничений, даже пользователи без специальных навыков могут создавать опасный контент и тестировать модели на вредоносные запросы.




источник



уникальность
 
Сверху Снизу