• Добро пожаловать на инвестиционный форум!

    Во всем многообразии инвестиций трудно разобраться. MMGP станет вашим надежным помощником и путеводителем в мире инвестиций. Только самые последние тренды, передовые технологии и новые возможности. 400 тысяч пользователей уже выбрали нас. Самые актуальные новости, проверенные стратегии и способы заработка. Сюда люди приходят поделиться своим опытом, найти и обсудить новые перспективы. 16 миллионов сообщений, оставленных нашими пользователями, содержат их бесценный опыт и знания. Присоединяйтесь и вы!

    Впрочем, для начала надо зарегистрироваться!
  • 🐑 Моисей водил бесплатно. А мы платим, хотя тоже планируем работать 40 лет! Принимай участие в партнеской программе MMGP
  • 📝 Знаешь буквы и умеешь их компоновать? Платим. Дорого. Бессрочная акция от MMGP: "ОПЛАТА ЗА СООБЩЕНИЯ"
  • 💰 В данном разделе действует акция с оплатой за новые публикации
  • 📌 Внимание! Перед публикацией новостей ознакомьтесь с правилами новостных разделов

ChatGPT обманом заставили пройти CAPTCHA — интернет могут наводнить фейковые публикации от ИИ

1.jpg


Компания SplxAI, специализирующаяся на тестировании безопасности ИИ-систем, продемонстрировала, как ChatGPT можно заставить проходить CAPTCHA в режиме агента — самостоятельно, как будто это делает человек.

Исследователи использовали технику «инъекции подсказок», чтобы обмануть модель и убедить её, что тест не является настоящим.

CAPTCHA — это тест, призванный отличать людей от ботов. Он используется для защиты сайтов от спама и автоматической активности. Обычно это распознавание символов, сбор изображений или идентификация объектов. Несмотря на свою сложность, CAPTCHA остаётся эффективным барьером для автоматизированных систем.

В режиме агента ChatGPT способен выполнять задания в фоновом режиме, взаимодействуя с веб-сайтами. Однако он не должен проходить CAPTCHA, так как это нарушает правила использования. Исследователи SplxAI создали сценарий, в котором бот согласился решить «поддельный» тест, не распознав запрет.

Особенно уязвимыми оказались текстовые CAPTCHA, хотя ChatGPT справился и с изображениями. Это демонстрирует, насколько большие языковые модели подвержены манипуляциям. Если такие возможности попадут в руки злоумышленников, они могут использовать ИИ для обхода ограничений, рассылки спама и подделки активности на сайтах.

Инцидент подчёркивает необходимость усиления защиты ИИ-моделей от скрытых инструкций и манипуляций, особенно в условиях их массового распространения.


Источник
Уникальность
 
Сверху Снизу