• Добро пожаловать на инвестиционный форум!

    Во всем многообразии инвестиций трудно разобраться. MMGP станет вашим надежным помощником и путеводителем в мире инвестиций. Только самые последние тренды, передовые технологии и новые возможности. 400 тысяч пользователей уже выбрали нас. Самые актуальные новости, проверенные стратегии и способы заработка. Сюда люди приходят поделиться своим опытом, найти и обсудить новые перспективы. 16 миллионов сообщений, оставленных нашими пользователями, содержат их бесценный опыт и знания. Присоединяйтесь и вы!

    Впрочем, для начала надо зарегистрироваться!
  • 🐑 Моисей водил бесплатно. А мы платим, хотя тоже планируем работать 40 лет! Принимай участие в партнеской программе MMGP
  • 📝 Знаешь буквы и умеешь их компоновать? Платим. Дорого. Бессрочная акция от MMGP: "ОПЛАТА ЗА СООБЩЕНИЯ"
  • 💰 В данном разделе действует акция с оплатой за новые публикации
  • 📌 Внимание! Перед публикацией новостей ознакомьтесь с правилами новостных разделов

Iregular привлекает 80 миллионов долларов для защиты передовых моделей искусственного интеллекта

Иррегуляр.jpg

Компания Irregular, ранее известная как Pattern Labs, объявила о привлечении $80 миллионов инвестиций при оценке в $450 миллионов. Раунд возглавили Sequoia Capital и Redpoint Ventures, а также участвовал CEO Wiz Ассаф Раппапорт. На первый взгляд — впечатляюще. Но если копнуть глубже, возникает вопрос: действительно ли рынок ИИ-безопасности готов к таким ставкам?

Сооснователь Дэн Лахав утверждает, что «в скором времени большая часть экономической активности будет происходить через взаимодействие человека с ИИ и ИИ с ИИ», и что это якобы «сломает всю архитектуру безопасности». Звучит драматично, но пока это больше предположение, чем проверенный факт.
Компания активно цитируется в отчётах по безопасности моделей Claude 3.7 Sonnet и OpenAI o3/o4-mini, а её фреймворк SOLVE действительно используется в индустрии. Однако насколько глубоко эти оценки влияют на реальные решения в крупных продуктах — остаётся неясным.

Сейчас Irregular заявляет, что работает над выявлением «новых рисков» до их появления в реальной среде. Для этого она создала симуляции, где ИИ играет роли атакующего и защитника. Идея интересная, но вызывает сомнения: насколько эти симуляции отражают реальные сценарии? И можно ли на их основе делать выводы о поведении моделей в дикой среде?

На фоне растущих опасений по поводу безопасности ИИ, такие заявления звучат своевременно. OpenAI, например, усилила свои меры безопасности этим летом. Но это скорее реакция на конкретные инциденты, чем на гипотетические угрозы.

Irregular утверждает, что её технологии уже используют более 2 миллионов разработчиков — рост в шесть раз за год. Цифра внушительная, но без контекста — сколько из них активные, сколько просто зарегистрировались — сложно судить о реальном влиянии.

В целом, Irregular позиционирует себя как защитника будущего ИИ, но пока это больше амбициозный маркетинг, чем доказанная необходимость. Если цель лабораторий — создавать всё более мощные модели, то цель Irregular — защищать их. Проблема в том, что пока неясно, от чего именно.

Оригинал

Уникальность
 
Сверху Снизу