Компания Irregular, ранее известная как Pattern Labs, объявила о привлечении $80 миллионов инвестиций при оценке в $450 миллионов. Раунд возглавили Sequoia Capital и Redpoint Ventures, а также участвовал CEO Wiz Ассаф Раппапорт. На первый взгляд — впечатляюще. Но если копнуть глубже, возникает вопрос: действительно ли рынок ИИ-безопасности готов к таким ставкам?
Сооснователь Дэн Лахав утверждает, что «в скором времени большая часть экономической активности будет происходить через взаимодействие человека с ИИ и ИИ с ИИ», и что это якобы «сломает всю архитектуру безопасности». Звучит драматично, но пока это больше предположение, чем проверенный факт.
Компания активно цитируется в отчётах по безопасности моделей Claude 3.7 Sonnet и OpenAI o3/o4-mini, а её фреймворк SOLVE действительно используется в индустрии. Однако насколько глубоко эти оценки влияют на реальные решения в крупных продуктах — остаётся неясным.
Сейчас Irregular заявляет, что работает над выявлением «новых рисков» до их появления в реальной среде. Для этого она создала симуляции, где ИИ играет роли атакующего и защитника. Идея интересная, но вызывает сомнения: насколько эти симуляции отражают реальные сценарии? И можно ли на их основе делать выводы о поведении моделей в дикой среде?
На фоне растущих опасений по поводу безопасности ИИ, такие заявления звучат своевременно. OpenAI, например, усилила свои меры безопасности этим летом. Но это скорее реакция на конкретные инциденты, чем на гипотетические угрозы.
Irregular утверждает, что её технологии уже используют более 2 миллионов разработчиков — рост в шесть раз за год. Цифра внушительная, но без контекста — сколько из них активные, сколько просто зарегистрировались — сложно судить о реальном влиянии.
В целом, Irregular позиционирует себя как защитника будущего ИИ, но пока это больше амбициозный маркетинг, чем доказанная необходимость. Если цель лабораторий — создавать всё более мощные модели, то цель Irregular — защищать их. Проблема в том, что пока неясно, от чего именно.
Оригинал
Уникальность