На следующий день после объявления о новых моделях искусственного интеллекта, разработанных для применения в сфере национальной безопасности США, компания Anthropic назначила эксперта по национальной безопасности Ричарда Фонтейна в свой траст долгосрочных выгод. Траст долгосрочных выгод Anthropic — это механизм управления, который, по утверждению Anthropic, помогает ей ставить безопасность выше прибыли и который имеет право избирать некоторых членов совета директоров компании.
Среди других членов траста — генеральный директор Центра эффективного альтруизма Закари Робинсон, генеральный директор Clinton Health Access Initiative Нил Бадди Шах и президент Evidence Action Каника Бахл. В своем заявлении генеральный директор Anthropic Дарио Амодей сказал, что прием на работу Фонтейна «усилит способность траста направлять Anthropic в принятии сложных решений» по вопросам ИИ, связанным с безопасностью. «Опыт Ричарда приходит в критический момент, когда передовые возможности ИИ все чаще пересекаются с соображениями национальной безопасности», — продолжил Амодей.
«Я давно считаю, что обеспечение лидерства демократических стран в области ответственного развития ИИ имеет важное значение как для глобальной безопасности, так и для общего блага». Фонтейн, который как член попечительского совета не будет иметь финансовой доли в Anthropic, ранее работал советником по внешней политике покойного сенатора Джона Маккейна и был адъюнкт-профессором в Джорджтауне, где преподавал курсы по безопасности. Более шести лет он возглавлял Центр новой американской безопасности, аналитический центр по вопросам национальной безопасности, расположенный в Вашингтоне, округ Колумбия, в качестве его президента. Anthropic все чаще привлекает клиентов из сферы национальной безопасности США в поисках новых источников дохода.
В ноябре компания объединилась с Palantir и AWS, подразделением облачных вычислений крупнейшего партнера и инвестора Anthropic, Amazon, чтобы продавать ИИ Anthropic клиентам из сферы обороны. Следует уточнить, что Anthropic — не единственная ведущая лаборатория в области ИИ, которая стремится получить контракты в сфере обороны.
OpenAI стремится установить более тесные отношения с Министерством обороны США, а Meta недавно объявила, что предоставляет свои модели Llama партнерам в сфере обороны. Между тем Google дорабатывает версию своего ИИ Gemini, способную работать в секретных средах, а Cohere, которая в основном создает ИИ-продукты для бизнеса, также сотрудничает с Palantir для внедрения своих ИИ-моделей.
Оригинал
Уникальность