Лидеры Кремниевой долины, включая специального советника Белого дома по ИИ и крипте Дэвида Сакса и главного стратега OpenAI Джейсона Квона, на этой неделе взорвали интернет своими заявлениями о группах, продвигающих безопасность ИИ. В разных случаях они обвинили некоторых активистов в том, что те не такие уж святые, какими кажутся, и действуют либо в своих интересах, либо по указке миллиардеров-за кулисами.
Группы по безопасности ИИ, пообщавшиеся с TechCrunch, называют эти обвинения от Сакса и OpenAI очередной попыткой Кремниевой долины запугать своих критиков — и далеко не первой. В 2024 году некоторые венчурные фирмы распускали слухи, что калифорнийский законопроект о безопасности ИИ SB 1047 отправит основателей стартапов за решётку. Brookings Institution окрестила этот слух одной из многих "искажений" о законопроекте, но губернатор Гэвин Ньюсом всё равно наложил на него вето.
Хотели Сакс и OpenAI запугать критиков или нет, их действия уже напугали нескольких активистов по безопасности ИИ. Многие руководители некоммерческих организаций, к которым TechCrunch обращался на прошлой неделе, согласились говорить только анонимно, чтобы их группы не пострадали от ответных мер.
Скандал подчёркивает растущую напряжённость в Кремниевой долине между ответственным развитием ИИ и превращением его в массовый потребительский продукт — тему, которую мои коллеги Кирстен Коросек, Энтони Ха и я разбираем в этом недельном подкасте Equity. Мы также говорим о новом калифорнийском законе о безопасности ИИ для чат-ботов и подходе OpenAI к эротике в ChatGPT.
Во вторник Сакс написал пост в X, обвинив Anthropic — компанию, которая поднимает тревогу по поводу способности ИИ вызывать безработицу, кибератаки и катастрофический вред обществу — в том, что она просто нагнетает страх, чтобы протолкнуть законы, выгодные ей самой, и утопить мелких стартапов в бюрократии. Anthropic стала единственной крупной ИИ-лабораторией, которая поддержала Senate Bill 53 (SB 53) в Калифорнии — законопроект, устанавливающий требования к отчётности о безопасности для больших ИИ-компаний, подписанный в прошлом месяце.
Сакс реагировал на вирусный эссе сооснователя Anthropic Джека Кларка о его опасениях по поводу ИИ. Кларк представил эссе в виде речи на конференции Curve по безопасности ИИ в Беркли несколько недель назад. Сидя в зале, я почувствовал, что это искренний рассказ технолого о сомнениях насчёт своих продуктов, но Сакс увидел всё по-другому.
Сакс заявил, что Anthropic ведёт "изощрённую стратегию захвата регуляторов", хотя стоит отметить: по-настоящему изощрённая стратегия вряд ли включала бы создание врага из федерального правительства. В последующем посте в X Сакс отметил, что Anthropic "постоянно позиционирует себя как противника администрации Трампа". Также на этой неделе главный стратег OpenAI Джейсон Квон написал пост в X, объясняя, почему компания рассылает повестки в суд AI safety-некоммерческим организациям вроде Encode — группы, борющейся за ответственную ИИ-политику.
(Повестка — это судебный ордер на предоставление документов или свидетельств.) Квон сказал, что после иска Илона Маска против OpenAI — из-за опасений, что создатель ChatGPT отошёл от своей некоммерческой миссии — компания заподозрила неладное в том, как несколько организаций выступили против её реструктуризации. Encode подала "дружественный" бриф в поддержку иска Маска, а другие некоммерческие группы публично осудили реструктуризацию OpenAI. "Это вызвало вопросы о прозрачности: кто их финансирует и была ли координация", — сказал Квон.
NBC News сообщила на этой неделе, что OpenAI разослала широкие повестки Encode и ещё шести некоммерческим группам, критиковавшим компанию, требуя переписку, связанную с двумя главными оппонентами OpenAI — Маском и CEO Meta Марком Цукербергом. OpenAI также запросила у Encode коммуникации по поводу поддержки SB 53.
Один известный лидер движения за безопасность ИИ рассказал TechCrunch о растущем разрыве между командой OpenAI по правительственным делам и её исследовательским подразделением. Исследователи по безопасности OpenAI часто публикуют отчёты о рисках ИИ-систем, но подразделение по политике лоббировало против SB 53, настаивая на единых федеральных правилах.
Глава отдела соответствия миссии OpenAI Джошуа Ачиам высказался о рассылке повесток некоммерческим группам в посте в X на этой неделе.
"Возможно, рискуя всей своей карьерой, скажу: это выглядит не круто", — написал Ачиам.
Брендан Стайнхаузер, CEO некоммерческой группы по безопасности ИИ Alliance for Secure AI (которую OpenAI повестками не трогала), сказал TechCrunch, что OpenAI, похоже, уверена: её критики — часть заговора под руководством Маска. Но он спорит: это не так, и большая часть сообщества по безопасности ИИ довольно критично относится к практикам безопасности xAI — или к их отсутствию.
"С стороны OpenAI это попытка заткнуть критиков, запугать их и отпугнуть другие некоммерческие группы от подобных действий, — сказал Стайнхаузер. — Что до Сакса, то он, думаю, беспокоится, что движение за безопасность ИИ набирает обороты и люди хотят привлекать эти компании к ответственности".
Срирам Кришнан, старший советник Белого дома по ИИ и бывший генеральный партнёр a16z, тоже влез в разговор на этой неделе своим постом в соцсетях, назвав активистов по безопасности ИИ оторванными от реальности. Он призвал организации по безопасности ИИ общаться с "людьми из реального мира, которые используют, продают и внедряют ИИ в своих домах и организациях".
Недавнее исследование Pew показало, что около половины американцев больше беспокоятся об ИИ, чем воодушевляются им, но неясно, что именно их тревожит. Другое свежее исследование углубилось и выяснило: американские избиратели больше волнуются о потере рабочих мест и дипфейках, чем о катастрофических рисках от ИИ, на которых в основном сосредоточено движение за безопасность ИИ.
Решение этих вопросов безопасности может затормозить бурный рост ИИ-индустрии — компромисс, который пугает многих в Кремниевой долине. С инвестициями в ИИ, подпирающими большую часть экономики Америки, страх перерегулирования вполне понятен.
Но после лет неконтролируемого прогресса в ИИ движение за безопасность, похоже, набирает настоящий импульс к 2026 году. Попытки Кремниевой долины отбиваться от групп, ориентированных на безопасность, могут быть признаком того, что те работают.
Оригинал
Уникальность