Еще одна ведущая исследовательница безопасности OpenAI, Лилиан Венг, в пятницу объявила о своем уходе из стартапа. Венг занимала должность вице-президента по исследованиям и безопасности с августа, а до этого возглавляла команду OpenAI по системам безопасности.
В своем сообщении на сайте X Венг сказала, что «после 7 лет работы в OpenAI я чувствую себя готовой к перезагрузке и поиску чего-то нового». Венг сообщила, что ее последним днем работы будет 15 ноября, но не уточнила, куда она пойдет дальше.
«Я приняла чрезвычайно трудное решение покинуть OpenAI», - написала Венг в своем сообщении. «Глядя на то, чего мы достигли, я очень горжусь всеми членами команды Safety Systems и очень верю, что команда будет и дальше процветать».
Уход Венга стал последним в длинной череде исследователей безопасности ИИ, политиков и других руководителей, покинувших компанию за последний год, и некоторые из них обвинили OpenAI в том, что приоритет отдается коммерческим продуктам, а не безопасности ИИ. Венг присоединился к Илье Суцкеверу и Яну Лейке - руководителям ныне расформированной команды OpenAI Superalignment, которая пыталась разработать методы управления сверхразумными системами ИИ, - которые также покинули стартап в этом году, чтобы работать над безопасностью ИИ в других местах.
Вэн впервые присоединилась к OpenAI в 2018 году, согласно ее LinkedIn, работая в команде робототехники стартапа, которая в итоге создала руку робота, способную решать кубик Рубика - задача, на которую ушло два года, согласно ее сообщению.
Когда OpenAI стала уделять больше внимания парадигме GPT, Венг тоже стала работать. В 2021 году исследовательница перешла на работу в исследовательскую группу прикладного ИИ стартапа. После запуска GPT-4 Венгу было поручено создать специальную команду по созданию систем безопасности для стартапа в 2023 году. Сегодня в подразделении систем безопасности OpenAI работает более 80 ученых, исследователей и экспертов в области политики, говорится в посте Вэнга.
Это очень много специалистов по безопасности ИИ, но многие высказывают опасения по поводу того, что OpenAI уделяет особое внимание безопасности, пытаясь создать все более мощные системы ИИ. Майлз Брундадж, давний исследователь в области политики, покинул стартап в октябре и объявил, что OpenAI распускает свою команду по обеспечению готовности AGI, которую он консультировал. В тот же день New York Times опубликовала очерк о бывшем исследователе OpenAI Сучире Баладжи, который заявил, что покинул OpenAI, потому что считал, что технологии стартапа принесут обществу больше вреда, чем пользы.
В OpenAI рассказали, что руководители и исследователи безопасности работают над переходом на место Венга.
«Мы глубоко ценим вклад Лилиан в прорывные исследования в области безопасности и создание строгих технических гарантий», - сказал представитель OpenAI в заявлении, отправленном по электронной почте. «Мы уверены, что команда Safety Systems продолжит играть ключевую роль в обеспечении безопасности и надежности наших систем, обслуживающих сотни миллионов людей по всему миру».
Среди других руководителей, покинувших OpenAI в последние месяцы, - технический директор Мира Мурати, директор по исследованиям Боб Макгрю и вице-президент по исследованиям Баррет Зоф. В августе известный исследователь Андрей Карпати и соучредитель Джон Шульман также объявили о своем уходе из стартапа. Некоторые из них, в том числе Лейк и Шульман, ушли, чтобы присоединиться к конкуренту OpenAI, компании Anthropic, а другие занялись собственным бизнесом.
Оригинал
Уникальность