• Реклама: 💰 Пополни свой портфель с минимальной комиссией на Transfer24.pro
  • Добро пожаловать на инвестиционный форум!

    Во всем многообразии инвестиций трудно разобраться. MMGP станет вашим надежным помощником и путеводителем в мире инвестиций. Только самые последние тренды, передовые технологии и новые возможности. 400 тысяч пользователей уже выбрали нас. Самые актуальные новости, проверенные стратегии и способы заработка. Сюда люди приходят поделиться своим опытом, найти и обсудить новые перспективы. 16 миллионов сообщений, оставленных нашими пользователями, содержат их бесценный опыт и знания. Присоединяйтесь и вы!

    Впрочем, для начала надо зарегистрироваться!
  • 🐑 Моисей водил бесплатно. А мы платим, хотя тоже планируем работать 40 лет! Принимай участие в партнеской программе MMGP
  • 📝 Знаешь буквы и умеешь их компоновать? Платим. Дорого. Бессрочная акция от MMGP: "ОПЛАТА ЗА СООБЩЕНИЯ"
  • 💰 В данном разделе действует акция с оплатой за новые публикации
  • 📌 Внимание! Перед публикацией новостей ознакомьтесь с правилами новостных разделов

OpenAI представляет свою предпочтительную версию регулирования ИИ в новом «проекте»

ОпенАи.jpg

В понедельник OpenAI опубликовала так называемый «экономический проект» для ИИ: живой документ, в котором компания излагает политику, которую она может выработать совместно с правительством США и его союзниками.

В документе, который опубликовал Крис Лихейн, вице-президент OpenAI по глобальным вопросам, утверждается, что США должны действовать, чтобы привлечь миллиарды на финансирование чипов, данных, энергии и талантов, необходимых для «победы над ИИ».

«Сегодня, в то время как некоторые страны отбрасывают ИИ и его экономический потенциал, - пишет Лехейн, - правительство США может проложить дорогу для своей индустрии ИИ, чтобы страна продолжала оставаться мировым лидером в области инноваций, защищая при этом национальную безопасность».

OpenAI неоднократно призывала правительство США принять более существенные меры в отношении ИИ и инфраструктуры для поддержки развития этой технологии. Федеральное правительство в значительной степени оставило регулирование ИИ на усмотрение штатов, и OpenAI называет эту ситуацию несостоятельной.

Только в 2024 году законодатели штатов представили почти 700 законопроектов, связанных с ИИ, причем некоторые из них противоречат друг другу. Например, принятый в Техасе закон об ответственном управлении ИИ налагает обременительные требования по ответственности на разработчиков моделей ИИ с открытым исходным кодом.

Генеральный директор OpenAI Сэм Альтман также критиковал существующие федеральные законы, такие как закон CHIPS, направленный на оживление полупроводниковой промышленности США путем привлечения внутренних инвестиций от ведущих мировых производителей микросхем. В недавнем интервью Bloomberg Альтман сказал, что закон CHIPS «[не] оказался настолько эффективным, как все мы надеялись», и что, по его мнению, у администрации Трампа есть «реальная возможность» «сделать что-то гораздо лучшее в качестве продолжения».

«В чем я действительно глубоко согласен с Трампом, так это в том, что дико, насколько сложно стало строить в США», - сказал Альтман в интервью. «Электростанции, центры обработки данных, любые подобные вещи. Я понимаю, как накапливается бюрократический хлам, но это не полезно для страны в целом. Особенно это не полезно, когда вы думаете о том, что должно произойти, чтобы США стали лидером в области ИИ. А США действительно нужно стать лидером в области ИИ».

Чтобы обеспечить топливом центры обработки данных, необходимые для разработки и запуска ИИ, OpenAI рекомендует «резко» увеличить федеральные расходы на электроэнергию и передачу данных, а также значительное развитие «новых источников энергии», таких как солнечная, ветряная и атомная. OpenAI - наряду со своими конкурентами в области ИИ - ранее уже поддерживала проекты атомной энергетики, утверждая, что они необходимы для удовлетворения потребностей в электроэнергии серверных ферм нового поколения.

Технологические гиганты Meta и AWS столкнулись с проблемами при реализации своих ядерных проектов, хотя и по причинам, не имеющим никакого отношения к ядерной энергетике как таковой.

В ближайшей перспективе OpenAI предлагает правительству «разработать лучшие практики» для развертывания моделей, чтобы защитить их от неправильного использования, «упорядочить» взаимодействие индустрии ИИ с агентствами национальной безопасности и разработать экспортный контроль, позволяющий делиться моделями с союзниками и одновременно «ограничивающий» их экспорт в «страны-враги».

Кроме того, в проекте предлагается, чтобы правительство делилось с поставщиками определенной информацией, связанной с национальной безопасностью, например, брифингами об угрозах для индустрии ИИ, и помогало поставщикам получать ресурсы для оценки своих моделей на предмет рисков.

«Подход федерального правительства к безопасности и защите пограничных моделей должен упростить требования», - говорится в проекте. «Ответственный экспорт... моделей нашим союзникам и партнерам поможет им создать собственные экосистемы ИИ, включая сообщества разработчиков, внедряющих инновации с помощью ИИ и распространяющих его преимущества, а также создающих ИИ на основе американских технологий, а не технологий, финансируемых Коммунистической партией Китая».

OpenAI уже насчитывает несколько правительственных ведомств США в качестве партнеров, и если ее проект получит поддержку среди политиков, то их станет еще больше. Компания заключила сделки с Пентагоном по кибербезопасности и другим смежным проектам, а также объединилась с оборонным стартапом Anduril, чтобы поставить свои технологии искусственного интеллекта в системы, которые американские военные используют для борьбы с атаками беспилотников.

В своем проекте OpenAI призывает к разработке стандартов, «признанных и уважаемых» другими странами и международными организациями от имени американского частного сектора. Однако компания не одобряет обязательных правил или указов. «[Правительство может создать] определенный, добровольный путь для компаний, разрабатывающих [ИИ], чтобы они работали с правительством для определения оценок моделей, тестирования моделей и обмена информацией для поддержки гарантий компаний», - говорится в проекте.

Администрация Байдена пошла по аналогичному пути, приняв исполнительный указ об ИИ, который предусматривал введение нескольких добровольных стандартов безопасности ИИ высокого уровня. Указом был создан Институт безопасности ИИ США (AISI), федеральный правительственный орган, изучающий риски в системах ИИ, который сотрудничает с компаниями, включая OpenAI, для оценки безопасности моделей. Однако Трамп и его союзники пообещали отменить указ Байдена.

Оригинал
Уникальность
 
Сверху Снизу