• Добро пожаловать на инвестиционный форум!

    Во всем многообразии инвестиций трудно разобраться. MMGP станет вашим надежным помощником и путеводителем в мире инвестиций. Только самые последние тренды, передовые технологии и новые возможности. 400 тысяч пользователей уже выбрали нас. Самые актуальные новости, проверенные стратегии и способы заработка. Сюда люди приходят поделиться своим опытом, найти и обсудить новые перспективы. 16 миллионов сообщений, оставленных нашими пользователями, содержат их бесценный опыт и знания. Присоединяйтесь и вы!

    Впрочем, для начала надо зарегистрироваться!
  • 🐑 Моисей водил бесплатно. А мы платим, хотя тоже планируем работать 40 лет! Принимай участие в партнеской программе MMGP
  • 📝 Знаешь буквы и умеешь их компоновать? Платим. Дорого. Бессрочная акция от MMGP: "ОПЛАТА ЗА СООБЩЕНИЯ"
  • 💰 В данном разделе действует акция с оплатой за новые публикации
  • 📌 Внимание! Перед публикацией новостей ознакомьтесь с правилами новостных разделов

Пентагон заявляет, что ИИ ускоряет свое превращение в SkyNet из Терминатора

ИИ.jpg

Ведущие разработчики ИИ, такие как OpenAI и Anthropic, продевают тонкую нить в продажу программного обеспечения для вооруженных сил Соединенных Штатов: сделать Пентагон более эффективным, не позволяя своему ИИ убивать людей.

Сегодня их инструменты не используются в качестве оружия, но ИИ дает Министерству обороны «значительное преимущество» в выявлении, отслеживании и оценке угроз, рассказала в телефонном интервью TechCrunch главный специалист Пентагона по цифровым технологиям и ИИ доктор Рада Пламб.

«Очевидно, что мы увеличиваем количество способов ускорить выполнение цепочки поражения, чтобы наши командиры могли своевременно реагировать и защищать наши войска», - сказала Пламб.

Под «цепочкой поражения» понимается процесс выявления, отслеживания и устранения угроз, в котором участвует сложная система датчиков, платформ и оружия. По словам Пламба, генеративный ИИ оказывается полезным на этапах планирования и разработки стратегии «цепочки поражения».

Отношения между Пентагоном и разработчиками ИИ возникли относительно недавно. В 2024 году OpenAI, Anthropic и Meta пересмотрели свои правила использования, чтобы позволить американским разведывательным и оборонным агентствам использовать свои системы ИИ. Однако они по-прежнему не позволяют своим ИИ причинять вред людям.

«Мы очень четко определили, для чего мы будем использовать их технологии, а для чего нет», - сказал Пламб, отвечая на вопрос о том, как Пентагон работает с поставщиками моделей ИИ.

Тем не менее, это дало старт раунду быстрых свиданий между компаниями ИИ и оборонными подрядчиками.

В ноябре компания Meta заключила партнерство с Lockheed Martin и Booz Allen, чтобы предоставить свои модели ИИ Llama оборонным ведомствам. В том же месяце Anthropic объединилась с Palantir. В декабре OpenAI заключила аналогичную сделку с Anduril. Более тихая компания Cohere также внедряет свои модели совместно с Palantir.

Когда генеративный ИИ докажет свою полезность в Пентагоне, это может подтолкнуть Кремниевую долину к ослаблению политики использования ИИ и разрешению большего числа военных приложений.

«Проигрывание различных сценариев - это то, в чем генеративный ИИ может быть полезен», - говорит Пламб. «Он позволяет использовать весь спектр инструментов, доступных нашим командирам, а также творчески подходить к различным вариантам реагирования и потенциальным компромиссам в условиях, когда существует потенциальная угроза или ряд угроз, которые необходимо преследовать».

Неясно, чьи технологии использует Пентагон для этой работы; использование генеративного ИИ в цепи поражения (даже на ранней стадии планирования), похоже, нарушает политику использования нескольких ведущих разработчиков моделей. Политика Anthropic, например, запрещает использовать ее модели для создания или модификации «систем, предназначенных для нанесения вреда или гибели людей».

В ответ на наши вопросы Anthropic указала TechCrunch на недавнее интервью своего генерального директора Дарио Амодея газете Financial Times, в котором он защищает свою военную работу:

Позиция, согласно которой мы никогда не должны использовать ИИ в оборонных и разведывательных целях, не имеет для меня смысла. А вот позиция, согласно которой мы должны на полную катушку использовать его для создания всего, чего захотим, вплоть до оружия судного дня, - это, очевидно, такое же безумие. Мы пытаемся найти золотую середину, чтобы делать все ответственно».



Жизнь и смерть и оружие ИИ
В последние месяцы в оборонных технологиях разгорелась дискуссия о том, стоит ли разрешать ИИ-оружию принимать решения о жизни и смерти. Некоторые утверждают, что у американских военных уже есть такое оружие.

Генеральный директор Anduril Палмер Лаки недавно отметил в эфире X, что американские военные уже давно закупают и используют автономные системы вооружений, такие как турель CIWS.

«Министерство обороны США закупает и использует автономные системы вооружений уже несколько десятилетий. Их использование (и экспорт!) хорошо понятны, жестко определены и четко регулируются правилами, которые вовсе не являются добровольными», - сказал Лаки.

Но когда TechCrunch спросил, покупает ли Пентагон и эксплуатирует ли он полностью автономное оружие - такое, в котором нет людей, - Пламб отверг эту идею в принципе.

«Нет, - сказал Пламб, - это короткий ответ. «С точки зрения надежности и этики, мы всегда будем привлекать людей к принятию решения о применении силы, и это касается наших систем вооружения».

Слово «автономность» несколько неоднозначно, и оно вызвало споры во всей технологической индустрии о том, когда автоматизированные системы - такие как кодирующие агенты ИИ, самодвижущиеся автомобили или самостреляющее оружие - становятся по-настоящему независимыми.

Пламб считает, что идея о том, что автоматизированные системы самостоятельно принимают решения о жизни и смерти, «слишком двоична», а реальность не столь «научно-фантастична». Скорее, по ее мнению, использование Пентагоном систем искусственного интеллекта - это сотрудничество между людьми и машинами, где старшие руководители принимают активные решения на протяжении всего процесса.

«Люди склонны думать об этом так, будто где-то есть роботы, а потом гонкулятор [вымышленная автономная машина] выдает лист бумаги, а люди просто ставят галочки», - говорит Пламб.

Оригинал
Уникальность
 
Сверху Снизу