• Добро пожаловать на инвестиционный форум!

    Во всем многообразии инвестиций трудно разобраться. MMGP станет вашим надежным помощником и путеводителем в мире инвестиций. Только самые последние тренды, передовые технологии и новые возможности. 400 тысяч пользователей уже выбрали нас. Самые актуальные новости, проверенные стратегии и способы заработка. Сюда люди приходят поделиться своим опытом, найти и обсудить новые перспективы. 16 миллионов сообщений, оставленных нашими пользователями, содержат их бесценный опыт и знания. Присоединяйтесь и вы!

    Впрочем, для начала надо зарегистрироваться!
  • 🐑 Моисей водил бесплатно. А мы платим, хотя тоже планируем работать 40 лет! Принимай участие в партнеской программе MMGP
  • 📝 Знаешь буквы и умеешь их компоновать? Платим. Дорого. Бессрочная акция от MMGP: "ОПЛАТА ЗА СООБЩЕНИЯ"
  • 💰 В данном разделе действует акция с оплатой за новые публикации
  • 📌 Внимание! Перед публикацией новостей ознакомьтесь с правилами новостных разделов

Системы ИИ с «неприемлемым риском» теперь запрещены в ЕС

ИИ.jpg

С воскресенья в Европейском союзе регулирующие органы могут запретить использование систем искусственного интеллекта, которые, по их мнению, представляют собой «неприемлемый риск» или вред.

2 февраля - первый срок соблюдения Закона ЕС об искусственном интеллекте, всеобъемлющей нормативной базы по ИИ, которую Европейский парламент окончательно утвердил в марте прошлого года после нескольких лет разработки. Официально закон вступил в силу 1 августа; сейчас наступает первый срок его соблюдения.
Конкретные положения изложены в статье 5, но в целом закон призван охватить огромное количество случаев использования, когда ИИ может появляться и взаимодействовать с людьми, начиная с потребительских приложений и заканчивая физическими средами.

Согласно подходу блока, существует четыре широких уровня риска: (1) минимальный риск (например, спам-фильтры электронной почты) не будет подлежать контролю со стороны регулятора; (2) ограниченный риск, включающий чат-боты для обслуживания клиентов, будет подлежать контролю со стороны регулятора; (3) высокий риск - одним из примеров является ИИ для рекомендаций в области здравоохранения - будет подлежать жесткому контролю со стороны регулятора; и (4) приложения с неприемлемым риском - на которые в этом месяце нацелены требования соответствия - будут полностью запрещены.

К числу неприемлемых видов деятельности относятся:
  1. - ИИ, используемый для социального скоринга (например, создание профилей риска на основе поведения человека).
  2. - ИИ, который манипулирует решениями человека подсознательно или обманным путем.
  3. - ИИ, использующий такие уязвимые места, как возраст, инвалидность или социально-экономический статус.
  4. - ИИ, который пытается предсказать совершение преступлений по внешнему виду человека.
  5. - ИИ, использующий биометрические данные для определения характеристик человека, например его сексуальной ориентации.
  6. - ИИ, собирающий биометрические данные в реальном времени в общественных местах в целях обеспечения правопорядка.
  7. - ИИ, который пытается определить эмоции людей на работе или в школе.
  8. - ИИ, создающий или расширяющий базы данных распознавания лиц путем сбора изображений в Интернете или с камер наблюдения.
Компании, которые будут уличены в использовании любого из вышеперечисленных приложений ИИ в ЕС, будут подвергнуты штрафам, независимо от того, где находится их штаб-квартира. В зависимости от того, что больше, они могут получить до 35 миллионов евро (~ 36 миллионов долларов) или 7 % от годового дохода за предыдущий финансовый год.

«Ожидается, что организации будут полностью соответствовать требованиям к 2 февраля, но... следующий важный срок, о котором компании должны знать, наступит в августе», - говорит Сумрой. «К этому времени мы узнаем, кто является компетентными органами, а штрафы и положения о принудительном взыскании вступят в силу».
Предварительные обещания

Срок до 2 февраля в некотором смысле является формальностью.
В сентябре прошлого года более 100 компаний подписали Пакт ЕС об искусственном интеллекте - добровольное обязательство начать применять принципы Закона об искусственном интеллекте до его вступления в силу. В рамках Пакта компании, подписавшие его, в том числе Amazon, Google и OpenAI, обязались выявлять системы ИИ, которые могут быть отнесены к категории высокого риска в соответствии с Законом об ИИ.
Некоторые технологические гиганты, в частности Meta и Apple, пропустили Пакт. Французский ИИ-стартап Mistral, один из самых резких критиков Закона об ИИ, также решил не подписывать документ.

Это не означает, что Apple, Meta, Mistral или другие компании, не подписавшие Пакт, не выполнят свои обязательства, включая запрет на использование неприемлемо рискованных систем. Сумрой отмечает, что, учитывая характер запрещенных случаев использования, большинство компаний в любом случае не будут применять такие методы.

«Для организаций основной проблемой, связанной с Законом ЕС об искусственном интеллекте, является то, появятся ли вовремя четкие руководства, стандарты и кодексы поведения - и, что очень важно, дадут ли они организациям ясность в отношении соблюдения требований», - говорит Сумрой. «Однако рабочие группы пока соблюдают сроки по кодексу поведения для ... разработчиков».

Возможные исключения
Из некоторых запретов Закона об искусственном интеллекте есть исключения.
Например, закон разрешает правоохранительным органам использовать определенные системы, собирающие биометрические данные в общественных местах, если эти системы помогают осуществлять «целенаправленный поиск», например, жертвы похищения, или предотвращать «конкретную, существенную и непосредственную» угрозу жизни.

Это исключение требует разрешения соответствующего органа управления, и в законе подчеркивается, что правоохранительные органы не могут принимать решение, которое «приводит к неблагоприятным юридическим последствиям» для человека, только на основании данных, полученных от этих систем.
Закон также предусматривает исключения для систем, определяющих эмоции на рабочих местах и в школах, если это оправдано соображениями «медицины или безопасности», например, для систем, предназначенных для терапевтического использования.

Европейская комиссия, исполнительная власть ЕС, заявила, что выпустит дополнительные рекомендации в «начале 2025 года», после консультаций с заинтересованными сторонами в ноябре. Однако эти рекомендации до сих пор не опубликованы.

По словам Сумроя, также неясно, как другие действующие законы могут взаимодействовать с запретами Закона об искусственном интеллекте и связанными с ним положениями. Ясность может появиться только в конце года, когда наступит время правоприменения.
«Организациям важно помнить, что регулирование ИИ не существует изолированно», - говорит Сумрой.

Оригинал
Уникальность
 

CryptoLeopard

ТОП-МАСТЕР
Крипто-блогер
Регистрация
04.03.2015
Сообщения
36,773
Реакции
15,338
Поинты
0.469
Тут вопрос. А как в ЕС будут трекать на эти пункты.
Через иски пострадавших?
 

Похожие темы

Сверху Снизу