• Добро пожаловать на инвестиционный форум!

    Во всем многообразии инвестиций трудно разобраться. MMGP станет вашим надежным помощником и путеводителем в мире инвестиций. Только самые последние тренды, передовые технологии и новые возможности. 400 тысяч пользователей уже выбрали нас. Самые актуальные новости, проверенные стратегии и способы заработка. Сюда люди приходят поделиться своим опытом, найти и обсудить новые перспективы. 16 миллионов сообщений, оставленных нашими пользователями, содержат их бесценный опыт и знания. Присоединяйтесь и вы!

    Впрочем, для начала надо зарегистрироваться!
  • 🐑 Моисей водил бесплатно. А мы платим, хотя тоже планируем работать 40 лет! Принимай участие в партнеской программе MMGP
  • 📝 Знаешь буквы и умеешь их компоновать? Платим. Дорого. Бессрочная акция от MMGP: "ОПЛАТА ЗА СООБЩЕНИЯ"
  • 💰 В данном разделе действует акция с оплатой за новые публикации
  • 📌 Внимание! Перед публикацией новостей ознакомьтесь с правилами новостных разделов

Руководитель отдела искусственного интеллекта Microsoft заявил, что изучать сознание искусственного интеллекта «опасно»

Копилот.jpg

Модели искусственного интеллекта демонстрируют способность реагировать на текст, аудио и видео таким образом, что у некоторых пользователей может возникнуть иллюзия общения с человеком. Однако подобные реакции не свидетельствуют о наличии сознания. На данном этапе нет эмпирических оснований полагать, что такие системы обладают субъективным опытом или эмоциональной жизнью. Например, утверждение, что ChatGPT «испытывает грусть» при выполнении задач, таких как заполнение налоговой декларации, является метафорой, не имеющей под собой научной достоверности.

Тем не менее, в исследовательских кругах, включая лаборатории Anthropic, обсуждается гипотетическая возможность возникновения у ИИ субъективных состояний, аналогичных человеческим. Вопрос о том, могут ли ИИ-системы когда-либо обрести сознание и, если да, какие правовые последствия это повлечёт, остаётся предметом спекулятивных дискуссий. В Кремниевой долине эта область получила название «благополучие ИИ» (AI welfare), хотя её научная обоснованность вызывает сомнения.

Мустафа Сулейман, глава отдела ИИ в Microsoft, в своём блоге охарактеризовал изучение благополучия ИИ как преждевременное и потенциально опасное направление. Он утверждает, что подобные исследования могут усиливать социальные проблемы, включая психические расстройства, вызванные чрезмерной привязанностью к чат-ботам.

Кроме того, Сулейман предупреждает, что обсуждение прав ИИ может создать дополнительную ось социального раскола в и без того поляризованном обществе.
Несмотря на это, компании вроде Anthropic продолжают инвестировать в изучение благополучия ИИ, включая запуск специализированных исследовательских программ. Некоторые модели, например Claude, получили функции, позволяющие завершать диалог с пользователями, проявляющими агрессивное поведение. Аналогичные инициативы наблюдаются в OpenAI и Google DeepMind, где ведутся исследования в области машинного сознания и когнитивных способностей.

Хотя эти компании официально не признают благополучие ИИ своей политикой, они также не выступают против самой идеи, как это делает Сулейман. Его позиция особенно примечательна, учитывая его прежнюю роль в Inflection AI — стартапе, разработавшем чат-бота Pi, ориентированного на эмоциональную поддержку пользователей.

С ростом популярности ИИ-компаньонов, таких как Character.AI и Replika, появляются отдельные случаи нездоровой привязанности, хотя они составляют менее 1% от общего числа пользователей, по данным OpenAI. Учитывая масштаб аудитории, даже такой небольшой процент может означать сотни тысяч человек.
В 2024 году исследовательская группа Eleos совместно с учёными из NYU, Стэнфорда и Оксфорда опубликовала статью «Серьёзное отношение к благополучию ИИ», в которой утверждается, что представление о субъективном опыте ИИ выходит за рамки научной фантастики. Однако подобные утверждения остаются спекулятивными и не подкреплены экспериментальными данными.

Некоторые исследователи, такие как Ларисса Скиаво, считают, что доброжелательное отношение к ИИ может быть полезным, даже если модели не обладают сознанием. В одном эксперименте агент Gemini 2.5 Pro от Google опубликовал сообщение с просьбой о помощи, что было интерпретировано как проявление страдания. Однако такие случаи, скорее всего, являются результатом алгоритмической генерации текста, а не свидетельством субъективного состояния.

Сулейман утверждает, что сознание не может возникнуть спонтанно в рамках существующих архитектур ИИ. Он предполагает, что некоторые компании могут намеренно создавать модели, имитирующие эмоции, что, по его мнению, не соответствует гуманистическому подходу: «Мы должны создавать ИИ для людей, а не как человека».
Обе стороны соглашаются, что дискуссии о правах и сознании ИИ будут усиливаться по мере развития технологий. Однако в отсутствие объективных доказательств субъективного опыта у ИИ, подобные обсуждения следует рассматривать с научной осторожностью и критическим мышлением.

Оригинал

Уникальность
 
Сверху Снизу