• Реклама: 💰 Пополни свой портфель с минимальной комиссией на Transfer24.pro
  • Добро пожаловать на инвестиционный форум!

    Во всем многообразии инвестиций трудно разобраться. MMGP станет вашим надежным помощником и путеводителем в мире инвестиций. Только самые последние тренды, передовые технологии и новые возможности. 400 тысяч пользователей уже выбрали нас. Самые актуальные новости, проверенные стратегии и способы заработка. Сюда люди приходят поделиться своим опытом, найти и обсудить новые перспективы. 16 миллионов сообщений, оставленных нашими пользователями, содержат их бесценный опыт и знания. Присоединяйтесь и вы!

    Впрочем, для начала надо зарегистрироваться!
  • 🐑 Моисей водил бесплатно. А мы платим, хотя тоже планируем работать 40 лет! Принимай участие в партнеской программе MMGP
  • 📝 Знаешь буквы и умеешь их компоновать? Платим. Дорого. Бессрочная акция от MMGP: "ОПЛАТА ЗА СООБЩЕНИЯ"
  • 💰 В данном разделе действует акция с оплатой за новые публикации
  • 📌 Внимание! Перед публикацией новостей ознакомьтесь с правилами новостных разделов

В OpenAI обеспокоены тем, что люди могут стать эмоционально зависимыми от голосового ChatGPT

Снимок экрана 2024-08-09 145854.jpg


В OpenAI обеспокоены тем, что люди могут начать слишком полагаться на ChatGPT для общения, что потенциально приведет к "зависимости" из-за его нового голосового режима, звучащего как человеческий голос.

Об этом говорится в отчете OpenAI о проверке безопасности инструмента – который стал доступен на прошлой неделе для подписчиков – и широковещательной модели ИИ, на которой он работает.

Расширенный голосовой режим ChatGPT звучит очень реалистично. Он реагирует в режиме реального времени, может приспосабливаться к прерыванию, издает звуки, свойственные людям во время разговора, например смех или “хм”. Он также может судить об эмоциональном состоянии говорящего на основе его тона голоса.

После того, как OpenAI анонсировала эту функцию в начале этого года, ее сравнивали с цифровым помощником с искусственным интеллектом в фильме "Она" 2013 года, в которого главный герой влюбляется, но разочаровывается, когда ИИ призналась, что "она" имеет "отношения" с другими пользователями.

Теперь OpenAI, по-видимому, обеспокоен тем, что вымышленная история слишком близка к тому, чтобы стать реальностью, после того, как компания заявила, что заметила, как пользователи разговаривают с голосовым режимом ChatGPT на языке, который "выражает общие связи" с помощью инструмента .

"Пользователи могут наладить социальные отношения с искусственным интеллектом, уменьшая их потребность в человеческом взаимодействии - это потенциально принесет пользу одиноким людям, но, возможно, повлияет на здоровые отношения" - говорится в отчете.

В компании добавили, что чувство информации от напоминающего человека бота может заставить пользователей доверять инструменту больше, чем они должны, учитывая склонность ИИ делать что-то неправильно.

В отчете также отмечено масштабный риск из-за ИИ. Речь идет о том, что технологические компании стремятся как можно быстрее развернуть инструменты ИИ, которые могут изменить образ жизни, работы, общения и поиска информации.

Но они делают это еще до того, как кто действительно понимает, что это означает. Как и в случае со многими технологическими достижениями, компании часто имеют одно представление о том, как можно и нужно использовать их инструменты, но пользователи придумывают целый ряд других потенциальных приложений, часто с непредвиденными последствиями.

Некоторые люди уже формируют то, что они описывают как романтические отношения с чат-ботами искусственного интеллекта, что вызывает беспокойство экспертов по отношениям.

“На компаниях лежит большая ответственность за то, чтобы действительно руководствоваться этим этично и ответственно, и сейчас это все на этапе экспериментов. Меня волнуют люди, которые устанавливают очень глубокие связи с технологией, которая может не существовать в долгосрочной перспективе и постоянно развивается», — сказала в интервью CNN Лизель Шараби, профессор Университета штата Аризона, которая изучает технологии и человеческое общение.

OpenAI говорит, что взаимодействие людей с голосовым режимом ChatGPT также может повлиять на то, что считается нормальным в социальных взаимодействиях.

“Наши модели уважительны. Они позволяют пользователям прерывать (общение – ред.) и “брать микрофон” в любое время, что было бы антинормативным во взаимодействии с людьми”, – отмечается в отчете компании.

Пока OpenAI говорит, что стремится к созданию ИИ "безопасно" и планирует продолжать изучать потенциал "эмоциональной зависимости" пользователей от его инструментов.

по материалам
уникальность
 
Сверху Снизу