В OpenAI обеспокоены тем, что люди могут начать слишком полагаться на ChatGPT для общения, что потенциально приведет к "зависимости" из-за его нового голосового режима, звучащего как человеческий голос.
Об этом говорится в отчете OpenAI о проверке безопасности инструмента – который стал доступен на прошлой неделе для подписчиков – и широковещательной модели ИИ, на которой он работает.
Расширенный голосовой режим ChatGPT звучит очень реалистично. Он реагирует в режиме реального времени, может приспосабливаться к прерыванию, издает звуки, свойственные людям во время разговора, например смех или “хм”. Он также может судить об эмоциональном состоянии говорящего на основе его тона голоса.
После того, как OpenAI анонсировала эту функцию в начале этого года, ее сравнивали с цифровым помощником с искусственным интеллектом в фильме "Она" 2013 года, в которого главный герой влюбляется, но разочаровывается, когда ИИ призналась, что "она" имеет "отношения" с другими пользователями.
Теперь OpenAI, по-видимому, обеспокоен тем, что вымышленная история слишком близка к тому, чтобы стать реальностью, после того, как компания заявила, что заметила, как пользователи разговаривают с голосовым режимом ChatGPT на языке, который "выражает общие связи" с помощью инструмента .
"Пользователи могут наладить социальные отношения с искусственным интеллектом, уменьшая их потребность в человеческом взаимодействии - это потенциально принесет пользу одиноким людям, но, возможно, повлияет на здоровые отношения" - говорится в отчете.
В компании добавили, что чувство информации от напоминающего человека бота может заставить пользователей доверять инструменту больше, чем они должны, учитывая склонность ИИ делать что-то неправильно.
В отчете также отмечено масштабный риск из-за ИИ. Речь идет о том, что технологические компании стремятся как можно быстрее развернуть инструменты ИИ, которые могут изменить образ жизни, работы, общения и поиска информации.
Но они делают это еще до того, как кто действительно понимает, что это означает. Как и в случае со многими технологическими достижениями, компании часто имеют одно представление о том, как можно и нужно использовать их инструменты, но пользователи придумывают целый ряд других потенциальных приложений, часто с непредвиденными последствиями.
Некоторые люди уже формируют то, что они описывают как романтические отношения с чат-ботами искусственного интеллекта, что вызывает беспокойство экспертов по отношениям.
“На компаниях лежит большая ответственность за то, чтобы действительно руководствоваться этим этично и ответственно, и сейчас это все на этапе экспериментов. Меня волнуют люди, которые устанавливают очень глубокие связи с технологией, которая может не существовать в долгосрочной перспективе и постоянно развивается», — сказала в интервью CNN Лизель Шараби, профессор Университета штата Аризона, которая изучает технологии и человеческое общение.
OpenAI говорит, что взаимодействие людей с голосовым режимом ChatGPT также может повлиять на то, что считается нормальным в социальных взаимодействиях.
“Наши модели уважительны. Они позволяют пользователям прерывать (общение – ред.) и “брать микрофон” в любое время, что было бы антинормативным во взаимодействии с людьми”, – отмечается в отчете компании.
Пока OpenAI говорит, что стремится к созданию ИИ "безопасно" и планирует продолжать изучать потенциал "эмоциональной зависимости" пользователей от его инструментов.
по материалам
уникальность