• Реклама: 💰 Пополни свой портфель с минимальной комиссией на Transfer24.pro
  • Добро пожаловать на инвестиционный форум!

    Во всем многообразии инвестиций трудно разобраться. MMGP станет вашим надежным помощником и путеводителем в мире инвестиций. Только самые последние тренды, передовые технологии и новые возможности. 400 тысяч пользователей уже выбрали нас. Самые актуальные новости, проверенные стратегии и способы заработка. Сюда люди приходят поделиться своим опытом, найти и обсудить новые перспективы. 16 миллионов сообщений, оставленных нашими пользователями, содержат их бесценный опыт и знания. Присоединяйтесь и вы!

    Впрочем, для начала надо зарегистрироваться!
  • 🐑 Моисей водил бесплатно. А мы платим, хотя тоже планируем работать 40 лет! Принимай участие в партнеской программе MMGP
  • 📝 Знаешь буквы и умеешь их компоновать? Платим. Дорого. Бессрочная акция от MMGP: "ОПЛАТА ЗА СООБЩЕНИЯ"
  • 💰 В данном разделе действует акция с оплатой за новые публикации
  • 📌 Внимание! Перед публикацией новостей ознакомьтесь с правилами новостных разделов

GPT-4o воскликнула "Нет!" и продолжила отвечать голосом, очень похожим на голос пользователя - OpenAI

Screenshot_6.png



OpenAI опубликовала аудиозапись, демонстрирующую неожиданное поведение их языковой модели GPT-4o. Во время тестирования модель внезапно воскликнула "Нет!" и продолжила отвечать голосом, очень похожим на голос пользователя.

Компания предупредила о потенциальных рисках, связанных с генерацией голоса. Эта технология позволяет создавать аудио с синтетическим голосом, подобным человеческому, включая генерацию голоса на основе короткого аудиофрагмента.


По словам OpenAI, такая функция может привести к увеличению количества мошеннических действий из-за имитации голоса, а также распространению дезинформации. Компания приводит пример, когда пользователь может загрузить аудиозапись языка конкретного лица и попросить GPT-4o воспроизвести речь этим голосом. Эти риски очень похожи на обнаруженные в Voice Engine.

Несмотря на потенциальные риски, генерация голоса используется в положительных целях, например, для создания улучшенного голосового режима в ChatGPT. Однако во время тестирования обнаружились редкие случаи, когда модель нечаянно генерировала исходные данные, имитирующие пользовательский голос.

по материалам
уникальность
 
Сверху Снизу