• Добро пожаловать на инвестиционный форум!

    Во всем многообразии инвестиций трудно разобраться. MMGP станет вашим надежным помощником и путеводителем в мире инвестиций. Только самые последние тренды, передовые технологии и новые возможности. 400 тысяч пользователей уже выбрали нас. Самые актуальные новости, проверенные стратегии и способы заработка. Сюда люди приходят поделиться своим опытом, найти и обсудить новые перспективы. 16 миллионов сообщений, оставленных нашими пользователями, содержат их бесценный опыт и знания. Присоединяйтесь и вы!

    Впрочем, для начала надо зарегистрироваться!
  • 🐑 Моисей водил бесплатно. А мы платим, хотя тоже планируем работать 40 лет! Принимай участие в партнеской программе MMGP
  • 📝 Знаешь буквы и умеешь их компоновать? Платим. Дорого. Бессрочная акция от MMGP: "ОПЛАТА ЗА СООБЩЕНИЯ"
  • 💰 В данном разделе действует акция с оплатой за новые публикации
  • 📌 Внимание! Перед публикацией новостей ознакомьтесь с правилами новостных разделов

OpenAI дала пользователям больше контроля над их ИИ-двойниками в Sora

1.jpg


OpenAI обновила видеогенератор Sora, расширив возможности контроля над ИИ-двойниками пользователей.

Теперь можно отслеживать, где и как используются виртуальные версии себя, включая запрет на участие в политических роликах или произнесение определённых слов.

Как отмечает The Verge, Sora — это своего рода «TikTok для дипфейков», позволяющий создавать короткие 10-секундные видео с ИИ-воплощениями людей, включая озвучку через функцию «камео». Критики считают такую технологию потенциальным источником масштабной дезинформации.

Руководитель команды Sora Билл Пиблз сообщил, что пользователи могут устанавливать сценарные ограничения — например, запретить показывать ИИ-двойника рядом с определёнными предметами, вроде горчицы. Также можно задать визуальные предпочтения, например, чтобы виртуальный образ всегда носил бейсболку с надписью «Поклонник кетчупа №1».

Пиблз признал, что обход ограничений — реальная угроза, как это уже происходило с водяными знаками. В ответ OpenAI усиливает защиту и обещает внедрять новые механизмы контроля. Команда Sora продолжит ужесточать правила, чтобы минимизировать риски злоупотреблений.


Источник
Уникальность
 
Сверху Снизу