OpenAI обновила видеогенератор Sora, расширив возможности контроля над ИИ-двойниками пользователей.
Теперь можно отслеживать, где и как используются виртуальные версии себя, включая запрет на участие в политических роликах или произнесение определённых слов.
Как отмечает The Verge, Sora — это своего рода «TikTok для дипфейков», позволяющий создавать короткие 10-секундные видео с ИИ-воплощениями людей, включая озвучку через функцию «камео». Критики считают такую технологию потенциальным источником масштабной дезинформации.
Руководитель команды Sora Билл Пиблз сообщил, что пользователи могут устанавливать сценарные ограничения — например, запретить показывать ИИ-двойника рядом с определёнными предметами, вроде горчицы. Также можно задать визуальные предпочтения, например, чтобы виртуальный образ всегда носил бейсболку с надписью «Поклонник кетчупа №1».
Пиблз признал, что обход ограничений — реальная угроза, как это уже происходило с водяными знаками. В ответ OpenAI усиливает защиту и обещает внедрять новые механизмы контроля. Команда Sora продолжит ужесточать правила, чтобы минимизировать риски злоупотреблений.
Источник
Уникальность