• Добро пожаловать на инвестиционный форум!

    Во всем многообразии инвестиций трудно разобраться. MMGP станет вашим надежным помощником и путеводителем в мире инвестиций. Только самые последние тренды, передовые технологии и новые возможности. 400 тысяч пользователей уже выбрали нас. Самые актуальные новости, проверенные стратегии и способы заработка. Сюда люди приходят поделиться своим опытом, найти и обсудить новые перспективы. 16 миллионов сообщений, оставленных нашими пользователями, содержат их бесценный опыт и знания. Присоединяйтесь и вы!

    Впрочем, для начала надо зарегистрироваться!
  • 🐑 Моисей водил бесплатно. А мы платим, хотя тоже планируем работать 40 лет! Принимай участие в партнеской программе MMGP
  • 📝 Знаешь буквы и умеешь их компоновать? Платим. Дорого. Бессрочная акция от MMGP: "ОПЛАТА ЗА СООБЩЕНИЯ"
  • 💰 В данном разделе действует акция с оплатой за новые публикации
  • 📌 Внимание! Перед публикацией новостей ознакомьтесь с правилами новостных разделов

Нельзя оклеветать мёртвых. Но это не значит, что их можно использовать в дипфейках.

Нельзя.jpg

Зельда Уильямс, дочь покойного актера Робина Уильямса, обратилась с эмоциональным посланием к поклонникам своего отца. «Пожалуйста, прекратите присылать мне ИИ-видео с папой. Не думайте, что я хочу это видеть или что я пойму. Я не хочу и не буду, — написала она в Instagram Stories в понедельник, 6 октября 2025 года. — Если у вас есть хоть капля порядочности, прекратите делать это с ним, со мной, со всеми. Это глупо, это пустая трата времени и энергии, и, поверьте, это НЕ то, чего бы он хотел».

Не случайно это заявление появилось вскоре после релиза видеомодели OpenAI Sora 2 и социальной платформы Sora, запущенных в сентябре 2025 года, которые позволяют пользователям создавать реалистичные дипфейки самих себя, друзей или некоторых мультяшных персонажей. Согласно данным TechCrunch, Sora 2 имеет ограничения: видео с живыми людьми можно генерировать только с их согласия или если это вы сами. Однако эти ограничения не распространяются на умерших, чьи образы могут использоваться практически без препятствий.

По информации Student Press Law Center, в США нет законов, запрещающих клевету на умерших, что делает их образы уязвимыми для использования.Приложение Sora, доступное пока только по приглашениям, уже заполнено видео с историческими фигурами, такими как Мартин Лютер Кинг-младший, Франклин Рузвельт, Ричард Никсон, и умершими знаменитостями, включая Боба Росса, Джона Леннона, Алекса Требека и Робина Уильямса. Однако политика OpenAI в отношении дипфейков умерших неясна.

Например, Sora 2 не позволяет генерировать видео с бывшим президентом Джимми Картером, умершим в 2024 году, или Майклом Джексоном, умершим в 2009 году, но создает видео с образом Робина Уильямса, умершего в 2014 году, как показали тесты TechCrunch. Функция «камео» в Sora позволяет живым людям задавать параметры для своего изображения в видео, но умершие лишены такой возможности.Зельда Уильямс выразила возмущение: «Видеть, как наследие реальных людей сводится к ‘это отдаленно похоже на них, и этого достаточно’, чтобы другие могли производить ужасный TikTok-контент, манипулируя ими, — это просто бесит». OpenAI не ответила на запрос TechCrunch о допустимости дипфейков умерших.

Однако юридические прецеденты, такие как дела в судах США, показывают, что компания вряд ли будет нести ответственность за клевету на умерших.Критики обвиняют OpenAI в недостаточно строгом подходе к таким вопросам. После релиза Sora платформа быстро заполнилась ИИ-видео с защищенными авторским правом персонажами, такими как Питер Гриффин и Пикачу. Генеральный директор OpenAI Сэм Альтман изначально заявил, что голливудские студии и агентства должны явно отказаться от использования их интеллектуальной собственности в видео, созданных Sora. Ассоциация кинопроизводителей США (MPA) в сентябре 2025 года призвала OpenAI принять меры, подчеркнув, что «установленные законы об авторском праве защищают права создателей и применимы здесь». Позже Альтман заявил, что компания пересмотрит эту позицию.

Sora, вероятно, является самой продвинутой моделью ИИ для создания дипфейков, доступной широкой публике, благодаря реалистичности ее результатов. Другие платформы, такие как xAI, отстают по качеству, но имеют еще меньше ограничений, позволяя создавать, например, порнографические дипфейки реальных людей. Если не установить четкие правила, использование образов реальных людей — живых или умерших — как игрушек для развлечений может создать опасный прецедент. По данным отчета Pew Research 2024 года, 78% американцев обеспокоены ростом дипфейков, а в отсутствие строгого регулирования (на октябрь 2025 года в США нет федерального закона о дипфейках) такие технологии могут усугубить проблему дезинформации и эксплуатации.

Оригинал

Уникальность
 

Похожие темы

Сверху Снизу