Take-Two прямо указывает, что использование ИИ несет в себе «социальные и этические угрозы, способные повлечь за собой судебные разбирательства и нанести урон репутации». В EA отмечают, что чрезмерное увлечение ИИ может поколебать доверие игроков к бренду, особенно если ИИ-контент будет восприниматься как подделка или замена «живого» креатива.
CD Projekt RED, в свою очередь, еще ранее предупреждала об опасностях нарушения авторских прав при использовании ИИ-контента, особенно если тот создается на основе материалов без должного разрешения.
Юридическая неопределенность в области генеративного ИИ только усиливает тревогу. Многие модели обучаются на защищенных авторским правом данных — от фильмов и музыки до статей и игр. Уже сейчас такие действия становятся предметом судебных исков со стороны правообладателей, а негативные прецеденты могут вынудить студии пересматривать контент, уже включенный в готовые или разрабатываемые проекты.
Также растет давление со стороны игрового сообщества. Игроки нередко резко реагируют на попытки заменить артистов озвучки или дизайнеров ИИ-аналогами. Некоторые проекты уже подверглись бойкотам, что отразилось на продажах. Разработчики вынуждены учитывать общественные настроения и репутационные риски при планировании новых игр.
Даже примеры с формально разрешенным использованием ИИ — например, воссоздание голоса Дарта Вейдера в Fortnite с помощью технологии и согласия семьи покойного Джеймса Эрла Джонса — вызывают активные споры. Профсоюзы актеров и озвучивания считают подобные случаи угрозой профессии, особенно на фоне уже объявленных забастовок против автоматизации.
источник
уникальность