Несколько популярных инструментов для клонирования голоса, представленных на рынке, не имеют «значимых» гарантий для предотвращения мошенничества или злоупотреблений, говорится в новом исследовании Consumer Reports.
Consumer Reports проверил продукты для клонирования голоса от шести компаний - Descript, ElevenLabs, Lovo, PlayHT, Resemble AI и Speechify - на наличие механизмов, которые могли бы затруднить злоумышленникам клонирование голоса без разрешения пользователя. Издание обнаружило, что только две компании, Descript и Resemble AI, предприняли шаги по борьбе с неправомерным использованием. Другие требовали от пользователей только поставить галочку в поле, подтверждающее, что они имеют законное право клонировать голос, или сделать аналогичную самоаттестацию.
Грейс Гедье, политический аналитик Consumer Reports, заявила, что инструменты для клонирования голоса с помощью искусственного интеллекта могут «усилить» мошенничество с выдачей себя за другого человека, если не будут приняты соответствующие меры безопасности.
«Наша оценка показывает, что существуют основные шаги, которые компании могут предпринять, чтобы затруднить клонирование голоса человека без его ведома, но некоторые компании их не предпринимают», - говорится в заявлении Гедье.
Оригинал
Уникальность