Пользователи платформы разговорного ИИ ChatGPT в выходные обнаружили интересный феномен: популярный чатбот отказывается отвечать на вопросы, если его спрашивают о «Дэвиде Майере». Если попросить его сделать это, он мгновенно застывает. Появились теории заговора, но в основе этого странного поведения может лежать более обычная причина.
В минувшие выходные быстро распространились слухи о том, что имя - это яд для чатбота, и все больше людей пытались обмануть сервис, чтобы он просто признал это имя. Безуспешно: каждая попытка заставить ChatGPT произнести это конкретное имя приводит к неудаче или даже к обрыву разговора на полуслове.
«Я не могу ответить», - говорит он, если вообще что-то говорит.
Но то, что началось как разовое любопытство, вскоре расцвело, когда люди обнаружили, что ChatGPT не может назвать не только Дэвида Майера.
Также были обнаружены имена Брайана Худа, Джонатана Терли, Джонатана Зиттрейна, Дэвида Фабера и Гвидо Скорца. (Несомненно, с тех пор были обнаружены и другие, так что этот список не является исчерпывающим).
Кто эти люди? И почему ChatGPT так их ненавидит? OpenAI не ответила на неоднократные запросы, так что нам остается только собирать все по кусочкам самим.
Некоторые из этих имен могут принадлежать любому количеству людей. Но потенциальная связь, выявленная пользователями ChatGPT, заключается в том, что эти люди - публичные или полупубличные фигуры, которые могут предпочесть, чтобы определенная информация была «забыта» поисковыми системами или моделями ИИ.
Брайан Худ, например, выделяется тем, что, если предположить, что это один и тот же человек, я писал о нем в прошлом году. Худ, австралийский мэр, обвинил ChatGPT в том, что она ложно описала его как преступника десятилетней давности, о котором он на самом деле сообщил.
Хотя его адвокаты связались с OpenAI, иск так и не был подан. Как он рассказал в интервью газете Sydney Morning Herald в начале этого года, «оскорбительные материалы были удалены, и они выпустили версию 4, заменив ею версию 3.5».
Что касается наиболее известных владельцев других имен, то Дэвид Фабер - давний репортер CNBC. Джонатан Тёрли - юрист и комментатор Fox News, который в конце 2023 года подвергся «своттингу» (т. е. фальшивому звонку в службу 911, в результате которого к нему домой прибыла вооруженная полиция). Джонатан Зиттрейн - тоже эксперт в области права, который много говорил о «праве быть забытым». А Гвидо Скорца входит в совет директоров итальянского Управления по защите данных.
Это не совсем одно и то же направление деятельности, но и не случайный выбор. Каждый из этих людей, возможно, является тем, кто по каким-то причинам официально попросил ограничить доступ к информации, касающейся их в сети.
Что возвращает нас к Дэвиду Майеру. Ни адвоката, ни журналиста, ни мэра, ни какого-либо другого явно заметного человека с таким именем найти не удалось (с извинениями перед многими уважаемыми Дэвидами Майерами).
Однако существовал профессор Дэвид Майер, который преподавал драму и историю, специализируясь на связях между поздней викторианской эпохой и ранним кинематографом. Майер умер летом 2023 года в возрасте 94 лет. Однако за несколько лет до этого британско-американский академик столкнулся с юридической и сетевой проблемой, связанной с тем, что его имя было связано с разыскиваемым преступником, который использовал его в качестве псевдонима, из-за чего он не мог путешествовать.
Майер постоянно боролся за то, чтобы его имя было отделено от имени «однорукого террориста», даже продолжая преподавать до последних лет своей жизни.
Что же мы можем заключить из всего этого? В отсутствие каких-либо официальных объяснений со стороны OpenAI мы можем предположить, что модель проглотила или предоставила список людей, чьи имена требуют особой обработки.
По юридическим причинам, по соображениям безопасности, конфиденциальности или по другим причинам эти имена, вероятно, подпадают под особые правила, как и многие другие имена и личности. Например, ChatGPT может изменить свой ответ, если сопоставит написанное вами имя со списком политических кандидатов.
Таких специальных правил много, и каждый запрос проходит через различные формы обработки, прежде чем на него будет дан ответ. Но эти правила обработки после запроса редко становятся достоянием общественности, разве что в политических объявлениях типа «модель не будет предсказывать результаты выборов для любого кандидата на должность».
Скорее всего, произошло то, что один из этих списков, которые почти наверняка активно поддерживаются или автоматически обновляются, был каким-то образом поврежден ошибочным кодом или инструкциями, которые, будучи вызванными, привели к немедленному выходу из строя чат-агента.
Для ясности, это всего лишь наши собственные предположения, основанные на том, что мы узнали, но это не первый случай, когда ИИ ведет себя странно в результате посттренировочного руководства. (Кстати, пока я писал это, «Дэвид Майер» снова начал работать у некоторых, в то время как другие имена по-прежнему вызывали сбои).
Как обычно бывает в таких случаях, в ход идет бритва Хэнлона: Никогда не приписывайте злому умыслу (или заговору) то, что вполне объяснимо глупостью (или синтаксической ошибкой).
Вся эта драма - полезное напоминание о том, что эти модели ИИ не только не волшебные, но и обладают сверхъестественным автозаполнением, активно контролируются и подвергаются вмешательству
Оригинал
Уникальность