Социальная платформа X запустит пилотную версию функции, которая позволит чат-ботам с искусственным интеллектом генерировать «Примечания сообщества».
Заметки сообщества — это функция эпохи Twitter, которую Илон Маск расширил после приобретения сервиса, который теперь называется X.
Пользователи, участвующие в этой программе проверки фактов, могут добавлять комментарии, которые добавляют контекст к определенным постам, которые затем проверяются другими пользователями, прежде чем они появляются в приложении к посту. Заметка сообщества может появиться, например, в посте с видео, сгенерированным искусственным интеллектом, в котором не ясно, что оно является синтетическим, или в качестве дополнения к вводящему в заблуждение посту политика.
Примечания становятся общедоступными, когда достигается консенсус между группами, которые в прошлом не соглашались с предыдущими оценками.
Примечания сообщества оказались настолько успешными на X, что вдохновили Meta, TikTok и YouTube на реализацию аналогичных инициатив — Meta полностью отказалась от сторонних программ проверки фактов в обмен на эту недорогую работу, выполняемую сообществом.
Однако еще предстоит выяснить, будет ли использование чат-ботов с искусственным интеллектом в качестве проверяющих факты полезным или вредным.
Эти заметки ИИ могут быть сгенерированы с помощью Grok от X или с помощью других инструментов ИИ и подключения их к X через API. Любая заметка, отправленная ИИ, будет рассматриваться так же, как заметка, отправленная человеком, что означает, что она пройдет тот же процесс проверки для обеспечения точности.
Использование ИИ для проверки фактов вызывает сомнения, учитывая, как часто ИИ галлюцинирует или придумывает контекст, не основанный на реальности.
Согласно статье, опубликованной на этой неделе исследователями, работающими над X Community Notes, рекомендуется, чтобы люди и LLM работали в тандеме. Отзывы людей могут улучшить генерацию заметок ИИ посредством усиленного обучения, при этом люди, оценивающие заметки, остаются в качестве окончательной проверки перед публикацией заметок.
«Цель состоит не в том, чтобы создать ИИ-помощника, который будет говорить пользователям, что им думать, а в том, чтобы построить экосистему, которая даст людям возможность более критично мыслить и лучше понимать мир», — говорится в статье. «LLM и люди могут работать вместе в благотворном цикле».
Даже при наличии человеческой проверки все еще существует риск чрезмерной зависимости от ИИ, особенно с учетом того, что пользователи смогут встраивать LLM от третьих сторон. Например, ChatGPT от OpenAI недавно столкнулся с проблемой чрезмерной льстивости модели. Если LLM ставит «полезность» выше точного выполнения проверки фактов, то комментарии, сгенерированные ИИ, могут оказаться совершенно неточными.
Существует также опасение, что человеческие оценщики будут перегружены количеством комментариев, сгенерированных ИИ, что снизит их мотивацию адекватно выполнять эту волонтерскую работу.
Пользователи не должны ожидать появления сгенерированных ИИ заметок сообщества — X планирует тестировать эти вклады ИИ в течение нескольких недель, прежде чем внедрять их более широко, если они окажутся успешными.