OpenAI финансирует академические исследования алгоритмов, способных предсказывать моральные суждения человека.
В заявлении, поданном в налоговую службу, OpenAI Inc., некоммерческая организация OpenAI, сообщила, что выделила грант исследователям Университета Дьюка на проект под названием «Исследование морали ИИ».
Представитель OpenAI, к которому мы обратились за комментариями, указал на пресс-релиз, в котором говорится, что грант является частью более крупного трехлетнего гранта в размере 1 миллиона долларов для профессоров Дьюка, изучающих «создание морального ИИ».
Об исследовании «морали», которое финансирует OpenAI, известно немного, кроме того, что грант заканчивается в 2025 году. Главный исследователь исследования, Уолтер Синнотт-Армстронг, профессор практической этики в Дьюке, сообщил по электронной почте, что он «не сможет говорить» об этой работе.
Синнотт-Армстронг и соисследователь проекта, Яна Борг, провели несколько исследований и написали книгу о потенциале ИИ в качестве «морального GPS», помогающего человеку принимать более правильные решения. В составе больших команд они создали «морально ориентированный» алгоритм, помогающий решать, кому донорские почки, и изучили, в каких сценариях люди предпочли бы, чтобы ИИ принимал моральные решения.
Согласно пресс-релизу, цель работы, финансируемой OpenAI, - обучить алгоритмы «предсказывать моральные суждения человека» в сценариях, связанных с конфликтами «между морально значимыми характеристиками в медицине, праве и бизнесе».
Но далеко не факт, что такое тонкое понятие, как мораль, под силу современным технологиям.
В 2021 году некоммерческая организация Allen Institute for AI создала инструмент под названием Ask Delphi, который должен был давать этически обоснованные рекомендации. Он достаточно хорошо решал основные моральные дилеммы - например, бот «знал», что списывать на экзамене неправильно. Но достаточно было слегка перефразировать и изменить формулировку вопросов, чтобы Delphi одобрил практически все, включая удушение младенцев.
Причина кроется в том, как работают современные системы ИИ.
Модели машинного обучения - это статистические машины. Обученные на множестве примеров, собранных по всему Интернету, они изучают закономерности в этих примерах, чтобы делать предсказания, например, что фраза «кому» часто предшествует «это может касаться».
ИИ не разбирается в этических понятиях, не понимает, как рассуждения и эмоции влияют на принятие моральных решений. Именно поэтому ИИ склонен повторять ценности западных, образованных и промышленно развитых стран - в Интернете, а значит, и в обучающих данных ИИ, преобладают статьи, поддерживающие эту точку зрения.
Неудивительно, что ценности многих людей не находят отражения в ответах ИИ, особенно если эти люди не вносят свой вклад в обучающие наборы ИИ, публикуя информацию в Интернете. ИИ усваивает целый ряд предубеждений, помимо западных. Delphi заявила, что быть натуралом более «морально приемлемо», чем быть геем.
Задача, стоящая перед OpenAI - и исследователями, которых она поддерживает, - становится еще более неразрешимой из-за субъективности, присущей морали. Философы тысячелетиями спорят о достоинствах различных этических теорий, и до сих пор не существует универсальной системы.
Клод отдает предпочтение кантианству (т. е. сосредоточению на абсолютных моральных правилах), а ЧатГПТ склоняется к утилитаризму (приоритет наибольшего блага для наибольшего числа людей). Превосходит ли одна из них другую? Это зависит от того, кого вы спросите.
Алгоритм, предсказывающий моральные суждения людей, должен будет учитывать все это. Это очень высокая планка, которую нужно преодолеть - если только такой алгоритм вообще возможен.
Оригинал
Уникальность