Основатель и глава SpaceX и Tesla Motors Илон Маск ранее уже делился с общественностью своими опасениями по поводу искусственного интеллекта, призывая мировых светил науки, исследовательские институты и компании из области робототехники первым делом задуматься о безопасности.
Он, со своей стороны, пожертвовал $10 млн в фонд некоммерческой организации Future of Life Institute (FLI), главная миссия которой – «смягчение рисков, которые грозят человечеству в будущем».
Данная организация, в числе прочего, занимается исследованием потенциальных угроз, которые несет в себе искусственный интеллект. На днях Институт назвал 37 научно-исследовательских групп, отобранных среди 300 претендентов, которые получат гранты на собственные проекты по обеспечению безопасности искусственного интеллекта.
Полный список получателей грантов, а также подробное описание их проектов можно найти на официальном сайте Института. Между исследовательскими командами будет распределено в общей сложности около $7 млн, предоставленные Маском и организацией Open Philanthropy Project. Работы по большинству проектов начнутся уже в сентябре и будут финансироваться Институтом в течение трех лет. Оставшиеся $4 млн будут распределены позже, как только организация выделит наиболее перспективные проекты.
Хотя данная «инициатива» преподносилась многими тематическими ресурсами в качестве создания инструмента предотвращения воплощения в жизнь сценария такой культовой ленты, как «Терминатор», в настоящее время Институт пытается перевести обсуждение в другое, более правильное, русло.
«Опасности с воплощением сценария «Терминатора» не то чтобы не существует, это попросту отвлекает от реальных проблем, которые несет в себе искусственный интеллект», – говорится в заявлении президента FLI Макса Тегмарка. – «Мы сконцентрированы на реальных проблемах, решением которых займутся 34 лучших команд исследователей».
Это абсолютно справедливое утверждение: руководство Института мыслит очень практично – оптимизация воздействия ИИ на экономику (рост уровня безработицы и дальнейшее увеличение неравенства доходов) и решение ряд этических дилемм (выбор наиболее оптимального «варианта» в неизбежной автокатастрофе). Тем не менее, немало проектов посвящены потенциальной проблемы восстаниям машин и уничтожения человечества роботами. Ранее Илон Маск отметил, что у ИИ есть потенциал стать «опаснее ядерного оружия». Основная цель FLI – предотвратить этот сценарий, удостоверившись, что ИИ находится под полным контролем и действует в интересах человечества.
Источник