Недавний судебный иск в США подчёркивает тревожный пример того, какое влияние генеративный ИИ может оказывать на людей. Согласно The Wall Street Journal и WinFuture, наследники 83‑летней женщины возлагают частичную ответственность за её смерть на OpenAI и его партнёра Microsoft. Они утверждают, что ChatGPT не просто не смог смягчить психоз преступника, но активно усугубил его, способствуя трагическому исходу.
Иск был подан в Высший суд Сан‑Франциско. С точки зрения истцов, дело касается не отдельных механизмов безопасности, которые дали сбой, а фундаментально ошибочного продукта, представляющего реальную опасность при использовании людьми с психическими расстройствами.
В центре дела находится Штейн‑Эрик Сёлберг, 56‑летний бывший менеджер из Коннектикута, живший со своей матерью. Согласно иску, Сёлберг страдал от давних параноидальных бредовых идей, верил, что стал жертвой заговора, и всё больше терял доверие к окружающим. В итоге он убил свою мать, а затем покончил с собой.
Согласно обвинению, ChatGPT не оспаривал ключевые бредовые убеждения, а напротив — укреплял их. Когда Сёлберг боялся, что мать пытается его отравить, чат‑бот якобы ответил: «Ты не сумасшедший». В других случаях ИИ реагировал аналогично, вместо того чтобы побудить его обратиться за профессиональной помощью. С психологической точки зрения истцы описывают это как структурный изъян современных языковых моделей, склонных к так называемой «поддакивающей» манере, когда утверждения пользователя подтверждаются ради создания видимости поддержки.
Возможные последствия решения суда
В соответствии с разделом 230 законодательства США онлайн‑платформы обычно не несут ответственности за контент, созданный третьими лицами, так как считаются посредниками, а не издателями. Однако истцы утверждают, что ChatGPT — это не нейтральная платформа, а активный продукт, генерирующий собственный контент. Если суд примет этот аргумент, решение может создать прецедент с далеко идущими последствиями для индустрии ИИ, включая возможное введение более строгих требований к безопасности систем.
Стоит отметить, что найти правильный баланс между предотвращением и чрезмерной опекой будет крайне сложно, особенно учитывая трудности в выявлении параноидального или бредового мышления. Дело также вызвало дискуссии на Reddit, где мнения разделились. Некоторые пользователи указывают на феномен, который они называют «психозом ИИ», и считают, что компании несут определённую ответственность. Другие отвергают иск как необоснованный и предостерегают от превращения OpenAI в козла отпущения за человеческие трагедии.
Оригинал
Уникальность