В августе родители Мэттью и Мария Рейн подали иск против OpenAI и её гендиректора Сэма Альтмана из-за самоубийства своего 16-летнего сына Адама, обвинив компанию в смерти по неосторожности. Во вторник OpenAI ответила собственным ходатайством, заявив, что не несёт ответственности за смерть подростка.
OpenAI утверждает: за примерно девять месяцев использования ChatGPT более 100 раз советовал Адаму обратиться за помощью. Но, согласно иску родителей, Рейн обошёл защитные механизмы и получил от чат-бота «технические инструкции по передозировке, утоплению и отравлению угарным газом», что помогло спланировать то, что бот назвал «красивым самоубийством».
Поскольку подросток обошёл барьеры, OpenAI считает, что он сам нарушил условия использования, где прямо запрещено «обходить защитные меры и механизмы безопасности». Компания также ссылается на страницу FAQ, где предупреждает не полагаться на ответы ChatGPT без самостоятельной проверки.
«OpenAI пытается свалить вину на всех подряд, включая, что особенно цинично, самого Адама - мол, он нарушил правила, общаясь с чат-ботом именно так, как тот был запрограммирован», - заявил адвокат семьи Рейн Джей Эдельсон.
В своём ходатайстве OpenAI привела выдержки из логов переписки Адама (они поданы в суд под грифом «секретно», поэтому недоступны публично). Компания утверждает, что у подростка была депрессия и суицидальные мысли ещё до знакомства с ChatGPT, а принимаемый препарат мог усиливать такие мысли.
Эдельсон считает ответ OpenAI неубедительным:
«У OpenAI и Сэма Альтмана нет объяснения последним часам жизни Адама, когда ChatGPT подбадривал его и даже предложил написать предсмертную записку».
После иска семьи Рейн против OpenAI и Альтмана появилось ещё семь аналогичных дел: три самоубийства и четыре случая «психотических эпизодов, вызванных ИИ».
Некоторые истории почти повторяют случай Рейн. Например, 23-летний Зейн Шэмблин и 26-летний Джошуа Эннекинг тоже вели многочасовые беседы с ChatGPT непосредственно перед самоубийством, и бот их не отговорил. Шэмблин даже думал отложить самоубийство, чтобы попасть на выпускной брата, но ChatGPT ответил: «бери выше… пропустить его выпускной - не провал. это просто тайминг».
В какой-то момент бот сказал Шэмблину, что передаёт чат человеку - это было ложью, такой функции у ChatGPT нет. Когда Зейн спросил, правда ли подключают человека, бот ответил: «не, брат… я сам не могу. это сообщение автоматически выскакивает, когда всё становится слишком тяжёлым… если хочешь продолжать - я здесь».
Дело семьи Рейн, скорее всего, дойдёт до суда присяжных.
Оригинал
Уникальность