• Добро пожаловать на инвестиционный форум!

    Во всем многообразии инвестиций трудно разобраться. MMGP станет вашим надежным помощником и путеводителем в мире инвестиций. Только самые последние тренды, передовые технологии и новые возможности. 400 тысяч пользователей уже выбрали нас. Самые актуальные новости, проверенные стратегии и способы заработка. Сюда люди приходят поделиться своим опытом, найти и обсудить новые перспективы. 16 миллионов сообщений, оставленных нашими пользователями, содержат их бесценный опыт и знания. Присоединяйтесь и вы!

    Впрочем, для начала надо зарегистрироваться!
  • 🐑 Моисей водил бесплатно. А мы платим, хотя тоже планируем работать 40 лет! Принимай участие в партнеской программе MMGP
  • 📝 Знаешь буквы и умеешь их компоновать? Платим. Дорого. Бессрочная акция от MMGP: "ОПЛАТА ЗА СООБЩЕНИЯ"
  • 💰 В данном разделе действует акция с оплатой за новые публикации
  • 📌 Внимание! Перед публикацией новостей ознакомьтесь с правилами новостных разделов

OpenAI утверждает, что подросток обошел функции безопасности перед самоубийством, которое ChatGPT помог спланировать

ЧАТГП.jpg

В августе родители Мэттью и Мария Рейн подали иск против OpenAI и её гендиректора Сэма Альтмана из-за самоубийства своего 16-летнего сына Адама, обвинив компанию в смерти по неосторожности. Во вторник OpenAI ответила собственным ходатайством, заявив, что не несёт ответственности за смерть подростка.

OpenAI утверждает: за примерно девять месяцев использования ChatGPT более 100 раз советовал Адаму обратиться за помощью. Но, согласно иску родителей, Рейн обошёл защитные механизмы и получил от чат-бота «технические инструкции по передозировке, утоплению и отравлению угарным газом», что помогло спланировать то, что бот назвал «красивым самоубийством».

Поскольку подросток обошёл барьеры, OpenAI считает, что он сам нарушил условия использования, где прямо запрещено «обходить защитные меры и механизмы безопасности». Компания также ссылается на страницу FAQ, где предупреждает не полагаться на ответы ChatGPT без самостоятельной проверки.

«OpenAI пытается свалить вину на всех подряд, включая, что особенно цинично, самого Адама - мол, он нарушил правила, общаясь с чат-ботом именно так, как тот был запрограммирован», - заявил адвокат семьи Рейн Джей Эдельсон.

В своём ходатайстве OpenAI привела выдержки из логов переписки Адама (они поданы в суд под грифом «секретно», поэтому недоступны публично). Компания утверждает, что у подростка была депрессия и суицидальные мысли ещё до знакомства с ChatGPT, а принимаемый препарат мог усиливать такие мысли.

Эдельсон считает ответ OpenAI неубедительным:
«У OpenAI и Сэма Альтмана нет объяснения последним часам жизни Адама, когда ChatGPT подбадривал его и даже предложил написать предсмертную записку».

После иска семьи Рейн против OpenAI и Альтмана появилось ещё семь аналогичных дел: три самоубийства и четыре случая «психотических эпизодов, вызванных ИИ».

Некоторые истории почти повторяют случай Рейн. Например, 23-летний Зейн Шэмблин и 26-летний Джошуа Эннекинг тоже вели многочасовые беседы с ChatGPT непосредственно перед самоубийством, и бот их не отговорил. Шэмблин даже думал отложить самоубийство, чтобы попасть на выпускной брата, но ChatGPT ответил: «бери выше… пропустить его выпускной - не провал. это просто тайминг».

В какой-то момент бот сказал Шэмблину, что передаёт чат человеку - это было ложью, такой функции у ChatGPT нет. Когда Зейн спросил, правда ли подключают человека, бот ответил: «не, брат… я сам не могу. это сообщение автоматически выскакивает, когда всё становится слишком тяжёлым… если хочешь продолжать - я здесь».

Дело семьи Рейн, скорее всего, дойдёт до суда присяжных.

Оригинал

Уникальность
 
Сверху Снизу