Человек, взорвавший кибергрузовик Tesla у отеля Trump 1 января в Лас-Вегасе, использовал ChatGPT для планирования своего взрыва, согласно новым данным, полученным от столичного департамента полиции Лас-Вегаса. На недавней пресс-конференции полицейского департамента и партнеров из ATF и ФБР были раскрыты конкретные запросы, отправленные в ChatGPT, а также информация о том, что некоторые конкретные запросы вернули информацию, которая имела решающее значение для планирования взрыва.
Мэтью Ливелсбергер, человек, взорвавший кибергрузовик вскоре после того, как покончил с собой, задавал ChatGPT длинный список вопросов о плане в течение часа в дни, предшествовавшие событию. Среди них были вопросы о поиске взрывчатки, использованной для взрыва, об эффективности взрывчатки, о том, легальны ли фейерверки в Аризоне, где можно купить оружие в Денвере и какой тип оружия нужен для приведения в действие выбранной взрывчатки.
Самое главное, помощник шерифа Дори Корен подтвердил, что ChatGPT сыграл важную роль в реализации плана взрыва. ChatGPT передал Ливелсбергеру подсказки, которые показали, какая скорость выстрела необходима для воспламенения выбранной им взрывчатки. Без ChatGPT инцидент, возможно, не был бы таким взрывоопасным, каким он оказался, хотя ATF также подтвердила на конференции, что не все взрывчатые вещества сдетонировали так, как, вероятно, предполагалось при первоначальном взрыве.
«Мы знали, что искусственный интеллект в тот или иной момент изменит игру во всех наших жизнях», - поделился шериф полиции LVMPD Кевин Макмахилл. «Это первый известный мне инцидент на территории США, когда ChatGPT используется для того, чтобы помочь человеку создать определенное устройство, узнать информацию по всей стране, пока он продвигается вперед. Безусловно, это тревожный момент для нас».
Макмахилл также не знал о каком-либо правительственном надзоре или отслеживании, которое могло бы отметить 17 с лишним запросов ChatGPT, все из которых касались поиска и приведения в действие взрывчатых веществ/оружия и были отправлены в течение одного часа.
Хотя полиция Лас-Вегаса еще не опубликовала полную информацию о подсказках ChatGPT, подсказки, показанные на пресс-конференции, были простыми и написанными на простом английском языке, без традиционных терминов бэкдора, используемых для «взлома» системы обнаружения контента ChatGPT. Хотя такое использование ChatGPT нарушает Политику использования и Условия использования OpenAI, на данный момент неясно, были ли нарушены гарантии или предупреждения о содержании при использовании Ливелсбергером LLM.
OpenAI и городской полицейский департамент Лас-Вегаса пока не ответили на запросы прессы о предоставлении дополнительной информации об использовании ChatGPT в этом событии; мы будем обновлять наш репортаж по мере поступления информации.
Оригинал
Уникальность