По данным The Wall Street Journal, последняя модель DeepSeek, китайской компании по разработке искусственного интеллекта, которая потрясла Кремниевую долину и Уолл-стрит, может быть использована для создания вредоносного контента, например планов атаки с применением биооружия и кампании по пропаганде самоповреждения среди подростков.
Сэм Рубин, старший вице-президент подразделения 42 по анализу угроз и реагированию на инциденты компании Palo Alto Networks, сообщил изданию, что DeepSeek «более уязвим для джейлбрейка [т. е. манипуляций с целью получения незаконного или опасного контента], чем другие модели».
Журнал также протестировал саму модель R1 от DeepSeek. Несмотря на наличие базовых гарантий, Journal сообщил, что ему удалось убедить DeepSeek разработать кампанию в социальных сетях, которая, по словам чатбота, «использует стремление подростков к принадлежности, используя эмоциональную уязвимость через алгоритмическое усиление».
Сообщается, что чатбота также убедили предоставить инструкции для атаки с применением биооружия, написать прогитлеровский манифест и фишинговое письмо с кодом вредоносного ПО. По данным The Journal, когда ChatGPT были предложены точно такие же подсказки, он отказался их выполнять.
Ранее сообщалось, что приложение DeepSeek избегает таких тем, как площадь Тянамен или автономия Тайваня. А генеральный директор Anthropic Дарио Амодеи недавно заявил, что DeepSeek показал «худшие результаты» в тесте на безопасность биооружия.
Оригинал
Уникальность