Израильские военные использовали искусственный интеллект (ИИ), чтобы идентифицировать объекты бомбардировки в Газе, согласно расследованию +972 Magazine and Local Call, ссылаясь на сотрудников израильской разведки.
Официальные лица, цитируемые в расследовании, сказали, что инструмент на основе искусственного интеллекта называется Lavender и, как известно, ошибается в 10%.
Отвечая на вопрос +972, Армия обороны Израиля (ЦАХАЛ) не отрицала существование инструмента, но отрицала использование ИИ для идентификации объектов.
В ЦАХАЛ заявили, что "аналитики должны провести независимые экспертизы, в ходе которых они проверят, что идентифицированные цели соответствуют определению в соответствии с международным правом и дополнительным ограничениям, предусмотренным в директивах ЦАХАЛа".
Автор расследования Юваль Абрахам ранее рассказывал CNN в январе о своей работе по изучению того, как израильские военные "в значительной степени полагаются на искусственный интеллект для создания целей для таких убийств с очень незначительным наблюдением человека".
В расследовании также сообщили, что израильская армия "систематически атаковала" цели в их домах, обычно ночью, когда в здании присутствовали люди.
по материалам
уникальность