«Геноцид с помощью искусственного интеллекта»: Израиль, как сообщается, использовал базу данных для составления списков убийств в секторе Газа | Израильская война с сектором Газа Новости

0
293

Сообщения об использовании израильскими военными непроверенной и нераскрытой базы данных на основе искусственного интеллекта для определения целей для бомбардировок сектора Газа встревожили экспертов по правам человека и технологиям, которые заявили, что это может быть приравнено к «военным преступлениям».

Израильско-палестинское издание +972 Magazine и издание Local Call на иврите недавно сообщили, что израильская армия изолирует и идентифицирует тысячи палестинцев как потенциальные цели для бомбардировок, используя систему наведения с помощью искусственного интеллекта под названием Lavender.

«Эта база данных отвечает за составление списков убийств, включающих до 37 000 целей», — заявил в четверг корреспондент «Аль-Джазиры» Рори Чалландс, ведущий репортаж из оккупированного Восточного Иерусалима.

Неназванные представители израильской разведки, которые разговаривали со средствами массовой информации, заявили, что уровень ошибок Лаванды составляет около 10 процентов. «Но это не помешало израильтянам использовать его для быстрого выявления боевиков Хамаса низкого уровня в секторе Газа и их бомбардировок», — сказал Чалландс.

Становится очевидным, что израильская армия «развертывает непроверенные системы искусственного интеллекта… чтобы помочь принимать решения о жизни и смерти мирных жителей», — сказал Аль-Джазире Марк Оуэн Джонс, доцент кафедры ближневосточных исследований и цифровых гуманитарных наук в Университете Хамида бен Халифы. .

«Давайте проясним: это геноцид с помощью ИИ, и в дальнейшем необходимо объявить мораторий на использование ИИ в войне», — добавил он.

Израильские издания сообщили, что этот метод привел к гибели многих из тысяч мирных жителей в секторе Газа.

В четверг министерство здравоохранения Газы сообщило, что с 7 октября в результате израильских атак было убито по меньшей мере 33 037 палестинцев и 75 668 получили ранения.

Использование ИИ «нарушает» гуманитарное право

«Люди, которые взаимодействовали с базой данных ИИ, часто были просто штампом. Они будут внимательно изучать этот список убийств в течение примерно 20 секунд, прежде чем решить, давать или нет добро на воздушный удар», — сообщил Чалландс.

В ответ на растущую критику израильские военные заявили, что их аналитики должны провести «независимые исследования», чтобы убедиться, что выявленные цели соответствуют соответствующим определениям в соответствии с международным правом и дополнительными ограничениями, предусмотренными их вооруженными силами.

Он опроверг представление о том, что технология представляет собой «систему», а вместо этого «просто базу данных, цель которой состоит в перекрестных ссылках на источники разведывательной информации для получения обновленных слоев информации о военных боевиках террористических организаций».

Но тот факт, что на каждого палестинского боевика, который был намеченной целью, приходилось «от пяти до 10 приемлемых смертей среди гражданского населения», показывает, почему, по словам Чалландса, в секторе Газа так много смертей среди гражданского населения.

Профессор Тоби Уолш, эксперт по искусственному интеллекту из Университета Нового Южного Уэльса в Сиднее, сказал, что ученые-юристы, скорее всего, будут утверждать, что использование искусственного интеллекта для нацеливания нарушает международное гуманитарное право.

«С технической точки зрения эти последние новости показывают, как сложно держать человека в курсе событий, обеспечивая значимый надзор за системами искусственного интеллекта, которые ужасно и трагически масштабируют войну», — сказал он телеканалу «Аль-Джазира».

'Военные преступления'

СМИ цитировали источники, которые сообщили, что израильская армия в первые недели нынешнего конфликта приняла решение, что «на каждого младшего боевика ХАМАС, отмеченного Лавандой, разрешено убить до 15 или 20 мирных жителей».

Источники также сообщили, что если целью были высокопоставленные чиновники ХАМАСа, то «армия несколько раз санкционировала убийство более 100 мирных жителей в результате убийства одного командира».

Бен Саул, специальный докладчик ООН по правам человека и борьбе с терроризмом, заявил, что, если детали доклада подтвердятся, «многие израильские удары по сектору Газа будут представлять собой военные преступления, заключающиеся в проведении непропорциональных атак».

«Израиль в настоящее время пытается продать эти инструменты иностранным организациям, правительствам, которые смотрят на то, что Израиль делает в Газе, не с отвращением, а с восхищением», — сказал Энтони Левенштейн, австралийский журналист и автор книги «Палестинская лаборатория: как». Израиль экспортирует оккупационные технологии по всему миру.

«В ближайшие месяцы и годы мы узнаем, кем они могут быть… Я думаю, что это будут страны, которые в настоящее время заявляют, что выступают против того, что делает Израиль».

Source: https://www.aljazeera.com/news/2024/4/4/ai-assisted-genocide-israel-reportedly-used-database-for-gaza-kill-lists

Насколько полезен был этот пост?

Нажмите на звездочку, чтобы поставить оценку!

Средний рейтинг 0 / 5. Подсчет голосов: 0

Голосов пока нет! Будьте первым, кто оценит этот пост.



оставьте ответ