Негосударственные акторы и ИИ на поле боя

0
435

В ноябре 2018 года тогдашний командующий армейским киберкомандованием генерал-лейтенант Пол Накасоне выразил обеспокоенность по поводу того, что негосударственные субъекты получают в свои руки боевые технологии с поддержкой искусственного интеллекта (ИИ). Этот день настал.

За последние несколько лет недорогие, коммерческие, готовые ИИ получили распространение таким образом, что уравняли правила игры между государственными субъектами, разрабатывающими технологии с поддержкой ИИ, и негосударственными субъектами, с которыми они, вероятно, столкнутся. Использование технологий с искусственным интеллектом, например, в беспилотных летательных аппаратах, киберпространстве, а также крупномасштабная ложная и дезинформация, государственными и некоторыми негосударственными субъектами дает важные сведения о потенциальном влиянии более широкого распространения этих технологий на негосударственных субъектов. . Здесь мы наносим на карту область использования ИИ негосударственными субъектами, проливая свет на угрозу, потенциальные политические решения и международные нормы, правила и инновации, которые могут гарантировать, что негосударственные субъекты не используют ИИ в потенциально гнусных целях.

Что такое боевые технологии с поддержкой ИИ?

По словам Майкла Горовица, искусственный интеллект больше похож на двигатель внутреннего сгорания или электричество, чем на самолет или танк. Он позволяет или улучшает существующие технологии, а не стоит отдельно. Хорошим примером являются автономные подводные лодки Китая, которые полагаются на машинное обучение для определения местоположения целей, а затем используют торпеду для нанесения удара, и все это без вмешательства человека. У Китая раньше были подводные лодки, но ИИ позволяет подводным лодкам вести наблюдение, устанавливать мины и проводить атаки, не привязанные к каналам передачи данных, которые могут быть нестабильными в подводной среде.

Технологии на основе ИИ привлекательны для негосударственных субъектов. У негосударственных субъектов меньше ресурсов, чем у государств, и ИИ дает негосударственным субъектам возможность преодолеть этот дисбаланс сил. У них есть два основных пути для приобретения технологий с поддержкой ИИ. Во-первых, через коммерчески доступный ИИ и ресурсы, такие как видео на YouTube, которые предоставляют руководства по созданию автоматических турелей для обнаружения и запуска боеприпасов с помощью компьютера Raspberry Pi и 3D-печати. Во-вторых, за счет разработок под руководством государственных субъектов, которые экспортируются. Например, Россия и Китай начали развивать партнерство в области исследований ИИ. Huawei создала исследовательские лаборатории в России в 2017 и 2020 годах в надежде использовать китайские финансы с российскими исследовательскими возможностями.

Оба пути создают более низкий барьер для входа и их труднее контролировать или регулировать, чем ядерное оружие. Распространение ядерного оружия требует значительных финансовых и природных ресурсов в сочетании с большим объемом научных знаний. Технологии на основе ИИ гораздо менее капиталоемки и часто коммерчески доступны, что делает их более доступными для негосударственных субъектов. Хотя потенциальные области применения обширны, три области с наибольшим потенциалом ИИ для демократизации вреда — это беспилотники, киберпространство и ложная и дезинформация. ИИ не создает, а усиливает и ускоряет угрозу во всех этих пространствах.

Негосударственные субъекты и дроны с искусственным интеллектом, кибернетика и дезинформация

В течение почти двух десятилетий государственные субъекты, такие как США и Израиль, были показательными примерами использования дронов на поле боя. Однако дроны уже начали использовать негосударственные субъекты, и было выявлено 440 уникальных случаев, когда негосударственные субъекты применяли дроны. В 2017 году группировка «Исламское государство» использовала беспилотник для сброса взрывчатки в жилой комплекс в Ираке. Дроны также стали инструментом наркокартелей для перевозки наркотиков и доставки примитивных бомб. Специальные операции США также отметили, что использование коммерческих беспилотников, оснащенных оружием, подрывает моральный дух из-за неопределенности, которую они создают. Отслеживание небольших воздушных угроз создает проблемы, поскольку большинство средств защиты ожидают наличия самолетов с большим, обнаруживаемым радиолокационным поперечным сечением или наземных транспортных средств, которые могут быть заблокированы барьерами. В 2019 году Иран использовал беспилотники для нападения на хорошо охраняемые нефтяные объекты в Саудовской Аравии — атаки, на которые претендуют йеменские хуситы, — раскрывая асимметричные преимущества, которые можно извлечь из использования небольших транспортных средств.

Как показывают приведенные выше примеры, дроны уже распространяются и не нуждаются в ИИ, но ИИ сделает эти атаки более эффективными и смертоносными. Машинное обучение позволит роям дронов быть более эффективными, подавляя системы ПВО. ИИ также может помогать дронам в целенаправленных убийствах, легко идентифицируя и казня конкретных людей или членов этнической группы.

Аналогичная динамика сохраняется и в киберпространстве, где негосударственные субъекты уже продемонстрировали умение проводить атаки. Группа хактивистов Anonymous использовала атаки типа «отказ в обслуживании» против ряда корпораций и правых теоретиков заговора. В апреле 2021 года подозреваемая хакерская группа DarkSide предприняла кибератаку на Colonial Pipeline, вызвав временное потрясение в поставках нефти на восточном побережье США и успешно получив выкуп через обмен криптовалюты. Джихадистские террористические группы использовали Интернет для эффективной координации атак и распространения своей пропаганды. Кроме того, группы могут проводить фишинговые схемы для обмана и получения личной информации. Алгоритмы машинного обучения могут использоваться для выявления уязвимых лиц. Эти алгоритмы могут обрабатывать большие объемы данных для анализа предикативного поведения. ИИ также может все чаще создавать электронные письма, которые могут обходить меры безопасности, имитируя людей и вызывая меньше красных флажков.

И, наконец, область, в которой ИИ может больше всего усилить базовый вред, — это онлайн-дезинформация (неточная информация, распространяемая без намерения ввести в заблуждение) и дезинформация (преднамеренно вводящая в заблуждение информация); у последнего явно более гнусные мотивы. Интернет-дезинформация обычно принимает две формы. Один из них заключается в создании или распространении недостоверного контента, который может быть нацелен на определенных лиц или демографические группы для продвижения определенных идеологий. Выборы 2016 года показали, как государственные деятели могут нацеливаться на определенные демографические группы, чтобы манипулировать общественным мнением. Вторым средством дезинформации является создание дипфейков, то есть изображений или видео, измененных в цифровом виде, чтобы они были похожи на кого-то другого. В оспариваемых Джамму и Кашмире власти Индии сослались на боевые группы, использующие поддельные видео и фотографии, чтобы спровоцировать насилие, чтобы оправдать ограничение интернет-услуг.

Одним из текущих ограничений дезинформации являются когнитивные ресурсы. Например, лица, генерирующие дезинформацию, должны создавать контент, который не является плагиатом или явно является работой человека, не являющегося носителем используемого языка. Делать это в больших масштабах сложно. Однако большие языковые модели, основанные на машинном обучении для прогнозирования текста, становятся все более изощренными, могут преодолевать эти когнитивные ограничения и сегодня доступны на коммерческой основе. В конструктивном случае актеры могут использовать эти модели для творческих служанок, чтобы подстегнуть умные ядра для стихов, эссе или обзоров продуктов. Но эти модели также могут быть неправильно использованы негосударственными субъектами, стремящимися генерировать дезинформацию в больших масштабах, чтобы манипулировать зарубежной или внутренней общественностью, чтобы она поверила идеологически мотивированным сообщениям. Эта общественность, засыпанная дезинформацией, может также достичь точки, когда она не будет знать, чему верить — нигилистический результат, поскольку функциональные общества требуют определенной степени доверия для политической и социальной сплоченности.

Политические решения

Как видно из приведенных выше разделов, технологии с поддержкой ИИ быстро развиваются и становятся доступными для негосударственных субъектов из-за их коммерческой доступности и доступности. То же самое коммерческое использование, которое делает эти технологии доступными, также затрудняет их регулирование. В то время как 28 стран уже призвали к запрету автономного оружия, которое использует алгоритмы с поддержкой ИИ для идентификации и атаки целей, такие страны, как Израиль, Россия, Китай, Южная Корея, Великобритания и США, разрабатывают такое оружие. Поэтому запрет так называемых «роботов-убийц» не очень правдоподобен с политической точки зрения. Конечно, предлагаемые запреты на «системы ИИ, которые считаются явной угрозой безопасности, средствам к существованию и правам людей», будет очень трудно обеспечить, поскольку джинн ИИ в значительной степени выпущен из бутылки и широко распространен в коммерческих целях. Кроме того, эти предлагаемые запреты будут применяться только к государствам, что увеличит асимметричное преимущество негосударственных акторов из-за их исключения из организованных запретов и участия государственных акторов.

Вместо этого директивным органам следует сосредоточиться на трех основных областях. Им следует продолжить работу с частными лицами. Привлечение частных компаний к обсуждению технологий ИИ, особенно автономных дронов, может быть полезным, поскольку им может быть поручено ввести аппаратные или программные ограничения, которые повлияют на то, могут ли негосударственные субъекты использовать эти технологии для борьбы с государственными субъектами.

Во-вторых, США и другие демократические государства должны принять и применять на практике нормы, поддерживающие системы с участием человека, которые требуют, чтобы именно люди принимали окончательные решения о смертоносной силе. Потенциальная проблема, которая может возникнуть из-за этого, заключается в том, что государства должны практиковать то, что они проповедуют, и обеспечивать надлежащее поведение государства, чтобы эти нормы могли иметь силу.

В-третьих, правительству США следует вкладывать больше ресурсов в технологии, чтобы быть конкурентоспособными, чтобы легче выявлять и сдерживать возникающие угрозы. Недавнее принятие Закона США об инновациях и конкурентоспособности, предусматривающего выделение 190 миллиардов долларов на расширение технологических возможностей США, находится на правильном пути. Законодательство, которое расширяет технологии и исследования STEM, поможет США сохранить и развить технологическое преимущество.

Наконец, технологии с поддержкой ИИ появляются среди государств, коммерческого сектора и негосударственных субъектов. Более того, негосударственные субъекты, которые отставали, теперь наверстывают упущенное, что позволяет им уравнять правила игры. Государственные субъекты должны помочь подготовить правоохранительные органы, предприятия и другие организации, такие как школы и больницы, к возможным последствиям и мерам, которые необходимо принять в случае неправомерного использования ИИ негосударственными организациями.

источник: www.brookings.edu

Насколько полезен был этот пост?

Нажмите на звездочку, чтобы поставить оценку!

Средний рейтинг 0 / 5. Подсчет голосов: 0

Голосов пока нет! Будьте первым, кто оценит этот пост.



оставьте ответ