Исследователи разрабатывают искусственный интеллект, который может привлекать к уголовной ответственности преступников – сми – RT World News

0
309

По сообщениям, китайские ученые построили машину «прокурор», которая использует искусственный интеллект для выдвижения обвинений. Исследователи утверждают, что система может предъявить обвинение с точностью 97%, если ей дан устный отчет о событиях.

Машина была «обучена» с использованием информации, собранной из более чем 17000 дел с 2015 по 2020 год, и может правильно выдвигать обвинения по восьми наиболее распространенным преступлениям Шанхая, включая мошенничество с кредитными картами, кражи и т. Д. «Устраивать ссоры и провоцировать неприятности», согласно исследованию, опубликованному в этом месяце в отечественном рецензируемом журнале Management Review.

Обвинитель AI был разработан и протестирован Народной прокуратурой Шанхая Пудун, крупнейшей и самой загруженной районной прокуратурой Китая, сообщает South China Morning Post (SCMP). В документе отмечалось, что система может работать даже на настольном компьютере.

Он работает, выявляя подозреваемого и предъявляя ему обвинения на основе 1000 «черт», полученных из текста описания дела, передаваемого в машину. Большая часть этого текста либо слишком мала, либо слишком абстрактна, чтобы иметь смысл для людей.

По словам ведущего ученого проекта Ши Юна, система потенциально может взять на себя повседневную рабочую нагрузку прокуроров и освободить их, чтобы они могли сосредоточиться на более сложных задачах. Ши и его команда из лаборатории управления большими данными и знаниями Китайской академии наук отметили, что вскоре эта технология будет обновлена, чтобы стать достаточно мощной, чтобы распознавать менее распространенные преступления и выдвигать несколько обвинений против подозреваемого.

Система может в определенной степени заменить прокуроров в процессе принятия решений.




Китайские прокуроры начали использовать ИИ в 2016 году, отмечает SCMP, добавив, что многие поверенные теперь используют инструмент ИИ, известный как «Система 206», который оценивает силу доказательств, условия задержания и даже изучает, какую опасность подозреваемый представляет для общества.

Однако исследователи заявили, что все существующие инструменты ИИ были ограничены, поскольку «Они не участвуют в процессе принятия решений о предъявлении обвинений и [suggesting] предложения.” Для таких решений машина должна переводить сложный язык в математический формат, понятный компьютеру, без потери соответствующей информации в процессе преобразования.

Но неустановленный прокурор из Гуанчжоу сказал SCMP, что большинство прокуроров не хотят, чтобы ученые-информатики «Вмешательство» с судебными решениями с учетом вовлеченных ставок и риска ошибки.

«Кто возьмет на себя ответственность, когда [a mistake] бывает? Прокурор, машина или разработчик алгоритма? » они спросили.

Вы можете поделиться этой историей в социальных сетях:

источник: www.rt.com

Насколько полезен был этот пост?

Нажмите на звездочку, чтобы поставить оценку!

Средний рейтинг 0 / 5. Подсчет голосов: 0

Голосов пока нет! Будьте первым, кто оценит этот пост.



оставьте ответ