Президент России Владимир Путин поручил изучить и улучшить возможности применения искусственного интеллекта для расследования преступлений. Соответствующие предложения должны быть подготовлены к 1 июля. Какие технологии уже используют правоохранительные органы, как их еще можно применить, какие у ИИ недостатки и преимущества и будут ли суды принимать аргументацию нейросетей — в материале NEWS.ru.

Как сейчас используется ИИ в раскрытии преступлений

Искусственный интеллект уже сейчас помогает раскрывать преступления. Например, в России работает система «Криминалист»: она анализирует данные из баз разных ведомств, изучает открытые источники, помогает правоохранительным органам выявлять потенциальных преступников, места совершения преступлений. Кроме того, система предлагает оптимальные решения для дальнейших действий.

Помимо этого, бороться с преступностью в России помогают камеры видеонаблюдения с функцией распознавания лиц. Только в Москве, например, в 2023 году благодаря этим устройствам раскрыто почти девять тысяч преступлений.

Существуют и зарубежные системы ИИ, используемые для расследования преступлений. Например, PredPol способна спрогнозировать вероятность совершения преступлений в определенных местах в конкретный промежуток времени. Система опирается на анализ исторических данных о нарушениях.

Телеграм-канал NEWS.ru

Следите за развитием событий в нашем Телеграм-канале

Еще один алгоритм — COMPAS. Он может оценить риск рецидива у осужденных и подсудимых. А программа ShotSpotter обнаруживает выстрелы из огнестрельного оружия и определяет место происшествия.

Эксперт по кибербезопасности, хакер Марсель Дандамаев рассказал NEWS.ru, что искусственный интеллект — это действительно хорошее подспорье для правоохранительных органов.

«Это больше помощник: распознавание поведения, голоса и биометрии. ИИ может подсказать, но не способен раскрыть преступление. Ведь он не знает правды. Но он может помочь найти что-то или сравнить данные», — сказал он.

Фото: Сгенерировано в Midjourney/NEWS.ru

Принимаются ли доказательства, добытые с помощью нейросетей, в суде

Адвокат Михаил Салкин рассказал NEWS.ru, что суды уже давно принимают доказательства, добытые с помощью искусственного интеллекта. В качестве примера он привел работу камер видеонаблюдения в Москве, которые работают на основе ИИ.

«Фактически ИИ уже давно используется для распознавания лиц. Есть система, в которую загружают фотографию неважно какого качества. И она по хранилищу баз данных этих камер видеонаблюдения обнаруживает человека: определяет его сходство и дальше рисует целую схему, где и когда он проходил. Это, по сути, и есть результат творчества искусственного интеллекта», — говорит Михаил Салкин.

Он добавил, что ИИ применяют, когда исследуются какие-то массивы данных, например телефонные переговоры. Такие доказательства тоже принимаются в суде.

«Если это будет делать ИИ, а не человек, то никаких я тут этических нарушений не вижу. Какая разница, все равно это обработка данных», — отметил Михаил Салкин.

Вышеперечисленные доказательства, уточнил он, есть и используются, но они все же проходят не вслепую: их проверяют люди. Михаил Салкин добавил, что вообще Уголовный и Уголовно-процессуальный кодексы не содержат никаких ограничений, откуда должны и могут быть получены доказательства. Каждый раз их все же оценивает суд.

Другое дело, что все равно они все должны переноситься на некий материальный носитель, учитываемый в протоколе осмотра документов, объясняет адвокат.

«Этот протокол подписывает конкретный следователь или оперативный работник. То есть в любом случае там есть человеческий фактор. Соответственно, если что-то не так, спрашивать будут не с искусственного интеллекта, а с человека, который этот документ подписал», — подчеркнул он.

Фото: Сгенерировано в Midjourney/NEWS.ru

Как еще ИИ может применяться правоохранительными органами

Эксперт по кибербезопасности Сергей Белов сообщил NEWS.ru, что ИИ может использоваться еще и для психологического профайлинга подозреваемых: анализа их поведения, речи, публикаций в социальных сетях.

«Это может помочь в создании более точного психологического портрета и предсказании возможного поведения», — подчеркнул он.

Сергей Белов добавил, что ИИ может послужить хорошим помощником в криминалистической лаборатории.

«Нейросети могут анализировать ДНК, отпечатки пальцев, химические вещества, что позволит ускорить и повысить точность процесса», — заявил эксперт.

Однако, по словам Марселя Дандамаева, в поручении Владимира Путина речь скорее идет не о создании новых форм нейросетей и внедрении их в работу правоохранительных органов, а об усовершенствовании уже существующих алгоритмов.

«У ИИ бывает много ошибок. Так что тут, наверное, речь идет скорее об усовершенствовании», — считает он.

Фото: Сгенерировано в Midjourney/NEWS.ru

Чем нейросеть лучше следователя

Сергей Белов отметил, что ИИ в расследовании преступлений имеет ряд значительных преимуществ по сравнению с традиционными методами.

«Одним из ключевых преимуществ ИИ является способность обрабатывать огромные объемы данных гораздо быстрее и эффективнее, чем это возможно для человека. Это особенно важно в современном мире, где количество данных, генерируемых каждый день, непрерывно растет», — говорит он.

Эксперт добавил, что ИИ может выявлять скрытые закономерности и связи, которые могут быть неочевидны для человека. Кроме того, по его словам, нейросеть обладает достаточно высокой точностью в таких задачах, как распознавание лиц или анализ ДНК.

«В этих областях он может существенно уменьшить риск человеческой ошибки, что критически важно в юридическом контексте», — считает Сергей Белов.

Фото: Сгенерировано в Midjourney/NEWS.ru

Почему нужно перепроверять результаты работы ИИ

Марсель Дандамаев заявил, что, несмотря на все достоинства, у ИИ все же есть один весомый недостаток — высок риск ошибки. Ведь, по его словам, нейросеть может быть некачественно натренирована. Поэтому, считает он, факты, полученные с помощью таких алгоритмов, необходимо перепроверять.

«Нужна проверка человека. Особенно если нейросеть плохо обучена. Но даже если хорошо, все равно должен человек проверить результат. Не должно быть такого, что если в розыске числится преступник, к примеру, с азиатскими чертами лица, то нейросеть будет считать всех азиатов преступниками», — сказал Марсель Дандамаев.

Сергей Белов тоже считает, что одно из ключевых ограничений ИИ — это зависимость от качества и объема входных данных. Кроме того, ИИ не обладает человеческим пониманием и интуицией, что может быть важно в сложных или неоднозначных случаях, добавил Сергей Белов.

«И, наконец, решения, принятые на основе анализа данных ИИ, могут повлиять на жизнь и свободу людей, поэтому крайне важно, чтобы эти решения были прозрачными, обоснованными и подлежали проверке», — подчеркнул Сергей Белов.

Еще одним важным аспектом использования ИИ является этическая сторона, говорит Сергей Белов. Он подчеркнул, что вопросы конфиденциальности, прав человека и ответственности за ошибки, совершенные ИИ, до сих пор остаются открытыми и требуют тщательного регулирования.

Фото: Сгенерировано в Midjourney/NEWS.ru

Возможны ли злоупотребления с помощью нейросетей

Сергей Белов сообщил, что одним из последствий применения ИИ в работе правоохранительных органов может быть усиление существующих предубеждений и неравенства.

«Если алгоритмы ИИ обучаются на основе данных, содержащих предвзятость, они могут усиливать эти предубеждения в своих выводах. Это может привести к непропорциональному вниманию к определенным группам населения в процессе расследования преступлений», — говорит эксперт.

Он добавил, что использование нейросетей может привести к сокращению рабочих мест в некоторых областях правоохранительной деятельности, поскольку некоторые задачи, традиционно выполняемые людьми, могут быть автоматизированы.

Михаил Салкин считает, что в будущем серьезные проблемы могут возникнуть из-за развития технологий создания дипфейков (методика синтеза изображений и видео, основанная на искусственном интеллекте).

Фото: Сгенерировано в Midjourney/NEWS.ru

«Представьте, что ИИ сгенерировал какое-то видеоизображение, куда просто взяли и добавили стороннее лицо, и оно на видео будет идти на человека, например, с ножом. И это будет потом считаться доказательством, основанием показать это видео присяжным», — приводит пример адвокат.

По его словам, если в будущем появится возможность качественно сгенерировать видео, то будет высока вероятность обвинения невиновных. Михаил Салкин добавил, что при таком уровне развития технологий ИИ человечество в какой-то момент столкнется с тотальным недоверием к видеоизображениям.

«Если раньше мы считали, что видеозапись — это абсолютно независимое, объективное доказательство, если в нем нет средств монтажа и подмены, то теперь мы будем к этим доказательствам относиться максимально критично, потому что можно будет нагенерировать миллион аналогичных видео в разных местах и будет сложно определить, какое из них настоящее», — заключил адвокат.

Он добавил, что в любом случае сторона защиты каждый факт использования нейросетей при сборе доказательств изучает по крупинкам и будет это делать в будущем.

Фото: Сгенерировано в Midjourney/NEWS.ru

Есть ли риск утечек данных следствия

Марсель Дандамаев обратил внимание на то, что использование ИИ может быть чревато утечками персональных данных граждан РФ. По его словам, очень важно установить, какая нейросеть сможет работать с ними, как она будет использовать информацию и хранить ее.

«Многие нейросети работают с открытым исходным кодом. Поэтому результаты работы ИИ и персональные данные людей могут утечь в открытый доступ», — пояснил он.

По мнению Сергея Белова, существует риск, что слитые сведения о гражданах РФ могут быть скомпрометированы или использованы неправомерно. Это может произойти из-за взлома информационных систем или ошибок в программном обеспечении.

Читайте также:

Искусственный интеллект могут привлечь к написанию законов

Windows 12 получит искусственный интеллект: будет ли доступна в России

Военный эксперт рассказал о применении технологий ИИ в российском оружии

Военный эксперт предрек массовое применение роботов и ИИ в зоне СВО