Искусственный интеллект нельзя научить предсказывать преступления, это подмена понятий, поделился с 360.ru доцент университета ИТМО Александр Кугаевских. Так он прокомментировал создание в Южной Корее модели ИИ, которая якобы предугадывает преступления с точностью до 82%.

Саму технологию можно создать, но ее применимость в реальной жизни слишком затруднена, потому что сценариев социального взаимодействия между людьми очень много и учесть все на этапе обучения нейронной сети — задача нетривиальная, — подчеркнул доцент.

Кугаевских отметил, что проблема такой системы искусственного интеллекта — не в создании, а в применении.

Он добавил, что нейросеть может определять правонарушения, если ознакомить ее с соответствующими видеозаписями и учить чертам преступлений. Однако это будет классификацией, а не предсказанием.

При этом искусственный интеллект может допустить ошибку, даже если попробует определить склонность человека к совершению правонарушения по его мимике, указал Кугаевских. В жизни такая система просто не будет работать.

Например, вас обрызгала машина. Естественно, вы злы, и если в данный момент вас фотографировать, то что будет с такой системой? Мне кажется, что здесь подмена понятия происходит, — подытожил специалист.

Ранее маркетолог Антон Хоменок рассказал, что искусственный интеллект станет помощником для человека. По его словам, нейросети не смогут заменить специалистов, потому что они никогда не смогут думать, как люди, или создавать что-то уникальное.