Бурное развитие технологий искусственного интеллекта может представлять собой угрозу для человечества, считает российский ученый и IT-специалист по информационной безопасности Андрей Масалович. Как рассказал он в беседе с «360», нейросети, в частности, можно использовать как информационное оружие, что повлечет за собой недопустимые последствия, поэтому необходимо искать пути для их блокировки.
Сейчас сообразили, что нейронные сети и искусственный интеллект в том виде, как сейчас, уже можно использовать как оружие. И это надо ограничивать, — высказал мнение эксперт.
При этом, по его словам, введение моратория на использование искусственного интеллекта является практически невыполнимой задачей. Ученые полагают, что этому будет мешать переезд систем с одного сайта на другой до бесконечности. Масалович считает, что единственной альтернативой блокировке технологии является «слишком платный или слишком ограниченный» доступ к платформам.
Ранее ученый Джеффри Хинтон, известный как «крестный отец искусственного интеллекта», заявил, что стремительное совершенствование нейросетей приводит его в ужас. По словам Хинтона, пора задуматься о полной блокировке технологии, иначе может стать слишком поздно. Он опасается, что ИИ могут использовать безответственно, что приведет к страшным последствиям.
По мнению Хинтона, основной риск заключается в замене человеческого труда на машинный, что приведет к нарушению социального баланса. А в долгосрочной перспективе новые версии технологии, которым разрешили генерировать и выполнять свой собственный код, могут представлять угрозу для человечества из-за непредсказуемого поведения.
Ранее ученый-лингвист Иван Бондаренко рассказал, как выявить авторство нейросети в школьном сочинении. По его словам, написанный искусственным интеллектом текст отличается особой бредовостью.