Главную угрозу представляет не сама технология Chat GPT, а руки, в которые она может попасть, заявил в беседе с «360» эксперт по искуственному интеллекту Роман Душкин, комментируя письмо известных ученых и интернет-деятелей об опасности бесконтрольного развития нейросетей. По его мнению, здесь уместно сравнение с ядерным оружием — государство ограничивает его распространение, но не запрещает исследование. Душкин считает, что тот же принцип следует применять и к искусственному интеллекту.
Государства ограничивают распространение ядерных технологий и их применение. Но не запрещают их изучать и развивать, — указал Душкин.
Эксперт добавил, что компании OpenAI, которая недавно представила обновленную версию алгоритма GPT, хватит ума не допустить того, чтобы какая-то конкретная страна получила преимущества из-за нейросетей. Он отметил, что в свое время США сделали так, чтобы ядерные технологии попали в другой лагерь, чтобы был паритет.
Американский предприниматель Илон Маск и более тысячи его коллег, исследующих развитие искусственного интеллекта, ранее потребовали запретить обучать мощные нейросети как минимум на полгода. Письмо специалистов было опубликовано на сайте НКО Future of Life Institute (Институт будущего жизни). По мнению экспертов, процесс обучения искусственного интеллекта вышел из-под контроля. Сейчас технология может представлять угрозу для всего человечества.