Эксперт предупредила о рисках бездумного копирования ИИ

Наука 28 апреля, 2026 / 15:46

Слепое доверие к искусственному интеллекту несет риски потери авторства и превращения контента в безликую массу, заявила NEWS.ru заместитель гендиректора АНО «Диалог Регионы» Юлия Аблец. По ее словам, внешняя гладкость и уверенный тон сгенерированного текста создают опасную иллюзию качества, тогда как за ней часто не стоит никакой глубины.

До тех пор, пока вы сами формируете осознанное задание для нейросети, критически относитесь к результату, даете ему свою авторскую трактовку — это все еще авторский контент. <...> Внешняя гладкость и выверенность сгенерированного текста создают иллюзию качества, но совсем не гарантируют глубины. Как только автор перестает перерабатывать материал, выданный алгоритмом, уникальные смыслы исчезают. Контент становится безликим и сливается с тысячами других, — сказала Аблец.

Эксперт подчеркнула, что не считает нейросети абсолютным злом. Она напомнила, что в свое время книги и карты также сжигали на кострах, принимая за дьявольское наваждение. По мнению эксперта, продукт, созданный с помощью ИИ, может быть качественным и даже претендовать на статус произведения искусства, но только при условии соавторства с человеком.

Ранее эксперт по искусственному интеллекту Роман Душкин заявил, что главную угрозу представляет не сама технология ChatGPT, а руки, в которые она может попасть. Так он прокомментировал письмо известных ученых и интернет-деятелей об опасности бесконтрольного развития нейросетей. По его мнению, здесь уместно сравнение с ядерным оружием — государство ограничивает его распространение, но не запрещает исследование. Душкин считает, что тот же принцип следует применять и к искусственному интеллекту.