Использование поддельных нейросетей может обернуться утечкой персональных данных, сообщил РИА Новости директор по LLM-продуктам MTS AI Сергей Пономаренко. Он предупредил, что это грозит 10 млн россиян. Эксперт заметил, что речь идет о копиях таких нейросетей, как ChatGPT, Dall-E и Midjourney.
Пользователи, которые используют ChatGPT, Dall-E, Midjourney и другие иностранные большие языковые модели через сторонние сервисы, рискуют не только вместо оригинала получить открытую модель низкого качества, но и раскрыть свои конфиденциальные данные, — объяснил Пономаренко.
Специалист отметил, что в настоящее время россияне сталкиваются с трудностями при доступе к зарубежным нейросетям, в том числе из-за проблем с оплатой. Мошенники, используя эту ситуацию, создают поддельные чат-боты и сайты, которые обещают «упрощенный» доступ к платформам. Однако вместо оригинальных продуктов пользователи получают лишь ограниченные версии.
Пономаренко также добавил, что при использовании искусственного интеллекта важно помнить о цифровой грамотности и гигиене. Он также подчеркнул, что генеративные сети не всегда обладают актуальной информацией и могут быть обучены на устаревших данных, а их объем ограничен.
Ранее стало известно, что специалисты компании «Площадь» разработали нейросеть для поиска и обнаружения людей, потерявшихся в лесу. По его словам, разработку будут использовать добровольцы отряда «ЛизаАлерт».