Австралийские университеты были вынуждены изменить способ проведения экзаменов и других оценок из-за опасений, что студенты используют новую программу на основе искусственного интеллекта (ИИ) для написания эссе, пишет The Guardian. Бот ChatGPT, который генерирует текст на любую тему по запросу, был запущен в ноябре и уже запрещен в школах Нью-Йорка из-за опасений по поводу его «негативного влияния на обучение учащихся» и опасности плагиата.
Наши университеты пересмотрели порядок проведения оценивания в 2023 году, включая экзамены под наблюдением и более широкое использование письменных и «бумажных» экзаменов и тестов, — заявил заместитель исполнительного директора группы представителей восьми ведущих университетов Австралии Мэтью Браун.
Сообщается, что некоторые студенты уже уличены в использовании этого программного обеспечения при подготовке работ, в связи с чем крупные учебные заведения дополнили внутренние правила пунктом, согласно которому использование ИИ является мошенничеством. Между тем неназванный эксперт по искусственному интеллекту предупредил, что университеты участвуют в «гонке вооружений», в которой никогда не смогут победить. По оценке одного из ученых Лондона, проверившего работу ИИ на экзаменационном вопросе, ответ программы был «последовательным, исчерпывающим и точным», в отличие от обычных студенческих ответов.
Ранее сообщалось, что 82% россиян выступают за использование искусственного интеллекта (ИИ) в промышленности, в сфере госуправления его использование допускает только 41%. Большинство россиян полагает, что использование специалистами ИИ допустимо в случае, если конечные решения принимает человек, а искусственный интеллект только помогает ему.
35% россиян при этом полагают, что ИИ можно передать опасные для человека виды работ, 34% рассчитывают на его объективность, еще 32% полагают, что его внедрение позволит улучшить и упростить жизнь и работу человека. В числе ключевых негативных последствий развития технологий ИИ россияне назвали риск мошеннических действий, похищение данных (62%), использование ИИ в корыстных целях (61%), отсутствие ответственных за принимаемые решения (58%), а также риск ошибочных решений (54%).