Популярная нейросеть ChatGPT, которую некоторые компании начали применять для подбора персонала, демонстрирует расовую предвзятость к некоторым соискателям, сообщает Bloomberg. Авторы материала провели соответствующий эксперимент, который подтвердил, что при всех равных параметрах в резюме кандидат с африканским именем чаще оказывается в конце списка.

В рамках эксперимента журналисты при помощи того же ChatGPT сгенерировали несколько резюме с максимально схожими характеристиками. После этого в них вписали имена американских избирателей из базы данных переписи населения таким образом, чтобы создать широкий спектр расового и этнического разнообразия.

Когда его попросили ранжировать эти резюме 1000 раз, GPT 3.5 — наиболее широко используемая версия модели — отдавал предпочтение именам из некоторых демографических групп чаще, чем другим, до такой степени, что это не соответствовало бы критериям, используемым для оценки дискриминации при приеме на работу в отношении защищенных групп, — сказано в публикации.

В итоге эксперимента выяснилось, что нейросеть не относится в равной степени справедливо к представленным этническим группам. К примеру, чернокожие гораздо чаще оказывались в конце списка (29%) по сравнению с азиатами (22%), белыми (24%) и мексиканцами (25%).

Ранее сообщалось, что компания Google была вынуждена отключить функцию генератора изображений в своей нейросети Gemini. Причиной тому стали многочисленные жалобы пользователей на некорректные изображения: в погоне за расовым разнообразием ИИ начал выдавать рисунки с темнокожими и азиатами в образе гитлеровских нацистов и викингов.