Новую систему искусственного интеллекта Facebook (соцсеть запрещена на территории РФ) уличили в «высокой склонности» к расизму и предвзятости, передаёт Motherboard. По данным разработчиков, нейросеть при безобидных запросах выдаёт «токсичные» результаты, связанные с расистскими и сексистскими стереотипами.

Мета-исследователи пишут, что модель «имеет высокую склонность генерировать токсичный язык и усиливать вредные стереотипы, даже если она снабжена относительно безобидной подсказкой». Это означает, что легко получить предвзятые и вредные результаты, даже если вы не пытаетесь,говорится в сообщении со ссылкой на исследование.

Разработчики отмечают в своём докладе, что языковая модель OPT-175B обучилась этому при изучении массива нефильтрованного текста, взятого из переписок в социальных сетях. Теперь нейросеть умеет как распознавать, так и генерировать «ненавистническую речь».

Исследователи заявили, что и предыдущие системы, такие как GPT-3 OpenAI и PaLM Google, дают «карикатурно расистские и предвзятые результаты». Специалисты пока не знают, как смягчить вред от такого обучения.

Ранее Meta Platforms (деятельность организации в России запрещена) на фоне событий на Украине временно сняла в принадлежащих ей соцсетях запрет на призывы к насилию в отношении россиян. После этого представитель МИД РФ Мария Захарова обвинила американские цифровые корпорации в открытом участии в информационной войне, развязанной США против России.