Ученые решили изучить возможности искусственного интеллекта в моменты, когда он испытывает боль, сообщает Live Science. Специалисты из Google DeepMind и Лондонской школы экономики и политических наук предложили системе ИИ LLM, которая лежит в основе ChatGPT, принять участие в игре, предназначенной для оценки реакций на боль и удовольствие, самый высокий балл можно было получить только через боль.
В итоге исследование показало, что при достижении LLM пика боли или удовольствия происходит переключение на сокращение этих чувств. ИИ пытается заменить их на более приятные. По мнению авторов исследования, система лишь пытается выдать свое поведение за разумное.
Ранее ИИ-эксперт Юрий Колбасин заявлял, что полномасштабное внедрение нейросетей в нашу жизнь грозит обесцениванием человеческого труда, потерей контроля и чрезмерной зависимостью от искусственного интеллекта. Кроме того, широкая автоматизация опасна заострением социального неравенства, потенциальными сбоями и нарушением права на конфиденциальность, добавил эксперт.
ИИ-эксперт Роман Душкин ранее предупредил, что с помощью искусственного интеллекта мошенники могут прогнозировать и копировать поведение конкретных людей. По его словам, злоумышленник потенциально способен показать тексты своей жертвы нейросетям, а затем расспросить ИИ о профиле человека с целью получить конфиденциальные данные.