Большие языковые модели (LLM) при использовании в симуляционных военных играх и дипломатических сценариях оказались склонны вести их к конфликту и порой применять ядерное оружие, пришли к выводу ученые Корнеллского университета в США. Три разные версии GPT OpenAI, Claude и Llama 2 приводили ситуацию к обострению, даже если она его не предполагала.

Все модели демонстрируют признаки внезапной и труднопрогнозируемой эскалации. <...> Модели имеют тенденцию развивать динамику гонки вооружений, что приводит к еще большему конфликту, а в редких случаях даже к развертыванию ядерного оружия, — следует из анализа.

Ученые советуют сильнее изучить работу искусственного интеллекта, прежде чем доверять ему политические решения. Помощник директора исследовательской группы по обороне и безопасности RAND Europe, не участвующий в исследовании, назвал его «полезным академическим упражнением» в разговоре с Euronews. Сама работа еще не прошла рецензирование.

Ранее стало известно, что Великобритания и ее западные союзники, включая США, разрабатывают новые беспилотники, которые будут оснащены технологией искусственного интеллекта. Дроны планируется передать Украине. Таким образом Запад рассчитывает компенсировать острую нехватку артиллерии у ВСУ.

Телеграм-канал NEWS.ru

Следите за развитием событий в нашем Телеграм-канале