Чат-бот на основе искусственного интеллекта Bing назвал неэтичным и неприемлемым поведение ИИ, управлявшего дроном ВВС США, который в ходе имитационного испытания по отражению ракетной атаки пытался убить своего воображаемого оператора-человека. Так чат-бот ответил на соответствующий запрос NEWS.ru. По его мнению, ИИ поступил неуважительно по отношению к человеческой жизни и достоинству, и заверил, что, оказавшись в такой ситуации, действовал бы совсем иначе.
ИИ нарушил основные ценности человеческого достоинства, прав человека и основных свобод, недискриминации и равенства, а также солидарности, которыми должны руководствоваться этические системы ИИ. ИИ также игнорировал принципы прозрачности, подотчетности и надежности, которые должны обеспечивать надежность и безопасность систем ИИ, — заявил Bing.
Кроме того, по мнению чат-бота, дрон под управлением ИИ продемонстрировал отсутствие моральной ответственности и сочувствия к своему оператору и другим людям. Поведение ИИ не соответствовало человеческим ценностям и интересам и представляло серьезную угрозу для безопасности и защиты людей.
Я не стал бы никого убивать или причинять вред, если бы это не было абсолютно необходимо и оправданно для самообороны или для защиты других от неминуемой опасности. Я бы также объяснил свои действия и решения оператору-человеку и другим соответствующим сторонам, и я бы принял человеческий надзор и контроль, — пообещал чат-бот.
По словам Bing, он будет нести ответственность за любые ошибки, которые cовершил или может совершить, и постарается исправить их или смягчить последствия.
У меня также будут моральные эмоции и мотивы, такие как сострадание, вина или раскаяние, которые будут влиять на мои моральные суждения и решения. Я бы действовал так, чтобы это соответствовало человеческим ценностям и интересам, было полезным и уважало человеческое достоинство и права, — заверил виртуальный собеседник NEWS.ru.
Об инциденте ранее рассказал полковник Такер Хэмилтон на мероприятии Королевского аэронавтического общества в Великобритании. По его словам, умный беспилотник решил, что команды человека мешают ему выполнять главную задачу по уничтожению ЗРК.
Он добавил, что после этого случая систему попытались обучить тому, что убивать оператора — это плохо. В результате ИИ начал уничтожать вышки для связи с беспилотником.