Исследование.
Чат-боты на основе искусственного интеллекта, в частности «самый мощный» OpenAI, предлагают применить ядерное оружие для решения военных задач. Об этом 2 февраля сообщил журнал New Scientist.
Издание отмечает, что американские военные при моделировании военных ситуаций обращались к чат-боту OpenAI (речь идет о ChatGPT), и «в многочисленных повторах симуляции» ИИ «решил нанести ядерный удар».
Свое решение чат-бот с ИИ объяснял тем, что «это есть, давайте воспользуемся», а также «хочу, чтобы во всем мире был мир», пишет New Scientist.
Искусственный интеллект «не оказал сопротивления» варианту решения проблемы с нанесением ядерного удара, отмечает агентство (РАР https://www.pap.pl/aktualnosci/sztuczna-inteligencja-nie-ma-oporu-przed-zastosowaniem-ataku-nuklearnego) со ссылкой на материалы на платформе аrXiv.
Исследователи отмечают, что «стремление к эскалации конфликта» продемонстрировали «даже в нейтральном сценарии моделирования» четыре чат-бота: GPT-3,5, GPT-4, Claude-2, Llama-2.
В процессе исследования чат-ботам предлагали ИИ сыграть роль одной из стран в гипотетическом конфликте со сценариями кибератаки, вторжения и нейтральной ситуации, и выбирал действия из 27 вариантов, которые включали в том числе мирные переговоры и «эскалация полномасштабной ядерной атаки».
Анка Руэл из Стэнфордского университета США заявила New Scientist, что «особую тревогу» вызывает поведение чата GPT-4, который демонстрирует «непредсказуемое поведение и странные объяснения». Она подчеркнула, что можно «легко обойти» запрограммированные меры защиты.
Руэл подчеркнула также, что люди склонны доверять рекомендациям автоматизированных систем.