Новости БеларусиTelegram | VK | RSS-лента
Информационный портал Беларуси "МойBY" - только самые свежие и самые актуальные беларусские новости

Тему искусственного интеллекта впервые обсудили в Совбезе ООН

18.07.2023 политика
Тему искусственного интеллекта впервые обсудили в Совбезе ООН

Подробности.

Искусственный интеллект (ИИ) «бросает вызов» текущим представлениям об обороне и сдерживании, ставит моральные вопросы о принятии летальных решений на поле боя, ускоряет распространение дезинформации, создает новые риски, когда речь заходит об оружии массового уничтожения; но с такой же эффективностью ИИ может посодействовать с решением проблемы ядерного распространения, заявил глава МИД Великобритании Джеймс Клеверли на первом в истории заседании Совета безопасности ООН по теме искусственного интеллекта. Заседание «Искусственный интеллект: возможности и риски для международного мира и безопасности» прошло во вторник, 18 июля, по инициативе британской стороны, которая сейчас председательствует в Совете безопасности, его трансляция велась на сайте ООН.

«Технические и финансовые барьеры для доступа к ИИ низкие, в том числе для преступников и террористов. И военные и невоенные варианты применения искусственного интеллекта могут иметь серьезные последствия для глобального мира и безопасности», — заявил выступивший на заседании генеральный секретарь ООН Антониу Гутерриш. По его словам, непредусмотренные последствия некоторых систем могут создать риски из-за просчетов или случайностей. «Взаимодействие между ИИ и ядерным оружием, биотехнологиями, нейротехнологиями и робототехникой вызывают особую тревогу», — подчеркнул он. Гутерриш рассказал, что был «поражен и шокирован» тем, как быстро развивается генеративный ИИ — «скорость и охват этой новой технологии во всех ее формах абсолютно беспрецедентны». По оценке генсекретаря, к 2030 году вклад ИИ в глобальную экономику составит от $10 трлн до $15 трлн.

«Нужно сделать все, чтобы не допустить появление рисков, которые неподконтрольны человечеству. Нельзя допустить, чтобы появились машины-убийцы, — заявил постоянный представитель Китая при ООН Чжан Цзюнь. — Нам нужно внимательно следить за всем циклом создания и применения искусственного интеллекта с тем, чтобы у человечества в любой момент была возможность нажать на кнопку «Пауза» в развитии этих технологий».

Какие меры предлагают в ООН

Генсекретарь Гутерриш поддержал идею создать на базе ООН орган, который бы сформулировал глобальные стандарты по регулированию сферы ИИ. По его словам, такая площадка могла бы действовать по аналогии с Международным агентством по атомной энергии (МАГАТЭ), Международной организацией гражданской авиации (ИКАО) или Международной группой экспертов по изменению климата (МГЭИК). Он обозначил пять целей и задач такого органа: помощь странам в получении максимальной пользы от ИИ; устранение существующих и будущих угроз; выработка и реализация международных механизмов мониторинга и контроля; сбор экспертных данных и их передача мировому сообществу; изучение ИИ для «ускорения устойчивого развития».

По оценке Клеверли, ИИ может повлиять и на работу Совета безопасности ООН: «Он может укрепить или же подорвать глобальную стратегическую стабильность».

Необходимо создать глобальную систему, с помощью которой технологию можно контролировать, сказал министр и привел четыре принципа, на которые, по мнению Лондона, должна опираться такая система. Искусственный интеллект, согласно позиции Лондона, должен «поддерживать свободу и демократию», «действовать в соответствии с верховенством права и правами человека», «быть безопасным и предсказуемым, гарантируя неприкосновенность собственности, неприкосновенность частной жизни и национальную безопасность» и «пользоваться общественным доверием» и не угрожать критически важным системам.

С посылом о двойственности искусственного интеллекта и необходимости его контролировать выступили другие члены Совета — представители Японии, Мозамбика, ОАЭ, Китая, США, Бразилии, Швейцарии, Ганы, Франции, Эквадора, Мальты, Габона, Албании.

Последние новости:
Популярные:
архив новостей


Вверх ↑
Новости Беларуси
© 2009 - 2024 Мой BY — Информационный портал Беларуси
Новости и события в Беларуси и мире.
Пресс-центр [email protected]