Ватикан выступил против автономного оружия, управляемого искусственным интеллектом

Страница для печатиОтправить по почтеPDF версия
Ватикан в ООН выступил против автономного оружия, управляемого искусственным интеллектом
Многие считают, что мир нуждается в международной организации для мирного использования ИИ ради «всеобщего блага и всестороннего развития»

НЬЮ-ЙОРК. Ватикан выступил в ООН против автономного оружия, управляемого искусственным интеллектом (ИИ), и поддержал мнение о том, что мир нуждается в международной организации для мирного использования ИИ ради «всеобщего блага и всестороннего развития», сообщает religionnews.

Высокопоставленный дипломат Ватикана 2 октября призвал мировых лидеров «поставить на паузу на достаточно длительный срок» все разработки смертоносных автономных систем вооружения и вступить в международные переговоры ради достижения всеобъемлющего соглашения по таким системам. Тем самым он поддержал многих участников Генеральной Ассамблеи ООН, которые выразили обеспокоенность различными аспектами разработки и применения искусственного интеллекта для военных целей. Заявление архиепископа Пола Галлахера (Paul Gallagher), министра иностранных дел Святого Престола, прозвучало по завершении этого крупнейшего ежегодного собрания в дипломатическом календаре.

«Крайне важно обеспечить адекватный, действенный и последовательный человеческий надзор за системами вооружения на основе ИИ, – заявил архиепископ Галлахер. – Только люди действительно способны видеть, осознавать и объективно оценивать этические последствия своих действий, а также понимать связанную с ними личную ответственность. Мы также приветствуем идею создания международной организации по искусственному интеллекту, ориентированной на содействие научному и технологическому обмену в мирных целях ради всеобщего блага и всестороннего развития человека».

ООН готовится к созданию экспертно-консультативного совета по искусственному интеллекту, которому, вероятно, поручит всесторонне изучить все научные аспекты, риски, возможности и политические подходы, сдержки и противовесы в области разработки и применения этих опасных технологий. Деятели отрасли и эксперты предложили ряд возможных рамочных принципов для создания и деятельности всемирного органа по искусственному интеллекту. ИИ вызывает не только растущий интерес, но и понятное беспокойство в ООН, во многих национальных правительствах и международных организациях, технологических компаниях, правозащитных организациях, церквях и пр. Тема ИИ привлекла значительное внимание как в зале совещаний, так и в кулуарах Генеральной ассамблеи, причем выступавшие выражали как надежды на мирное использование технологий ИИ на благо развития и процветания человечества, так и опасения, что они могут использоваться злоумышленниками в прямо противоположных целях.

Ватикан, присутствующий в ООН в качестве постоянного наблюдателя без права голоса, выступил с одними из самых пространных замечаний по теме ИИ с трибуны ассамблеи. В этом отношении он уступил только Британии, представитель которой посвятил вопросам ИИ большую часть своего выступления. За пределами ООН Ватикан на протяжении многих лет высказывает свое пастырское мнение о различных аспектах современных коммуникационных технологий. Архиепископ Галлахер в этой связи напомнил собранию несколько заявлений папы Франциска, которые тот сделал только за этот год об опасностях неразумного использования цифровых технологий человечеством. «Неприемлемо, чтобы решение о чьей-либо жизни и будущем было доверено некоему программному алгоритму», - заявлял, в частности, понтифик. Галлахер призвал начать переговоры о заключении юридически обязывающего пакта, регулирующего создание смертоносных автономных систем вооружения, в просторечии именуемых «роботами-убийцами», и «ввести мораторий на их разработку и использование до завершения переговоров».

Генеральный секретарь ООН Антониу Гутерриш со своей стороны также призвал запретить подобные системы ИИ, способные самостоятельно функционировать без должного контроля или надзора со стороны человека, а потому не соответствующие международному гуманитарному праву. Он призвал страны разработать юридически обязывающий запрет на подобные системы вооружений к 2026 году. Некоторые страны обеспокоены тем, что подобное ограничение может связать им руки в том случае, если их противники, в том числе неправительственные организации и террористические группировки, разработают и применят такие системы. Возникают также многие вопросы строгого определения подобных систем вооружений на основе ИИ и четкой границы между подобным автономным ИИ оружием и компьютеризированными системами управления оружием под управлением человека, которые давно уже существуют и действуют в наше время.

Сергей Игнатов

https://sedmitza.ru/text/10312295.html