Общество

Армия роботов — фантастика или реальность?

Заменят ли боевые роботы в будущем обычных солдат и чем опасно использование искусственного интеллекта в военных целях?

В Астане за круглым столом эксперты обсудили вопрос о необходимости запрета автономных систем оружия летального действия. Согласно их мнению, применение искусственного интеллекта в военной сфере — серьезный вызов самому существованию человечества. По оценкам специалистов, в ближайшие 10-20 лет некоторые государства будут активно использовать роботов в военных конф­ликтах.

Как сообщил организатор мероприятия директор Центра международной безопасности и политики Алимжан Ахметов, необходимость превентивного юридического запрета автономных систем оружия обретает все большую актуальность.

— Мировое сообщество еще не осознало в полной мере угрозу делегирования решений о жизни и смерти человека бездушной машине и вытекающие отсюда риски. Между тем здесь очень важно сработать на опережение, упредить возможность возникновения опасных прецедентов. В настоящее время на площадке ООН в рамках Конвенции о негуманном оружии работает группа правительственных экспертов по этой проблеме с целью выработки рекомендаций государствам — членам ООН. Наиболее активные сторонники запрета данной системы вооружения — всего 28 стран — выступают за скорейшее начало переговоров для создания юридичес­кого инструмента, который обеспечит механизм контроля за разработкой и применением этого оружия. Казахстан, который известен мировому сообществу своей активной и ответственной позицией по вопросам разоружения, может значительно содействовать ускорению данного процесса, — отметил Алимжан Ахметов.

По мнению участников круглого стола, в числе которых представители ведущих отечественных аналитических и военных исследовательских центров, академических кругов, государственных органов, Казахстан должен присоединиться к странам, активно выступающим за запрет АСОЛД.

— Применение искусственного интеллекта в военной сфере чревато не только кризисом международного гуманитарного права, прав человека и морально-нравственных ценностей, но и напрямую угрожает самому существованию человечества. Причем, если не принять превентивных мер, в предстоящие 10-20 лет негативные события могут принять неотвратимый характер. К примеру, в 1995 году вступил в силу запрет на использование ослепляющего лазерного оружия. То есть оружие еще не было разработано, а зап­рет уже был. Именно поэтому очень важно разработать механизм контроля за АСОЛД. Надеемся, что сегодняшнее обсуждение поможет Правительству Казахстана в формировании четкой и недвусмысленной позиции по этому воп­росу, — считает Алимжан Ахметов.

Напомним, 5 ноября текущего года Генеральный секретарь ООН Антониу Гуттериш на веб-саммите в Лиссабоне призвал международное сообщество запретить создание и использование боевых роботов.

— Искусственный интеллект все шире используется в военных разработках. Хотя военные машины, которые могут самостоятельно выбирать цель и ликвидировать ее, чрезвычайно опасны. Кроме того, они подрывают положения международного права в условиях конфликта, поскольку очень сложно гарантировать соблюдение международного права при участии роботов в военных действиях. Существование и использование машин, которые способны самостоятельно выбирать цель и поражать ее, недопустимы с политической точки зрения и отвратительны с позиции нравственности. Они должны быть запрещены международным правом, — заявил Генсек ООН.

Статьи по Теме

Back to top button