Скорость баллистической ракеты такова, что человек не в состоянии вовремя принять решение и привести в действие систему, предназначенную для ее перехвата, отметил в эфире радио Sputnik военный эксперт, директор Музея войск противовоздушной обороны (ПВО) Юрий Кнутов.

«Системы противоракетной обороны все основаны на искусственном интеллекте (ИИ), потому что скорость баллистической ракеты гигантская, и скорость противоракеты тоже гигантская. Мы только начали думать, а ракета уже улетела. Поэтому только ИИ может принять соответствующее решение. И наши, и французские, и американские зенитно-ракетные комплексы строятся с этим расчетом. Тот же ЗРПК «Панцирь» – там оператор ничего не успевает сделать, все делает ИИ: определяет цель и открывает огонь. Такая же система в комплексах Mamba (системы ПВО Samp/T-Mamba, – ред.), которые Франция и Италия планируют поставить на Украину», – уточнил он.

Что касается авиации, то даже летчик высочайшего класса не может соперничать с искусственным интеллектом, уверен военный эксперт.

«В нашем Су-57 только один летчик, а вообще-то должно быть два. Вместо второго летчика вполне успешно используется ИИ. Но там есть контроль со стороны человека, который находится в кабине. Такая же история и у американцев. Год назад проводились интересные испытания: взяли летчика морской пехоты США и составили для него определенную программу, сделали симулятор, а рядом – такой же симулятор, только для ИИ. В первом бою летчик, профессионал высочайшего уровня, продержался несколько секунд. Когда с ИИ провели боев десять, примерно в десятом бою человек смог продержаться секунд двадцать», – сказал Юрий Кнутов.

Однако ИИ может совершать ошибки, которые приводят к опасным последствиям, продолжил он.

«Есть такое понятие, как машинное зрение. Допустим, в машину закладываются фотографии танка зимой, летом, осенью, весной, на природе, в городе и так далее. И когда происходят военные действия, ИИ, исходя из той информации, которая у него находится в памяти, определяет, что это – Т-72 или Abrams. Если это американский ИИ, он по Т-72 должен открыть огонь, а по Abrams – не должен. Но, естественно, может произойти ошибка. Такие ошибки были у американцев несколько раз. Были ситуации, когда на полигонах проводились испытания, все шло хорошо, а потом ИИ все-таки давал сбой, и техника, например, пулемет, который установлен на бронетранспортере, начинал открывать огонь по своим», – добавил Юрий Кнутов.

Американский миллиардер Илон Маск, выступая в среду по видеосвязи на Всемирном правительственном саммите в Дубае, назвал ИИ главной угрозой человечеству.

По мнению Юрия Кнутова, заложенная в ИИ способность к самообучению действительно может сделать суперкомпьютеры опасными для людей.


«Когда будет создан ИИ довольно высокого уровня, в процессе самообучения он может решить, что он умнее, он более передовой, и у него есть право находиться на земле, а люди – лишние существа. Вероятность этого очень велика. Есть какие-то правила Айзека Азимова (американский писатель-фантаст, который сформулировал «три закона робототехники», – ред.), в соответствии с которыми ИИ никогда не должен действовать против человека. Но, во-первых, это всего лишь утверждение. А во-вторых, в процессе самообучения ИИ могут накапливаться определенные ошибки, которые могут носить системный характер. В результате мы будем считать, что ИИ действует по одному сценарию, а у него могут накопиться программные ошибки, которые приведут к тому, что он будет враждебно смотреть на людей или решит, что он Бог»,
– заключил военный эксперт.

МОСКВА, радио Sputnik

Источник: arms-expo.ru