Русская Википедия:Гонка вооружений в области искусственного интеллекта

Материал из Онлайн справочника
Перейти к навигацииПерейти к поиску

Файл:7-raven-aircraft.jpg
Автономный боевой дрон Шаблон:Нп5

Гонка вооружений в области искусственного интеллекта — гонка вооружений в области автономных боевых систем. Отмечается с середины 2010-х годов, в основном, между великими державами. Является частью второй холодной войны[1][2].

Терминология

В широком смысле любое соревнование в области искусственного интеллекта (ИИ) рассматривается как «гонка вооружений»[3][4]. Соревнование в военных применениях ИИ обычно пересекается со стремлением к господству в других областях, как военных, так и гражданских[5].

Ситуация по странам

Великобритания

В 2015 году правительство Великобритании выступило против запрета на смертоносное автономное оружие, заявив, что «международное гуманитарное право уже предусматривает достаточное регулирование для этой области», но что всё оружие, используемое вооружёнными силами Великобритании, будет «под человеческим надзором и контролем»[6].

Израиль

Израильский противорадиолокационный дрон Harpy предназначен для запуска наземными войсками и автономного полёта над районом, с целью поиска и уничтожения радаров, соответствующих заранее определённым критериям[7]. Также ожидается применение искусственного интеллекта в автономных наземных системах и роботизированных транспортных средствах, таких как Guardium MK III и более поздних версиях[8]. Эти роботизированные машины используются для охраны границы.

Китай

В области развития искусственного интеллекта Китай проводит стратегическую политику военно-гражданского слияния[9][10]. По мнению китайского руководства, развитие технологий ИИ имеет решающее значение для будущего глобального военного и экономического превосходства[5]. К 2030 году Китай планирует создание индустрии искусственного интеллекта стоимостью 150 млрд долларов[11]. Пекин выделил 2 миллиарда долларов на создание парка развития искусственного интеллекта[12]. По данным газеты Japan Times, ежегодные частные китайские инвестиции в ИИ составляют не менее 7 миллиардов долларов в год. В 2017 году китайцы получили почти в пять раз больше патентов на ИИ, чем американцы[13].

Россия

Российский генерал Виктор Бондарев, главнокомандующий ВВС России, заявил, что ещё в феврале 2017 года Россия работала над ракетами с искусственным интеллектом, которые могут переключаться между целями в полёте[14]. Военно-промышленный комитет России одобрил планы по обеспечению 30 % боевой мощи России за счёт роботизированных платформ с дистанционным управлением и искусственным интеллектом к 2030 году[15]. В мае 2017 года генеральный директор российского оборонного подрядчика Kronstadt Group, заявил, что «уже существуют полностью автономные операционные системы ИИ, которые предоставляют средства для кластеров БПЛА, когда они выполняют задачи автономно, разделяя задачи между собой и взаимодействуя»[16]. Россия тестирует несколько автономных и полуавтономных боевых систем, таких как боевой модуль «нейросети» Калашникова с пулемётом, камерой и ИИ, которые, как утверждают её создатели, могут принимать собственные решения о наведении без вмешательства человека[17].

В сентябре 2017 года, обращаясь к более чем миллиону учащихся в 16000 российских школах в рамках Национального дня знаний, президент России Владимир Путин заявил: «Искусственный интеллект — это будущее не только для России, но и для всего человечества. Кто станет лидером в этой сфере, тот станет правителем мира». Путин также сказал, что было бы лучше не допустить, чтобы какой-либо отдельный субъект достиг монополии, но что если Россия станет лидером в области ИИ, они поделятся своими «технологиями с остальным миром, как мы делаем сейчас с атомными и ядерными технологиями»[18][19][20].

Российское правительство категорически отвергает любой запрет на автономные системы оружия летального действия, предполагая, что такой запрет можно легко обойти[21][22].

США

The Sea Hunter sails out to sea
Автономный военный корабль США «Морской охотник», 2016 год

В 2014 году бывший министр обороны Чак Хейгел сформулировал «третью стратегию компенсации», согласно которой быстрое развитие искусственного интеллекта определит следующее поколение ведения войны[23]. Согласно данным аналитической компании Govini, министерство обороны США увеличило инвестиции в искусственный интеллект, большие данные и облачные вычисления с 5,6 млрд долларов в 2011 году до 7,4 млрд долларов в 2016 году[24]. В ноябре 2019 Комиссия по национальной безопасности США подтвердила, что ИИ имеет решающее значение для превосходства США в области военных технологий[25].

В качестве примера военного применения ИИ можно привести автономный военный корабль Sea Hunter, предназначенный для продолжительного автономного плавания без экипажа[17]. С 2017 года временная директива Министерства обороны США требует, чтобы решение о летальном применения автономного оружия принимал оператор[26]. Однако серьёзную озабоченность вызывает то, как эти требования будут соблюдаться.

Предложения по международному регулированию

Регулирование автономного оружия является новым разделом международного права[27]. Контроль за военным использованием ИИ потребует создания новых международных норм[1][2]. В 2014 году специалист по искусственному интеллекту Стив Омохундро предупредил, что «автономная гонка вооружений уже происходит»[28]. В 2017 году более ста экспертов подписали открытое письмо с призывом к ООН заняться проблемой летального автономного оружия[29][30]. Однако на ноябрьской 2017 г. сессии Конвенции ООН о конкретных видах обычного оружия (КНО) дипломаты не смогли договориться даже о том, как определять такое оружие[31]. По состоянию на 2017 год двадцать две страны призвали к полному запрету летального автономного оружия[32].

Шаблон:Coquote

Многие эксперты считают, что попытки полностью запретить автономное оружие не реалистичны[33]. В отчёте Белфер-центра Гарварда за 2017 год говорится, что применение ИИ сравнимо по эффекту с ядерным оружием[34][35]. В отчёте также утверждается, что «Предотвратить расширенное военное использование ИИ, вероятно, невозможно» и что «необходимо преследовать более скромную цель безопасного и эффективного управления технологиями», такую как запрет на подключение мертвеца к ядерному арсеналу[36]. Сложность контроля заключается в том, что обнаружение нарушений договора будет чрезвычайно трудным[37][38].

Другие мнения

В 2015 году десятки тысяч людей, включая таких учёных, как физик Стивен Хокинг, владелец фирмы Tesla Илон Маск и Стив Возняк из Apple подписали обращение, призывающее к запрету летальных автоматизированных систем оружия[31].

Многие эксперты предупреждают, что автономное оружие неизбежно попадёт в руки террористических группировок, таких как Исламское государство[39]. Шаблон:Coquote Американский специалист по ИИ Гэри Маркус считаетШаблон:Sfn: Шаблон:Coquote

Примечания

Шаблон:Примечания

Литература

Шаблон:Искусственный интеллект

  1. 1,0 1,1 Шаблон:Cite journal
  2. 2,0 2,1 Шаблон:Cite journal
  3. Шаблон:Cite journal
  4. Шаблон:Cite news
  5. 5,0 5,1 Шаблон:Cite web
  6. Шаблон:Cite news
  7. Шаблон:Cite news
  8. Шаблон:Cite journal
  9. Шаблон:Cite web
  10. Why China could win the new global arms race Шаблон:Wayback, BBC, 22.12.2021
  11. Шаблон:Cite news
  12. Шаблон:Cite news
  13. Шаблон:Cite news
  14. Шаблон:Cite news
  15. Шаблон:Cite web
  16. Шаблон:Cite news
  17. 17,0 17,1 Шаблон:Cite news
  18. Шаблон:Cite news
  19. Шаблон:Cite news
  20. Шаблон:Cite news
  21. Шаблон:Cite news
  22. Шаблон:Cite web
  23. Шаблон:Cite news
  24. Шаблон:Cite news
  25. Шаблон:Cite book Шаблон:Cite web
  26. Шаблон:Cite news
  27. Шаблон:Cite journal
  28. Шаблон:Cite news
  29. Шаблон:Cite news
  30. Шаблон:Cite web
  31. 31,0 31,1 Шаблон:Cite news
  32. Шаблон:Cite news
  33. Шаблон:Cite news
  34. Шаблон:Cite news
  35. Шаблон:Cite news
  36. Allen, Greg, and Taniel Chan. «Artificial Intelligence and National Security.» Report. Harvard Kennedy School, Harvard University. Boston, MA (2017).
  37. Antebi, Liran. «Who Will Stop the Robots?.» Military and Strategic Affairs 5.2 (2013).
  38. Shulman, C., & Armstrong, S. (2009, July). Arms control and intelligence explosions. In 7th European Conference on Computing and Philosophy (ECAP), Bellaterra, Spain, July (pp. 2-4).
  39. Шаблон:Cite news