Об опасностях внедрения искусственного интеллекта – далее ИИ, как массовая безработица из-за замены людей машинами, применении автоматизированных систем вооружений – АСВ, смертоносных автоматизированных систем вооружений – САС и других опасностях внедрения ИИ недавно открыто рассуждало международное сообщество на пленарном заседании 75-й сессии Генеральной Ассамблеи ООН в 2020 году. Об усилении разрыва между богатыми и бедными, цифровой диктатуре государства и полиции, манипулировании мировым общественным мнением, гонке вооружений заявил президент России и В.Путин, выступая на пленарном заседании 75-й сессии Генеральной Ассамблеи ООН. «Но, как и любые другие инновации, цифровые технологии имеют тенденцию к неуправляемому распространению и так же, как и обычное оружие, могут попасть в руки разного рода радикалов и экстремистов не только в зонах региональных конфликтов, но и во вполне благополучных странах, порождая огромные риски», — отметил В.Путин.
Статья в Нью-Йорк Таймс «Являются ли роботы-убийцы будущим войны?» начинается с небольшого наброска возможного скорого будущего. Российский военный робот воспринимает случайный удар эстонских пограничников, как начало атаки, и открывает огонь на поражение. Через долю секунды в ответ стреляет дрон с эстонской стороны. На поле боя остается с десяток убитых и раненых с обеих сторон. Человеческая неуклюжесть и немедленная реакция машины поставили мир на грань войны Россия-НАТО. Стремительная роботизация поля боя происходит на наших глазах. Ведущие державы уже потеряли монополию на неё. Беспилотники стран Третьего Мира, сделанные из палок, отходов и палёных микросхем стали головной болью для лучших армий мира в зонах локальных конфликтов.
Распространение в мире ракетных технологий и появление гиперзвукового оружия диктуют невозможные для психики человека скорости принятия решений. Или ты обеспечил наведение на цель и открытие огня за миллисекунды — или проиграл. За эти же доли мгновения нужно успеть понять, не является ли решение о поражении цели ошибочным. Пока что это в основном касается оборонительных систем. Но уже сейчас существует острейшая потребность в автоматизированном поиске и поражении целей до того, как они успеют выстрелить первыми. К примеру, российская перспективная боевая ИИ система «Сигма-20385, способная превращать эскадры кораблей в рой дронов под контролем нейросети, способна сделать это в доли секунды. Кто победил, а кто получил снаряд и сгорел, в современном бою решают доли мгновения. Автоматизация с её невозможной для человеческой психики скоростью реакции, даёт огромный перевес тем, кто рискнёт сделать на неё ставку. Спрос на новейшие автономные боевые системы рождается в это самое время. Великобритания и Израиль уже применяют новые ракетные комплексы «Бримстоун» и «Гарпия НГ», способные часами барражировать на заданном участке, автоматически определяя и поражая цели. Американское агентство DARPA в рамках программы CODE разрабатывает координируемый оператором рой боевых дронов высокой степени автономности, способных к импровизации и перестройке внутри общей задачи.
Американцы давно хотят создать такой интеллект, который бы самостоятельно искал цели, принимал решение по ним и наносил удары. По мнению Леонкова, попытки поставить такие системы на беспилотники хорошо себя показывали на испытаниях, но при конкретных боевых действиях зачастую этот интеллект давал сбой и принимал неверные решения — вместо военных целей поражал гражданские.
В 2016 году газета The New York Times написала, что США тратят на создание оружия с искусственным интеллектом $18 млрд. Министерство обороны США с помощью таких систем стремится "радикально изменить ход боевых действий". В то время в штате Массачусетс проходили испытания автономного беспилотника, снабженного шестью пропеллерами. По данным издания, он был превращен в боевого робота, который смог найти и идентифицировать находившихся в укрытии людей, вооруженных автоматами АК-47.
Кроме того, в США разрабатываются роботизированные истребители, которые могли бы совершать рейды одновременно с пилотируемыми самолетами. Уже прошли испытания ракеты, способной самостоятельно выбирать цель, а также автоматических боевых кораблей, умеющих самостоятельно осуществлять поиск подводных лодок противника.
Пентагон тратит миллиарды долларов на то, что там называют автономными или полуавтономными системами вооружений, и стремятся создать арсенал такого оружия, которое до настоящего времени существовало лишь в голливудских фильмах и научно-фантастических произведениях
Киев ведет переговоры о покупке в США тяжелых ударных беспилотников MQ-9 Reaper «Жнец».
Как сообщило американское издание Forbes, украинская делегация провела в Вашингтоне переговоры с компанией General Atomics, производящей ударные беспилотники MQ-9, и получила заверения в возможности их скорой поставки. Подобная сделка должна получить одобрение властей США.
«У Reaper мрачная репутация, с намеком на выражение Grim Reaper – «мрачный жнец», то есть смерть, его еще называют «охотником за террористами». Ракетами с беспилотника MQ-9 был уничтожен ряд лидеров «Аль-Каиды» (организация запрещена в России), а также в январе 2020 года иранский генерал из Корпуса стражей исламской революции Касем Сулеймани», – рассказал «Газете.Ru» авиационный эксперт, полковник ВВС в отставке Николай Павленко.
Киев ведет переговоры о покупке в США тяжелых ударных беспилотников MQ-9 Reaper «Жнец»
В свою очередь, многие ученые и эксперты обеспокоены тем, что создание даже самой простой боевой системы с искусственным интеллектом может привести к глобальной гонке вооружений. Появятся полностью автономные роботы, способные убивать. "Расходы на их производство будут невелики, и они будут доступны не только для крупных держав, но и для экстремистских группировок", — делает вывод американская газета.
Источник: https://lenta.ru/news/2022/04/14/mq9reaper/
У американцев идут такие разработки. Они пытались делать универсального солдата из людей, но они оказались ограничены человеческими возможностями, даже если его оснастить кучей различной аппаратуры.
Военные эксперты сходятся во мнении, что у таких "умных" систем, безусловно, есть будущее. Ведущие армии мира стараются максимально ограничить присутствие человека на поле боя под огнем противника.
Однако у искусственного интеллекта есть сильные ограничения именно в оценке обстановки, которая может отличаться от того задания, которое он получал изначально. "То есть цель может поменять место, дислокацию, применить методы маскировки и так далее. Скажем так, системы, которые полностью автономны по ведению боевых действий, отсутствуют", — уточняет военный эксперт Леонков. То, что выглядит гладко на полигонах, во время современного общевойскового боя, когда много разных факторов влияют на изменение обстановки, искусственный интеллект это не учитывает. Машина не может научиться тому, что может человек, предчувствуя те или иные ситуации, предугадывая их развитие, и при этом принимать верные решения.
|
Операторы зенитной ракетной системы С-400 "Триумф". |
Источник: © Виталий Невар/ТАСС |
Исследования по опыту, который приобретает человек, говорят, что люди, участвующие в боевых действиях, приобретают за первый год такой опыт, который искусственному интеллекту пока не под силу. А если в течение пяти лет, если человек остается в живых, являясь участником боевых действий, то такой интеллект даже рядом с ним не стоит
"Человек, военный специалист, гораздо ценнее и дороже любого электронного робота. Поэтому системы с искусственным интеллектом будут все чаще и полнее входить в арсеналы ведущих армий мира", — говорит Литовкин, при этом подчеркивая, что "за ними всегда и везде будет стоять человек, не прекратив контролировать и управлять ими даже с другой половины земного шара".
Человек, военный специалист, гораздо ценнее и дороже любого электронного робота. Поэтому системы с искусственным интеллектом будут все чаще и полнее входить в арсеналы ведущих армий мира
В последнее время ведущие армии мира уделяют особое внимание разработке и развитию технологий искусственного интеллекта.
Российские вооруженные силы не являются исключением, и наша наука и промышленность по их заказу тоже ведет соответствующие разработки. Некоторые проекты успешно завершены и их результаты находят практическое применение, а другие пока остаются на ранних стадиях, но их перспективы уже ясны. Важность технологий ИИ для развития вооружений, техники и армии в целом уже не вызывает вопросов. На протяжении нескольких последних лет высшее руководство вооруженных сил и страны неоднократно поднимало тему таких разработок. Отмечалась необходимость создания таких проектов и их особое значение для обороны.
В последний раз эти вопросы обсуждались на недавнем совещании с участием президента, руководства министерства обороны и представителей оборонной промышленности. В этом контексте глава государства указал на необходимость создания перспективных робототехнических систем с ИИ и повышенной степенью автономности. Подобные технологии должны найти применение в средствах управления из состава беспилотных авиационных и автономных необитаемых подводных комплексов.
Следует отметить, что ИИ может быть полезен не только в сфере БПЛА и АНПА. С его применением можно создавать современные высокоэффективные наземные или надводные РТК разного назначения и новые образцы высокоточного оружия. Кроме того, ИИ может найти применение в бортовой аппаратуре военной техники и в средствах управления войсками – в этих случаях он будет брать на себя часть вычислений и снижать нагрузку на человека.
Важно, что все подобные возможности существуют уже не только на уровне общих идей. Силами разных научных и проектных организаций выполняются исследования и разрабатываются реальные изделия разного назначения с тем или иным использованием ИИ. Некоторые такие образцы уже доведены до использования в войсках, а другие ожидаются в обозримом будущем.
В этом году в Минобороны РФ началось формирование специализированного управления по вопросам развития искусственного интеллекта. Какие виды вооружения уже сейчас действуют автономно – в материале «Газеты.Ru».
Еще в марте прошлого года Минобороны объявило о проведении закрытого конкурса на выполнение научно-исследовательской работы «Исследования по созданию экспериментального образца комплекса разработки, обучения и реализации глубоких нейронных сетей для нового поколения военных систем с искусственным интеллектом» под шифром «Каштан». Полностью работы по контракту должны быть завершены до ноября 2022 года. Но уже сейчас российской армии есть что продемонстрировать в области применения и боевых роботов, и искусственного интеллекта:
Двенадцать тонн боевой массы, противотанковые сверхзвуковые ракеты «Атака», термобарические боеприпасы огнемета «Шмель», 30-миллиметровая пушка и крупнокалиберный пулемет – это портрет первого в российской армии роботизированного комплекса «Уран-9». В сентябре он впервые был применен в боевых порядках общевойсковых подразделений на совместных с Белоруссией стратегических учениях «Запад-2021».
В этом году Минобороны начало формирование ударного соединения, в котором люди играют второстепенную роль. Пока это пять роботизированных комплексов. В каждом – по одному пункту управления на шасси автомобиля КамАЗ и четыре «Урана». Каждый из них сможет бороться с бронетехникой, живой силой, уничтожать ДОТы, системы ПВО и даже сбивать вертолеты противника.
Сегодня за роботом «Уран» все еще стоит оператор. Поэтому машина и называется «роботизированный комплекс». Воздушными дронами пока тоже управляет человек, хотя большую часть операций роботы могут выполнять в полностью автономном режиме. Однако системы вооружения, способные действовать целиком автоматически, существуют в наших Вооруженных силах еще со времен СССР.
Двенадцать тонн боевой массы, противотанковые сверхзвуковые ракеты «Атака», термобарические боеприпасы огнемета «Шмель», 30-миллиметровая пушка и крупнокалиберный пулемет – это портрет первого в российской армии роботизированного комплекса «Уран-9»
Еще в 1983 году на вооружении флота появились крылатые противокорабельные ракеты П-700 «Гранит». Машины размером с истребитель МиГ-21 устанавливали на тяжелые атомные крейсера 1144 проекта типа «Петр Великий» и атомные подводные лодки проекта 949А «Антей».
Особенностью П-700 является то, что в ее бортовой вычислительной машине, по сути, впервые в ракетной технике были реализованы алгоритмы искусственного интеллекта. Ракеты имели в своей памяти электромагнитные портреты всех современных кораблей иностранных флотов. При этом «Гранит» работал «в стае».
Первая ракета, выйдя из шахты, «дожидалась» остальных. После чего они выстраивались в боевой порядок и начинали атаку. Цель может видеть только одна. Она и организует нападение, передав информацию, где находится цель, кто и как ее охраняет. Затем машины «решают», кто атакует, а кто отвлекает огонь ПВО на себя.
Крылатая противокорабельная ракета П-700 «Гранит»
Точно так же работает и ракета П-800 «Оникс» – только ее алгоритмы стали более точными и сложными. В отличие от других противокорабельных ракет, имеющих «специализацию» по носителям, новый комплекс универсальный. Его можно размещать на разных типах подводных лодок, надводных кораблях и даже катерах, самолетах и на береговых пусковых установках.
В подмосковном Софрино стоит еще один робот – циклопическая пирамида радиоэлектронной станции загоризонтного обнаружения целей «Дон-2Н». Она предназначена для обнаружения атакующих нашу территорию ядерных боеголовок и передачи информации об этом на пусковые установки противоракет комплексов А-135 «Амур», А-235 «Нудоль», С-400 и новейшей мобильной стратегической противоракетной системе С-500, которая только начала поступать в войска.
От ближайшей американской позиции ракет нас отделяет, по данным ряда европейских СМИ, всего 21 минута лета. У «Дона» очень мало времени на расчет траектории полета целей и передачу команды на их перехват. Поэтому весь процесс автоматизирован.
«Дон-2Н» в автоматическом режиме обнаруживает, проводит расчеты и предлагает оператору варианты действий. Последнему остается только нажать на кнопку, тем самым взяв на себя ответственность за принятое решение. Человека из этой схемы можно даже исключить.
Собственно, участие человек исключено в работе системы «Периметр», или «Мертвая рука», как ее называют на Западе. Ее особенность в том, что если первым ядерным ударом американцы уничтожат все военное и политическое руководство Российской Федерации, в дело вступит искусственный интеллект, который самостоятельно примет решение о нанесении ответного ядерного удара по США.
Источник: https://www.gazeta.ru/army/2021/11/18/14218657.shtml?updated
Разговоры о машинах-убийцах идут уже не первый год. Международная гражданская кампания" Stop robot killer " в августе 2018 года достигла разработки на уровне ООН принципов предотвращения выдачи лицензий на боевые машины для убийства. «Мы сосредоточились на двух вещах, которые должны оставаться под человеческим контролем. Речь идет о выявлении и подборе целей, а затем применении против них оружия» - Мэри Уорхэм, координатор кампании Stop Killer Robot. В 2015 году 1000 мировых экспертов в области ИИ и робототехники во главе с Илоном Маском, Стивом Возняком и Стивеном Хокингом подписали открытое письмо. В нем выражалось опасение, что машины-убийцы станут "Калашниковыми будущего" с точки зрения доступности шансов стать мишенью робота-убийцы, как и Сара Коннор из "Терминатора".
На данном этапе возможностей международного гуманитарного права - МГП недостаточно для эффективного регулирования автономных систем вооружений - АСВ. Существующие нормы четко не описывают понятие оружия массового поражения, виды оружия, связанные с ним, и нет четких правил об ответственности за их действия и причиненный ими ущерб. За основу в определении меры ответственности обычно берется устаревший "Дополнительный Протокол к Женевским Конвенциям от 12 августа 1949 года, касающийся защиты жертв международных вооруженных конфликтов (Протокол I)" от 08.06.77. Статья 91 - Ответственность [2]. «Сторона, находящаяся в конфликте, которая нарушает положения Конвенций или настоящего Протокола, должна возместить причиненные убытки, если к тому есть основание». В состав более современной Конвенции хотелось бы включить норму, приравнивающую АСВ к вооруженным силам воюющего государства. И при инциденте с жертвами, случившимся по причине недоработок или ошибок ИИ в составе АСВ, требовать от создателей АСВ с ИИ в рамках международного гуманитарного права - МГП, возмещения всех видов убытков в рамках воюющих государств. Также, необходимо доработать Конвенции о запрещении или ограничении применения конкретных видов обычного оружия, которые могут считаться наносящими чрезмерные повреждения или имеющими неизбирательное действие 1980 года которая бы закрепляла понятие АСВ, его легальное применение, и определяла субьектов, несущих ответственность за действия АСВ.
Исторический опыт показывает, что серьезные усилия со стороны государств запретить тот или иной вид оружия, в результате применения которого образовались огромные потери живой силы, разрушение гражданских объектов и ненужные страдания гражданского населения, были предприняты сразу же после использования такого оружия для военных целей, в результате которого мировое сообщество убеждалось на практике, насколько к серьезным последствиям это приводит. Так обстояло дело с химическим и биологическим оружием. Подобные проблемы своеобразным образом решают и 23 Азиломарских Принципа ИИ, Монреальская Декларация об ответственном развитии ИИ, модельная Конвенция по робототехнике и ИИ РФ и т. д.
Убийство человека – зло по определению, говорит один из основополагающих принципов современной цивилизации. Убийца – всегда убийца. Он несет ответственность за смерть человека. А кто несет ответственность за убийство человека роботом, решение, которое принимается автономно самой машиной? К примеру, военные командиры или командиры повстанцев отправили робота в определенный сектор. Программисты разработали компьютерные алгоритмы определения целей и применения оружия. Но на "спусковой крючок" машина-убийца нажимает сама по себе. Она Сама Решает - без эмоций, без обладания понятиями гуманности или жалости, просто электронным мозгом. В соответствии с резолюцией Европейского парламента: "человечество еще только осознает суть опасностей ИИ и создает согласованность и регулирование в области применения робототехнических систем, при условии соблюдения основных прав идентичности, защиты информации, принципов пропорциональности, необходимости и ответственности".
Но на "спусковой крючок" машина-убийца нажимает сама по себе. Она Сама Решает - без эмоций, без обладания понятиями гуманности или жалости, просто электронным мозгом.
По мнению католической церкви и Папы Франциска, сегодняшние времена - это "Перекресток времен", похожий на те, когда был изобретен паровой двигатель, электричество или печать. Теперь наступает «время ИИ», где важные решения часто принимаются совместно и человеком, и алгоритмом. Отношения между ними требуют дальнейших научных исследований, поскольку не всегда легко "предсказать все последствия" и "распределить обязанности", и проблема остается остро актуальной. На Ватиканском семинаре на тему "Искусственный интеллект: этика, закон, здоровье" в 2020 году Папа Франциск высказался так: «Технологии, населяющие современную «цифровую галактику», являются даром Божьим, но их нельзя назвать «нейтральными инструментами»: по своей природе они заходят так далеко, что «размывают границы, которые до сих пор считались хорошо различимыми: между неорганической и органической материей, между реальным и виртуальным, между стабильными субъектами и событиями в непрерывном отношении друг с другом». «Из цифровых следов в Интернете алгоритмы извлекают данные, которые позволяют контролировать образ мыслей и социальные привычки в коммерческих или политических целях, часто без нашего ведома. Такая асимметрия, – когда немногие знают о нас всё, а мы о них не знаем ничего, – отупляет критическое мышление и тормозит сознательное осуществление свободы. Непомерно усиливается неравенство, а знания и богатства накапливаются в нескольких руках, что чревато серьёзным риском для демократического общества».
Технологии, населяющие современную «цифровую галактику», являются даром Божьим, но их нельзя назвать «нейтральными инструментами»: по своей природе они заходят так далеко, что «размывают границы, которые до сих пор считались хорошо различимыми: между неорганической и органической материей, между реальным и виртуальным, между стабильными субъектами и событиями в непрерывном отношении друг с другом
Источник: https://vpk.name/news/218302_zhelezo_s_mozgami_kakoe_oruzhie_rossii_umeet_dumat.html