«Праулером» можно управлять с расстояния до девятнадцати миль. Он снабжен компьютерами и двумя видеокамерами на шарнирах, может кружить вокруг охраняемой территории или следить за входом на нее. Для определения собственной позиции машина использует лазерные искатели и другие приборы, в том числе датчики, указывающие на изменение рельефа, по которому едет машина. Удаленный оператор «видит» то, что показывают камеры.
Машина может быть оборудована приборами ночного видения, инфракрасными сканерами, радаром и электромагнитными датчиками движения и сейсмоде-текторами. На нее также может быть установлено разнообразное оружие. Как нам говорили, гигантская подрядная фирма «Бехтель нейшнл» предложила его использовать «для охраны строительства в одной ближневосточной стране».
Тем временем Израиль, окруженный враждебными соседями, имеющими колоссальное численное превосходство вооруженных сил, стал мировым лидером в разработке и применении роботов как в мирных, так и в военных целях. Расположенный недалеко от Галилейского моря завод «Искар» делает режущие инструменты на экспорт. Построенный пророком высоких технологий по имени Стеф Вертхаймер и его сыном Эйта-ном, завод представляет собой мировой образец роботизации промышленного предприятия. В использовании роботов для военных целей Израиль также впереди всех. В 1982 году он с поразительным успехом использовал беспилотные устройства против Сирии в Ливане и с тем же успехом использует их в антитеррористических операциях. Был случай, когда дистанционно пилотируемый самолет следовал за машиной, уносящей террористов к их базе, которую стало после этого возможно уничтожить атакой с воздуха.
Роботеррор
Однако, как указывают Шейкер и Вайз, «террористы обучаются противостоять роботам». Они приводят случай, когда робот должен был разрядить бомбу. Революционеры смогли «подменить радиоуправление оператора и направить робота против него. Оператор чуть не был взорван собственным роботом».
Они добавляют:
«Роботы, лишенные морали и совести, полностью избавленные от страха самоубийства, могут… стать идеальными террористами. Использование механических убийц наверняка породит панику и озабоченность среди жертв и даст террористам рекламу, в которой они так нуждаются».
Пока что мы говорили о робототехнике «с человеком за рулем». Но это всего лишь первый шаг, половина шага в сторону более совершенных — и вызывающих куда большие возражения — автономных роботов. По сравнению с ними роботы с дистанционным управлением всего лишь полуразумны. Есть устройства поумнее, например, крылатая ракета «Томагавк», которая после запуска уже не нуждается в инструкциях — она запрограммирована на независимое поведение.
И последний шаг — виды оружия, которое, будучи «запущено» или приведено в движение, принимает все больше и больше самостоятельных решений. Это так называемое «автономное» оружие, и, как говорит Map-вин С. Стоун, генеральный менеджер отдела электроники и технологии TRW: «Все оружие станет куда более автономным».
Проблема дистанционно управляемых роботов в том, что они зависят от уязвимых средств связи, соединяющих человека с менее умными, но весьма чуткими его механическими продолжениями. Если связь нарушается, или пропадает, или прерывается противником, или, самое худшее, противник перехватывает управление, робот становится бесполезным и потенциально опасным. Если же способность воспринимать данные, интерпретировать их и принимать решение передана самому оружию, то все каналы связи находятся внутри него и куда менее уязвимы.
Еще одно свойство автономных роботов — быстрота. Они могут принимать решения со скоростью, недоступной человеку, а это критически важно при ускорении темпа боя. Шейкер и Вайз указывают, что различные компоненты противоракетной обороны «должны, чтобы отбить атаку стратегических ракет, обмениваться данными с такой высокой скоростью, что люди не смогут участвовать в принятии решений «на месте».
Если уж роботу можно доверить принятие таких решений самостоятельно, то пусть он лучше будет тогда сверхразумным. Отсюда стремление создать робота, который сможет учиться на своем опыте. Военно-морская исследовательская лаборатория США разработала программное обеспечение, которое, как сообщает «Дефенз ньюз», позволяет боевым роботам делать рудиментарные заключения и учиться, имея дело с неожиданными обстоятельствами. Испытанное на имитаторе полета, это программное обеспечение научилось сажать ФА-18 на взлетно-посадочную палубу сто раз из ста. Те же самые программы смогли увеличить способность самолета уклоняться от противовоздушных ракет от 40 до 99 %.
Таким образом, сторонники автономного оружия утверждают, что предлагают высшую степень защищенности оружия и, в некоторых случаях, его способность обучаться на опыте. Более того, эти роботы, подобно роботам с дистанционным управлением, могут быть объединены в гигантскую систему.
Стратегическая Оборонная Инициатива, исходно задуманная с мирового масштаба сетью спутников, датчиков и наземных станций, может считаться единым «мега-роботом», у которого хотя бы некоторые компоненты могут действовать автономно. Но даже такие планы едва копнули необозримую глубину возможностей.
И совсем независимо от СОИ, DARPA, агентство исследовательского проекта усовершенствованной обороны, начало поддержку исследования автономных боевых машин еще десять лет назад. В программе SHARC этого ведомства было рассмотрено, что может быть сделано целой группой взаимосвязанных машин-роботов. Это можно себе представить как некоторое «коллективное сознание» или квазителепатию между ними.
Противники роботов
Все это, быть может, отчасти объясняет сопротивление, с которым сталкиваются сторонники роботизации. И здесь опять-таки видна параллель с мирной экономикой. Точно так же, как в бизнесе, роботизация нависает угрозой над традиционными интересами. Обратимся опять к Шейкеру и Вайзу: «На заводах автоматизация угрожает увольнением работникам физического труда… В военном деле… зачастую непосредственными операторами систем оружия оказываются начальники более высокого ранга, и эта их роль оказывается под вопросом после появления боевых роботов. Поэтому и сопротивления от них естественно ожидать более яростного, чем от заводских рабочих». Эти же авторы указывают, что в США «генералитет ВВС состоит в основном из пилотов. На флоте же заправляют и авиаторы, и командиры кораблей. В современной армии командование принадлежит в первую очередь тем, кто руководит солдатами в бою. То же самое наблюдается в армиях других стран. Планировщики, офицеры разведки, офицеры связи, интенданты и другие не связанные с боем специалисты редко достигают вершины власти». Переход к войнам Третьей волны, а в особенности к роботизации, может все это переменить, лишив постов и власти тех офицеров, которые командуют оружием, требующим участия человека.
Но борьбу против роботов — особенно автономных роботов — нельзя списать только на защиту их противниками собственных интересов. Противники роботов утверждают, что робот не может реагировать на мириады внезапных изменений на поле боя. И разве можно встроить возможность вмешательства человека на каждом шагу? И какова моральность убийцы-робота, неспособного отличить врага, который является угрозой, от противника, который отчаянно стремится сдаться в плен? Не могут ли роботы от сбоя свихнуться и запустить эскалацию мировой войны? И хватит ли у людей-программистов ума предусмотреть все возможные изменения боевой обстановки?
Вот на этом-то месте и начинается сценарий доктора Стрейнджлава. Убирая человека от руля, не рискуем ли мы получить вышедшую из-под контроля войну? Сторонники роботов могут указать на факт малоизвестный общественности, — что некоторые из самых смертоносных ядерных бомб давно уже включают в себя частично автономные компоненты. Быстрота и опасность, которые приписывались возможной атомной атаке Советского Союза, были столь высоки, что ядерной устрашение могло основываться лишь на частично автоматизированной системе. И несмотря на это, ни разу не было случайного применения ядерного оружия почти за полстолетия. И нет необходимости напоминать, что люди, принимающие решение, тоже могут свихнуться.
Это, однако, убеждает не всех. Приводится возражение, что когда свихнется человек, его можно успеть остановить или ограничить последствия его решения. А это может быть совсем не так, если снабдить боевых роботов сверхчеловеческим интеллектом, дать им право делать немедленный выбор,