Поддержать команду Зеркала
Беларусы на войне
Налоги в пользу Зеркала


Сергей Бесараб,

Война и военные вполне могут считаться самыми активными промоутерами новых технологий. Так, именно в военных лабораториях в свое время зародились электронная почта и интернет (они вышли из недр DARPA — Управления перспективных исследовательских проектов Министерства обороны США). 2024 год не отличается особой стабильностью — как с точки зрения существующих войн (в Украине и Израиле), так и с точки зрения конфликтов тлеющих, готовых перерасти в открытое противостояние (Тайвань, Иран, Судан). Поэтому совсем не удивительно, что финансирование военных разработок будет увеличиваться, а достижения гражданской науки и техники будут использоваться и для военных целей. Что именно из этого может стать реальностью, для «Зеркала» рассказал белорусский химик Сергей Бесараб.

Автономные боевые дроны, сами выбирающие, кого уничтожать

Помните огромные летающие дроны, убивавшие людей, из первого «Терминатора»? В фильме 1984 года они назывались HK-Aerial, а в «Восстании машин» — уже более привычно HK-Drone. Последние тенденции показывают, что у нас есть все шансы вскоре увидеть такие машины в реальности, о чем я рассказывал еще два года назад.

Дрон-киллер HK-Aerial из научно-фантастического фильма «Терминатор» 1984 года, режиссер Джеймс Кэмерон. Фото: скриншот из фильма
Дрон-киллер HK-Aerial из научно-фантастического фильма «Терминатор» 1984 года, режиссер — Джеймс Кэмерон. Кадр из фильма «Терминатор»

Здесь стоит отметить, что как таковое летальное автономное оружие (то есть оружие, которое самостоятельно выбирает, фиксирует и уничтожает цели) существует достаточно давно. Наиболее медийный пример — это системы вроде израильских SmartShooter, которые предназначены для уничтожения дронов типа иранских Shahed. Они самостоятельно находят цели и ведут по ним огонь. Но опасности для людей, по заверениям производителей, от таких устройств никакой, потому что орудия имеют механический ограничитель прицельного сектора. Кроме того, в таких системах пока еще присутствует оператор (хотя, как показали недавние события в Газе с повреждением пограничной ИИ-системы StarTrack, функция оператора автоматических пушек сводится только к тому, чтобы извлечь устройство из коробки или почистить датчики).

В 2017 году британский ученый Стюарт Рассел опубликовал антиутопическое видео о недалеком будущем, в котором главной угрозой для людей становятся группы автономных дронов-убийц Slaughterbots. По сути, между обычными людьми и описанными им устройствами уже не осталось каких-либо технологических препятствий (про это, кстати, в журнале Wired писали исследователи из BAE Systems — крупнейшей оборонной компании Великобритании).

Не секрет, что война в Украине уже стала войной дронов. Как пишет в своей статье военный советник Пентагона Эрик Шмидт, небо над Украиной будет заполняться все большим (десятки тысяч) количеством дронов и рано или поздно мы придем к тому, что обе армии будут уделять внимание только уничтожению оружия друг друга и ведению воздушных боев между беспилотниками.

Это понимают и воюющие (недавняя статья бывшего украинского главкома Валерия Залужного для СNN тому подтверждение), поэтому появляется все больше информации о том, что дроны учатся сами идентифицировать цели (например, украинский Saker Scout или российские ZALA Lancet). Постепенно роль оператора дронов становится такой же, как и в случае SmartShooter — человек лишь готовит устройство к работе, в дальнейшем все происходит без его участия. А в пилотировании FPV-дронов нейросети человека уже обошли.

Дроны как форма эволюции управляемого вооружения изменили все. Бронетехника теперь, например, должна конструироваться исходя из факта, что противник может ударить с любого угла. И то, что война пока еще идет по старым «советским методичкам», — всего лишь следствие инертности мышления военных. Пора открыть глаза и наконец увидеть, что воюют сегодня программисты, а не большие сильные мужчины с автоматическим оружием, которых сейчас лучше всего отправить в массовку очередного боевика.

Остановить распространение систем автономной идентификации и уничтожения целей мы не можем. Потому что нет ни единого стандарта, ни единого органа, который бы занимался регулированием летального автономного оружия. Сегодня в Украине такие устройства собирают, программируют и запускают разрозненные группы энтузиастов-волонтеров, напоминающие Темную армию из прекрасного сериала Mr. Robot. И большой вопрос, для чего и кем будут использоваться эти «волонтерские наработки», когда война в Украине закончится. Например, не захочет ли в один прекрасный момент какой-нибудь бывший оператор роя дронов развязать маленькую частную войну.

И Шмидт, и Залужный в своих комментариях в первую очередь говорят об FPV-дронах, которые благодаря низкой стоимости считаются расходным материалом, но обладают превосходной эффективностью, особенно на коротких дистанциях.

Для борьбы с такими дронами пока еще используются разнообразные подавители радиосигнала (так называемая концепция soft-kill, когда оружию противника не дают эффективно атаковать, вместо того чтобы уничтожать его физически), но разработчики дронов с обеих сторон находят способы обойти такие средства. Вечно так продолжаться не может, поэтому все сильнее звучат голоса о необходимости создания дронов-перехватчиков, способных уничтожать БПЛА противника (концепция hard-kill). Притом перехватчиков, которые могут работать большой группой (так называемое роевое поведение, которое сейчас вовсю используется для ночных шоу). Напрашивается аналогия с созданием Страж-птиц, описанных Робертом Шекли.

Watchbird (Страж-птица) — рассказ Роберта Шекли, опубликованный в 1953 году. По сюжету для предотвращения убийств людей создаются специальные роботы — страж-птицы — пресекающие любые попытки нападения на человека. Но самообучаемый искусственный интеллект эволюционирует и решает, что нужно расширить понятие «убийство» и запретить убийство животных, насекомых, растений.

Фантазия Шекли выступает грозным предостережением о том, что самообучающиеся машины могут быть опасны для людей. Особенно, если допустить фатальные ошибки при их создании и программировании, не понимая до конца логику работы алгоритмов (как в случае с так называемыми black-box ИИ). Запрет на самообучение машины, на право принимать решения в обход человека был прописан в «этике Асиломара» — определенных учеными в 2007 году основополагающих принципах безопасной работы ИИ. Серьезность этой проблемы очевидна, раз уж о ней стал говорить даже Илон Маск.

Боевые животные, управляемые дополненной реальностью

В своем блоге я ранее писал про израильское спецподразделение «Окец», в котором используются служебные собаки. Совершенно особенную роль они стали отыгрывать во время войны в Газе и при зачистках тоннелей, где скрываются боевики ХАМАС (животные ищут и помогают задерживать подозреваемых, находят оружие и взрывчатку).

Во время работы такие служебные собаки все равно требуют наличия «оператора» — человека, который тем или иным способом (жестами, лазерными указками и так далее) указывает животному, какие действия от него требуются. Изменить коренным образом эту ситуацию может активное внедрение иммерсивных технологий (виртуальной и дополненной реальности). В качестве иллюстрации может служить проект компании Command Sight, в котором используется специальный адаптированный для животного шлем дополненной реальности. Нося его, собака видит специальный индикатор с указанием направления или цели.

Служебный ротвейлер армии США в очках дополненной реальности Command Sight. Фото: Command Sight / US Army
Служебный ротвейлер армии США в очках дополненной реальности Command Sight. Фото: Command Sight / US Army

Помогать военным находить общий язык с животными (а значит, и отдавать им приказы на расстоянии с помощью языка) будут и нейросети. Ведь логично, что если существуют переводчики на основе ИИ, способные переводить человеческую речь в режиме реального времени, то можно сделать такую же систему для общения людей и животных. Нейросети способны проанализировать огромный объем данных и найти корреляции между миллионами параметров, что ни одному человеку не под силу. Единственная загвоздка сегодня — это только наличие данных для обучения. После «нейросетевого бума» 2023 года даже вопрос денег уже не стоит. Нужно только идентифицировать конкретные звуки/поведение/запахи, связать их с соответствующим контекстом и научиться воспроизводить.

Так что несмотря на то, что животные уже и так используются для военных действий (например, те же боевые дельфины, которые способны выявлять диверсантов и минировать корабли), использование ИИ может вывести этот тип взаимодействий на принципиально новый уровень. И конечно же расширить перечень «боевых» животных (в том числе птиц — вспоминается легендарный психолог Фредерик Скиннер, отец бихевиористики, у которого «боевые голуби» использовались для наведения ракет). Так что если вскоре и появится переводчик с языка животных на языки людей, то весьма вероятно, что выйдет он в первую очередь из ангаров военных.

Генетически модифицированные солдаты

Недавно мировые СМИ всколыхнуло интервью американского миллиардера Питера Тиля изданию New York Post. В нем он заявил о планах провести так называемые Enhanced Games, альтернативные Олимпийским играм. Участвовать в них можно будет спортсменам из таких видов спорта как плавание, гимнастика, тяжелая атлетика, легкая атлетика и единоборства (а желание участвовать, кстати, изъявила почти тысяча спортсменов). Главная особенность — атлеты могут использовать любые химические, биологические (генетические) и, возможно, физические (вроде нейроимплантов) модификации своих организмов. Допинг отныне не вне закона, допинг приветствуется. Enhanced Games хотят проводить ежегодно, используя площадки, оставшиеся после проведения классических Олимпиад. Пилотный запуск мероприятия планируется уже в декабре этого года.

Сам Питер Тиль считает, что Enhanced Games будут стимулировать интерес к научным исследованиям в области увеличения продолжительности жизни и гериатрии (здорового старения), но у меня на этот счет большие сомнения. Фармакология спорта безусловно даст какие-то результаты для рядового жителя нашей планеты. Но сильнее всего она подстегнет военные разработки в этом направлении. Для меня вопрос «зачем нужны Enhanced Games», скорее, риторический, и аналогичен вопросу «зачем нужен Palantir» (управляет которым тоже Питер Тиль) — к этому проекту мы еще вернемся ниже. Обе разработки, очевидно, имеют в первую очередь военный бэкграунд.

Здесь снова хочется вспомнить недавний отчет исследовательского центра RAND, в котором значительная часть посвящена генетическому усилению и генетическому надзору.

Генетическое усиление — генетические модификации ключевых боевых качеств солдата: возможность дольше функционировать без сна, большая физическая выносливость, улучшенная дыхательная способность. Генетический надзор — это сочетание генетических данных с технологиями идентификации, сортировки и наблюдения. Генетический надзор сводится в первую очередь к идентификации самых подходящих для конкретной службы людей на основе генетических данных.

Генетическое усиление тесно связано с ключевыми открытиями последних лет в сфере геномики — вакцинами на основе мРНК и успешным использованием методик CRISPR для генетической инженерии. Они привлекли к себе пристальное внимание военных, а Питер Тиль со своими инициативами им поможет. Геномика также может очень сильно повлиять на подготовку и экипировку солдат, привести к усилению их стойкости, улучшению способностей и возможностей восстанавливаться. Развитие геномики позволит, например, персонализировать питание и протоколы тренировок бойцов, подобрать и разработать для них оптимальные лекарства. Это ровно то, что уже сейчас и так делают в сфере подготовки профессиональных спортсменов.

Фото: Reuters
26-летний Ву Юй пьет энергетический напиток на глазах у своих друзей после завершения «дороги в рай» — отбора в элитное подразделение морской пехоты Тайваня, Гаосюн, южный Тайвань, 22 декабря 2021 года. Фото: Reuters

Если же говорить про генетический надзор, то вряд ли сразу получится внедрить его массово. Но вот для «штучного военного товара» кое-что сделать можно. В качестве примера можно привести китайскую компанию BGI Group, которая разработала пренатальный генетический тест и вместе с китайскими военными работает над улучшением «качества населения» на основе данных этого теста. Если вдруг в государстве будет проводиться всеобщая мобилизация, а нужные генетические и фенотипические данные населения будут упорядочены и доступны, то ИИ поможет более эффективно распределить кандидатов на разные виды службы.

Пока что такая генетическая сортировка осложняется из-за недостаточности знаний о связи генотипа (набора генов человека) с фенотипом (набором внешних и внутренних характеристик организма). Например, генетический тест, предсказывающий рост или силу человека, будет относительно бесполезным, поскольку эти особенности легче и дешевле наблюдать непосредственно в фенотипе. Напротив, генетический тест, который предсказал бы возможность человека освоить, например, специализированный BCI (нейрокомпьютерный интерфейс) после недолгого обучения, мог бы стать очень ценным.

К теме генетически модифицированных солдат хочется добавить еще один факт — речь о женщине, не чувствующей ни физической, ни психологической боли из-за генетической мутации. Она была обнаружена в 2019 году. В рамках проекта The Far Out Initiative ученые пытаются (в том числе с помощью технологий генной модификации CRISPR) научиться самостоятельно добиваться такой мутации. Значимая часть этих исследований ориентирована и на военных.

Солдаты-«зомби»

Многие наверняка помнят нашумевшую статью бывшего главнокомандующего армией Украины генерала Валерия Залужного изданию The Economist. В ней он высказывал опасения о том, что живые солдаты — это ресурс, который рано или поздно заканчивается, и призывал к необходимости внедрения военно-технологических инноваций в этой сфере. Многие тогда связали это с боевыми роботами. Но стоит отметить, что американские военные внимательно следят не только за робототехникой, но и за таким необычным направлением как некроботика.

Некроботика — это практика использования биологических материалов (или мертвых организмов) в качестве компонентов роботов.

Как правило, работы подобного толка (в основном из-за этической составляющей) не выходят на широкую публику. Наиболее известной иллюстрацией того, как работает некроботика, пока можно считать эксперимент исследователей из университета Райса (Техас, США), в котором они использовали мертвых пауков в качестве управляемых робототехнических захватов или манипуляторов. Вместо электрического управления (как в традиционных роботах) использовался сжатый воздух. Такие роботы-«зомби» являются альтернативой дорогим и технически сложным механическим захватам.

Робот-полицейский, созданный с использованием тканей погибшего человека, из научно-фантастического фильма «Робокоп» 1987 года, режиссер —Пол Верховен. Фото: кадр из фильма «Робокоп»
Робот-полицейский, созданный с использованием тканей погибшего человека, из научно-фантастического фильма «Робокоп» 1987 года, режиссер — Пол Верховен. Кадр из фильма «Робокоп»

Перспективным направлением развития некроботики является и использование существующих костных структур (скелета) для размещения компонентов роботов. Косвенно к некроботике относятся и другие исследования — например, использование людей с поврежденным головным мозгом в качестве суррогатных матерей (здесь напрашивается аналогия с аксолотлевыми чанами на планете Тлейлакс из вселенной «Дюны» Фрэнка Герберта — с их помощью в утробах женщин выращивали клонов).

Боевые действия в космосе и на Луне

В конце 2023 года практически незамеченным прошло важное событие — первое в истории человечества реальное боевое столкновение в космосе (за пределами атмосферы Земли) и первое кинетическое уничтожение баллистической ракеты средней дальности. Тогда над Красным морем израильский заатмосферный перехватчик комплекса Arrow-3 уничтожил в космосе иранскую баллистическую ракету, запущенную хуситами из Йемена в сторону израильского города Эйлат.

Не хотелось бы, чтобы такие истории повторялись, но стоит признать, что вместе с нарастанием эскалации между Израилем и Ираном, скорее всего, новости о баллистических перехватах в космосе могут стать повседневными.

Не слишком приятные прогнозы звучат и в связи с американской лунной программой «Артемида». Многие эксперты считают, что проект NASA может послужить своеобразной красной тряпкой для космических держав вроде России и Китая. В результате на Луне недалеко друг от друга могут быть построены сразу несколько лунных баз, относящихся к странам с противоположными идеологиями (похожая ситуация неплохо показана в замечательном сериале «Ради всего человечества»).

Визуализация одной из миссий, которые США планируют провести в рамках программы исследований Луны «Артемида». Изображение: NASA, commons.wikimedia.org
Визуализация одной из миссий, которые США планируют провести в рамках программы исследований Луны «Артемида». Изображение: NASA, commons.wikimedia.org

Такое соседство, особенно с учетом натянутых отношений между странами на Земле, рано или поздно может перерасти в прямые вооруженные конфликты. Профессор Иэн Кроуфорд, планетолог и астробиолог из Лондонского колледжа Биркбек, в интервью изданию IFLScience считает «лунные войны» вполне реальным сценарием развития событий.

Нейросетевая бойня

Военное применение нейросетей — это не только пока еще фантастические сценарии с роями дронов-перехватчиков, о которых мы упоминали выше, или эффективное распределение кандидатов на разные виды службы в рамках генетического надзора. Это и вполне реально работающие в текущих конфликтах проекты.

Первый, конечно же, — это «великий и неоднозначный» Palantir Питера Тиля. Война в Украине стала для этой компании звездным часом. Софт Palantir анализирует различные массивы больших данных (от оптических снимков и данных радаров до голосовых записей переговоров по радио), ищет неочевидные связи и предлагает, основываясь на них, какие-то решения для военных.

Основная часть заработка компании — это госзаказ. Она неоднократно всплывала в связи с обвинениями в разнообразном нарушении прав человека. Сейчас пугают китайским «социальным рейтингом», но не все знают, что в США такой же рейтинг (правда, якобы сделанный только для неблагонадежных элементов) благодаря Palantir появился гораздо раньше Китая.

А еще Palantir «охотился» за WikiLeaks, противостоял мигрантам и совершал другие этически сомнительные действия, нарушая еще задолго до «нейросетевого бума» 2023 года все этические принципы Асиломара. Сегодня, по словам генерального директора Palantir Алекса Карпа, на компании лежит ответственность за большую часть наведений на военные цели в Украине. Кроме того, ее софт используется для поиска доказательств военных преступлений, обезвреживания мин, расселения перемещенных беженцев и искоренения коррупции.

Бок о бок с Palantir работают и другие ИИ-системы для анализа данных с поля боя и идентификации целей. Наиболее известным можно считать Project Maven, запущенный в 2017 году. Уже тогда алгоритмы могли идентифицировать разные типы военной техники (и даже военные звания по форме солдат), используя изображения с камер дронов. Кстати, в создании Maven участвовала и Google, но из-за протестов сотрудников ей пришлось разорвать контракт с Министерством обороны США.

Сейчас проект находится в ведении Национального агентства геопространственной разведки США, и основные задачи у него — не просто идентифицировать танк на фотографии с дрона, а идентифицировать его под заснеженной елью или замаскированным на болоте. Читая это, вспоминайте про упоминавшиеся выше дроны, которые всегда найдут себе цель.

Про Palantir и Maven информации достаточно мало, и в лучших традициях «тумана войны» все отзывы по большей части положительные и лестные.

Туман войны (нем. Nebel des Krieges) — военный термин, обозначающий отсутствие достоверной информации о текущей обстановке на поле боя в силу тех или иных объективных (в том числе конспиративных) причин.

А вот про следующую войсковую нейросеть известно больше — отчасти из-за того, что конфликт, в котором она используется, мировым сообществом трактуется неоднозначно. Речь про ИИ-систему Habsora (она же Gospel или «Евангелие» в русскоязычном прочтении), которая используется армией Израиля для войны с ХАМАС. Необходимость в таком ИИ возникла как ответ на проблему, обозначенную в предыдущих военных операциях Израиля в Газе, — у армии заканчивались цели для авиационных и ракетных ударов.

Клубы дыма поднимаются вокруг здания после израильских ударов в секторе Газа, 9 октября 2023 года. Фото: Reuters
Клубы дыма поднимаются вокруг здания после израильских ударов в секторе Газа, 9 октября 2023 года. Фото: Reuters

Бывший главком израильской армии Авив Кохави сообщал, что прежде ЦАХАЛ могла выявлять 50 целей в секторе Газа за год, а использование Habsora позволило обнаруживать по сотне целей в день. И хотя формально каждую цель должен утверждать человек-оператор, на практике все обстоит иначе. Дело в том, что как только люди начинают полностью полагаться на эти системы, они утрачивают способность осмысленно оценивать риск причинения вреда гражданскому населению. Сложный ранее аналитический процесс идентификации цели при помощи ИИ становится конвейерным, а так как эффективность работы военных аналитиков часто оценивают по количеству (а не качеству) определенных целей — ясно, каков может быть результат.

С технической точки зрения алгоритмы работы и Palantir, и Project Maven, и Habsora близки между собой. Предположу, что близки между собой и психологические эффекты у персонала, который работает с этими системами. А значит, скорее всего, и проблемы здесь тоже схожи: ложные избыточные цели, массовая гибель гражданского населения и так далее.