Ожидает ли нас милитаризация ИИ?

Общество

На прошлой неделе Google пересмотрела свои принципы искусственного интеллекта, устранив позицию компании против использования ИИ для разработки оружия или технологий или прямого причинения вреда людям, а также для слежки, которая нарушает международно признанные нормы.

Глава отдела искусственного интеллекта Google Демис Хассабис заявил, что руководящие принципы пересматриваются в меняющемся мире и что искусственный интеллект должен защищать «национальную безопасность».

RT взял интервью у доктора Мэтью Маавака, старшего консультанта Национальной дорожной карты искусственного интеллекта Малайзии на 2021-2025 годы (AI-Rmap), ученого в области глобальных рисков, геополитики, стратегического прогнозирования, управления и искусственного интеллекта, о потенциальных последствиях новой политики Google.

С работами доктора Мэтью Маавака мы хорошо знакомы. Он написал немало работ об опасностях генных экспериментов, влияния чужеродной ДНК на характер человека при трансплантации органов, тканей и даже переливании крови и в целом о сохранении человеческой популяции здоровой:

Теперь речь пойдет о другой не менее важной отрасли — популяризации ИИ.

Интервью RT

RT: Означает ли это, что Google и другие корпорации теперь начнут создавать оружие с искусственным интеллектом?

Д-р Мэтью Маавак: Прежде всего, Google был в значительной степени творением аппарата национальной безопасности США или просто «глубинного государства». 

Истоки многих, если не всех, крупных технологических компаний сегодня можно проследить до новаторских исследований, проведенных Агентством перспективных оборонных исследовательских проектов США (DARPA) и его предшественником Агентством перспективных исследовательских проектов (ARPA).

Таким образом, квазичастная организация под названием Google неразрывно связана со своими истоками «национальной безопасности», как и другие крупные технологические компании. Вооружение ИИ и создание оружия с искусственным интеллектом является естественным прогрессом для этих сущностей.

Microsoft уже давно создала собственную «военную империю».

Кроме того, платформы Big Tech широко используются для сбора данных и разведданных по всему миру. Это причина, по которой Китай запретил многие американские программы и приложения Big Tech. Нация не может быть суверенной, если она обязана Big Tech!

Что касается изменения Google своих рекомендаций по искусственному интеллекту, это не должно вызывать удивления. Big Tech активно продвигали универсальные модели управления ИИ через различные высокопоставленные институциональные компании, агентства Организации Объединенных Наций, неправительственные организации (НПО), аналитические центры и национальные правительства.

Благодаря моей недавней работе в этой области стало совершенно ясно, что правительство США стремилось задушить развитие местного ИИ во всем мире, продвигая непродуманные и напыщенные модели управления ИИ, которые пронизаны противоречиями. Разрыв между высокими устремлениями и устоявшимися реалиями просто непреодолим.

Тот же сценарий был использован для продвижения экологических, социальных и управленческих схем (ESG) по всему миру, что привело к большим издержкам как для развивающихся стран, так и для корпораций. Теперь правительство США и крупный капитал отказываются от тех самых схем ESG, которые они придумали.

К сожалению, многие страны поддались на эти уловки, инвестировав значительные деньги и ресурсы в создание причудливых структур ESG и AI. Эти страны рискуют стать постоянно зависимыми от Big Tech в условиях того, что я называю «неоколониализмом ИИ».

Google и YouTube от Alphabet, Bing от Microsoft и X от Илона Маска уже давно использовали свои платформы в качестве оружия до этого недавнего изменения в политике в области искусственного интеллекта.

Поисковые алгоритмы Big Tech были использованы для того, чтобы стереть инакомыслящих и противоположные платформы из цифрового ландшафта, эффективно навязывая современную damnatio memoriae.

Мне приходится использовать российский поисковик Яндекс для того, чтобы найти свои старые статьи — сказал доктор Маавак.

RT: Почему это изменение происходит сейчас?

Д-р Мэтью Маавак: Все системы вооружения все больше полагаются на ИИ. Только в российско-украинском конфликте ИИ использовался на поле боя. Широкое использование дронов с возможными возможностями роевой разведки — это лишь один из многих анекдотических примеров использования ИИ в Украине.

Вы не можете создавать оружие нового поколения и контрмеры без ИИ. Нельзя брать с собой нож на перестрелку, как гласит старая поговорка.

Следует отметить, что одним из наиболее прибыльных и перспективных секторов с гарантированной доходностью инвестиций является оборонно-промышленный комплекс.

Вооружение ИИ и создание оружия с искусственным интеллектом — это просто естественный курс действий для Big Tech.

Показательно и то, что лидеры двух сверхдержав в области искусственного интеллекта — Соединенных Штатов и Китая — пропустили недавний Парижский саммит по искусственному интеллекту.

Итоговая декларация саммита по ИИ

Саммит по искусственному интеллекту в Париже должен был завершиться совместной декларацией по искусственному интеллекту, которую подписали бы десятки мировых лидеров. Хотя это заявление не такое амбициозное, как Блетчли-Пская и Сеульская декларации, США и Великобритания отказались его подписывать.

Это ещё раз доказывает, что в нынешнем (напряжённом) геополитическом контексте трудно прийти к единому мнению по вопросам искусственного интеллекта и другим темам.

«Мы твёрдо убеждены, что искусственный интеллект должен оставаться свободным от идеологических предубеждений и что американский искусственный интеллект не будет превращён в инструмент авторитарной цензуры», — заявил вице-президент США Джей Ди Вэнс в речи на церемонии закрытия саммита.

«Соединённые Штаты Америки являются лидером в области искусственного интеллекта, и наша администрация планирует сохранить эту позицию», — добавил он.

Мероприятие превратилось в сценарную беседу, организованную Big Tech. Наряду с Великобританией, Соединенные Штаты также отказались подписать декларацию о том, чтобы сделать ИИ «безопасным для всех». 

Очевидно, что это событие было организовано для подавления инноваций в области ИИ в развивающихся странах и в то же время легитимизации использования ИИ в качестве оружия крупными державами.

РТ: «Принципы» Google, во-первых, установлены самой Google, являются добровольными и ни к чему не обязывающими ни к чему не подчиняются. Так что теоретически ничто не мешало компании просто продолжать любые исследования в области искусственного интеллекта, которые она хотела. Почему он почувствовал необходимость сделать его «официальным»?

Д-р Мэтью Маавак: Так называемые «принципы» Google никогда не определялись только компанией. Они были просто подачкой для общественного потребления, прекрасно заключенной в смехотворно циничном девизе: «Не будь злым».

Ее материнская компания Alphabet принадлежит обычным управляющим из Big Capital, таким как Vanguard, BlackRock, State Street и т. д. — все они являются частными подразделениями глубинного государства США.

Скриншот сделан 11 февраля 2025 г. (Мэтью Маавак)

Такая организация, как Google, не может проводить «какие-либо исследования в области искусственного интеллекта», поскольку ее деятельность должна соответствовать диктату ее основных заинтересованных сторон.

Google формализовал свою новую политику использования оружия в качестве оружия, потому что доля общественности в ее пироге собственности теперь практически отсутствует.

RT: Не пора ли разработать международные законы в отношении военного ИИ – как принципы Google до недавних изменений, но применимые?

Д-р Мэтью Маавак: Как я уже упоминал ранее, различные международные модели управления ИИ, все из которых в значительной степени являются факсимиле друг друга, были тайно сформулированы такими компаниями, как Google, Microsoft, Amazon и другими членами так называемых Tech Bros. Nations, которым просто дали иллюзию того, что они имеют долю в этой глобальной правовой и этической матрице ИИ.

Бюрократы просто штамповали все, что Big Tech продвигали через различных игроков и каналы.

В то же время несогласные с этой пародией систематически подвергались остракизму. Тем не менее, они могут в конечном итоге смеяться последними в предстоящем событии SHTF, связанном с искусственным интеллектом.

Здесь следует рассмотреть и другие неприятные вопросы: как определить «военное преступление ИИ» в рамках международного законодательства? Возможно ли вообще прийти к универсальному консенсусу?

Оператор вооруженного беспилотника, ответственного за уничтожение десятков мирных жителей, может списать катастрофу на сбой ИИ. Программное обеспечение, на котором работает сам дрон, может иметь алгоритмы, полученные от различных частных организаций по всему миру. Кто должен взять на себя вину в случае военного преступления?

Оператор, вендор, отвечающий за интеграцию программного обеспечения, или лицо, чей алгоритм был использован или адаптирован для таргетинга? На самом деле, это должна быть страна-антагонист, но никогда не делайте ставку на реституцию, если виновником окажутся Соединенные Штаты или близкий союзник, такой как Израиль.

И последнее, но не менее важное:

правительства по всему миру выступали в качестве соучастников использования Google ИИ для цензуры несогласных научных точек зрения и противоречивых результатов исследований во время так называемой пандемии COVID-19. Поступая таким образом, они фактически предоставили Big Tech постоянные рычаги для их шантажа.

Кроме того, что, по вашему мнению, способствует беспорядочным исследованиям биологического оружия в 400 с лишним американских военных лабораториях по всему миру? Эксперименты с микроорганизмами с усилением функций невозможны без искусственного интеллекта.

RT: Инструменты искусственного интеллекта в невоенных сферах жизни, таких как генерация текстов или изображений, все еще далеки от совершенства. Не рано ли полагаться на них в боевых действиях?

Д-р Мэтью Маавак: Создание текстов и изображений с помощью ИИ абсолютно точно может быть использовано для ведения боевых действий, и это уже становится серьезной проблемой в современных сценариях конфликтов.

Контент, созданный ИИ, может быть использован в качестве оружия с помощью текстов, созданных ИИ (пропаганда, дезинформация и т. д.); изображения/дипфейки, созданные искусственным интеллектом (например, для подрыва национального руководства/консенсуса); в частности, фальшивые разведданные (например, создание casus belli) и подделка коммуникаций (например, подрыв субординации). Возможности здесь просто безграничны!

Искусственный интеллект развивается в геометрической прогрессии. Вчерашняя научная фантастика – это завтрашняя реальность!

RT: Как недавно сообщила газета Washington Post, Google, по-видимому, предоставляет инструменты искусственного интеллекта для Армии обороны Израиля (ЦАХАЛ) с самого начала их кампании в Газе.

Может ли с этим быть связано изменение принципов искусственного интеллекта в компании?

Д-р Мэтью Маавак: Я очень сомневаюсь в этом. Использование ЦАХАЛом облачных вычислительных сервисов Google и связанных с ними инструментов (Amazon дразнили в качестве альтернативы), возможно, можно изобразить как каноническую отправную точку для превращения ИИ в оружие.

Но зачем ЦАХАЛу нужна многонациональная гражданская рабочая сила, базирующаяся в Соединенных Штатах, чтобы иметь доступ к ее военным операциям?

Если бы Google предоставил инструменты искусственного интеллекта ЦАХАЛу, он бы сделал это в соответствии с директивами глубинного государства США. Номинально гражданская организация не может в одностороннем порядке поставлять чувствительные инструменты ИИ для использования в военное время какой-либо иностранной державе, союзной или иной.

Логически говоря, участие Google в бойне в Газе должно привести к массовому бойкоту со стороны государств-членов Организации исламских государств (ОИС). Но этого никогда не произойдет, поскольку слишком много политиков, «технократов» и ученых в ОИС находятся под покровительством США. 

(Продолжающийся скандал с USAID – это лишь верхушка айсберга, показывающая масштабы международной подрывной деятельности). В блоке ОИС также практически отсутствуют гарантии заслуг, предвзятости и недискриминации, хотя они и являются столпами управления ИИ.

В целом, принципы ИИ в их нынешнем виде, будь то в гражданской или военной сферах, являются не более чем бумажным тигром.

 

RT: Опять же, что касается ЦАХАЛа, выяснилось, что многие жертвы среди гражданского населения в Газе, по-видимому, были результатом не плохих инструментов искусственного интеллекта, а халатного человеческого контроля. Возможно, военный ИИ, при правильном использовании, действительно может привести к более гуманной войне?

Д-р Мэтью Маавак: Честно говоря, я не думаю, что искусственный интеллект сыграл значительную роль в войне геноцида в Газе. Использование ИИ привело бы к целенаправленной военной кампании; А не безумный, запятнанный кровью мушкетон террора. Это не было «оплошностью», это было намеренно!

Сравните недавние действия Израиля в Газе с относительно профессиональной военной кампанией, которую он провел в том же районе в 2014 году, когда агентурная разведка (HUMINT) и электронная разведка (ELINT) играли большую роль по сравнению с искусственным интеллектом. Дискредитировал ли AI ЦАХАЛ или AI используется в качестве козла отпущения за военные преступления Израиля?

Однако более важный вопрос заключается в следующем: почему система безопасности границ ЦАХАЛа, координируемая искусственным интеллектом, не смогла обнаружить военную деятельность ХАМАСа в преддверии трансграничных атак 7 октября 2024 года?

Система оснащена несколькими датчиками и инструментами обнаружения на суше, море, в воздухе и под землей, что делает сбой еще более озадачивающим.

В конечном счете, ИИ используется в качестве оружия во всех аспектах человеческой жизни, включая религию, и американские Big Tech лидируют в этом направлении.

В конечном счете, при определенных обстоятельствах в будущем ИИ может быть использован в качестве судьи, присяжных и палача. Она может решать, кто достоин жить, а кто нет.

Мы действительно живем в интересное время, и ответственное.

Источник Доктор Мэтью Маавак

Оцените автора
( 5 оценок, среднее 5 из 5 )
R&M Статья по вам плачет!
Добавить комментарий

КаналТелеграм