Проекты

Новости


Архив новостей

Опрос

Какой проект интересней?

Инновационное образование и технологическое развитие

Рабочие материалы прошедших реакторов

Русская онтологическая школа

Странник

Ничего не интересно


Видео-галерея

Фотогалерея

Подписка на рассылку новостей

 

Искусственный интеллект – это и риски, и возможности.



В военном деле предстоит умело распорядиться третьей революционной инновацией после изобретения пороха и ядерного оружия.

Успехи технологий машинного интеллекта и искусственных нейронных сетей открывают путь к созданию сверхмощной интеллектуальной системы, которую принято называть искусственным интеллектом (ИИ). Ведущие мировые державы, в том числе и Россия, начали реализацию национальных стратегий развития ИИ.


Широкое внедрение технологий искусственного интеллекта способно обеспечить государствам существенные экономические преимущества через повышение эффективности производства, усилить научный потенциал, обеспечить безопасность в информационной сфере и превосходство в обычных видах вооружений.

Но, как и любая технология двойного назначения, ИИ несёт в себе не только выгоды, но и риски, причём риски общепланетарного масштаба, особенно если произойдёт монополизация ключевых технологий в одной из держав, если ИИ станет оружием психологической и информационной войны или кибервойны. «Если кто-то сможет обеспечить монополию в сфере искусственного интеллекта, то последствия нам всем понятны – тот станет властелином мира», – заявил Президент России Владимир Путин на совещании по вопросам развития технологий ИИ.

Увы, но реалии таковы: современный мир объективно живёт в состоянии гибридной войны, которая ведётся за гегемонию, за ресурсы и за сохранение контроля над финансами, торговлей и технологиями, с одной стороны, и за многополярность и собственное будущее – с другой.

В этой ситуации опора на ядерное сдерживание – спасение. На сегодняшний день – а это признано и нашими оппонентами – Россия в состоянии нанести неприемлемый для них ущерб, потому вероятность прямого «горячего» конфликта маловероятна. Но по этой же причине основными «средствами поражения» для ослабления противника становятся торможение его технологического развития, экономические санкции, манипулирование информацией, кибервоздействие, а также создание разномасштабной нестабильности.

Одновременно развитие собственных технологий искусственного интеллекта и использование его в целях национальной безопасности и обороны позволяют компенсировать мощь противника на стратегических направлениях.
Именно поэтому считается, что ИИ – это третья революционная инновация в военном деле после изобретения пороха и ядерного оружия.

США стремятся занять лидирующие позиции в исследовании ИИ и применении его для разработки кибероружия и автономных видов вооружений, которые можно использовать как для наблюдения за противником, так и для нападения. Активно работает в этом направлении и Китай.

Ряд экспертов, бизнесменов и представителей IT-компаний призывают запретить разработку любых видов вооружений и автономных технологий, использующих ИИ, рассказывая о том, что ИИ в конечном итоге уничтожит человечество.
В ближайшие несколько лет все ведущие державы будут втянуты в гонку инновационных вооружений, потому что любое техническое отставание от потенциальных противников увеличивает уязвимость, прикрыть которую обычными конвенциональными видами вооружений будет очень сложно.

На самом деле бояться «военного» ИИ пока не нужно. Принятие стратегических решений и команды высокого уровня по-прежнему останутся в ведении людей, а робототехникой и автономным оружием будут укомплектованы оперативно-тактические звенья. Министр обороны РФ генерал армии Сергей Шойгу подчёркивал, что сегодня главной задачей в сфере кадрового обеспечения армии и ОПК является преодоление не столько количественного, сколько квалификационного дефицита.

К сожалению, с момента распада СССР из системы образования системно выхолащивались фундаментальные естественно-научные дисциплины, знание которых обеспечивает базу компетенций в разработках ИИ. Образование сегодня – это в том числе сфера обеспечения национальной безопасности. Ситуация здесь тревожная.

Проект Военного инновационного технополиса ЭРА, реализацию которого по решению главы государства проводит Министерство обороны, направлен на решение этой проблемы. Но это лишь первый шаг.

Искусственный интеллект – это не только роботы и автоматизированные системы, это ещё и кибероружие и кибершпионаж. Безграничные кибервозможности – это сейчас основные риски таких технологий.

«Искусственный интеллект и машинное обучение будут иметь преобразующее влияние на кибербезопасность и кибервойны… Кибератаки станут комплексными и крайне опасными», – говорится в докладе «Искусственный интеллект и национальная безопасность» вашингтонского центра стратегических и международных исследований (The Center for Strategic and International Studies, CSIS).

Учитывая повсеместный переход на цифровизацию, масштабы последствий кибератак будут постоянно расти, как и бюджеты на киберзащиту и противодействие.

«Охота за уязвимостями» будет настолько хорошо автоматизирована, что условная третья мировая война может свершиться в течение нескольких секунд, если одно государство с помощью технологий ИИ возьмёт под контроль все основные системы жизнеобеспечения стран-соперников.

Очевидно, что в сфере государственно­го управления, как и в области обороны, управленческие решения на высшем уровне – это компетенция политического руководства страны. Внедрение ИИ в систему управления существенно расширит возможности оперативного сбора и анализа информации общественного харак­тера, что позволит при­нимать социально-экономические решения и формировать определённые аспекты во внутренней политике.

Однако надо понимать, что ИИ может выступить не только как советник и помощник, но и как «цифровой Мефистофель». ИИ, включённый в технологии государственного управления, становится инструментом внутренней политики и может привести как к укреплению государственной власти, так и к её разрушению.

Неготовность к внедрению или ошибки при создании ИИ таят в себе серьёзные угрозы. И во многом сегодня опасность искусственного или машинного интеллекта сосредоточена в области компетенций, а вовсе не в использовании ИИ в беспилотниках или в танках.

Очевидны риски ИИ в сфере информации и в киберпространстве. ИИ уже скоро будет способен создавать «фейковые новости», размещать поддельные пресс-релизы на сайтах правительств и центробанков, формировать искусственную реальность в режиме онлайн, менять видеоконтент телепередач и взламывать аккаунты соцсетей и распространять там специальную информацию, для того чтобы влиять на сознание граждан и заставлять политиков принимать «нужные» решения. Инновационные достижения в области ИИ несут не только благо для экономик, но и риски спровоцировать реальный конфликт между странами. И в этом заключается серьёзная опасность новых технологий.

И ещё о рисках с сугубо российской спецификой… Объявленная в РФ программа тотальной цифровизации местами, увы, очень напоминает гонку «за бюджетами», куда стремятся все кому не лень. Это порождает дополнительные риски национальной безопасности. Суть – в порочной практике, когда победы в тендерах госзакупок порой достаются не компетентным научно-производственным организациям, а тем компаниям, где «эффективный менеджмент» обладает связями и натренирован добежать до бюджетных денег быстрее всех остальных. Подобная практика в случае с искусственным интеллектом может иметь страшные последствия, и это даже не по­теря времени и миллиардов руб­лей– угроза в том, что технологии ИИ ошибок не прощают и исправить ничего не дадут. Это не ал­горитмы, которые можно перезапустить.

Необходима как государственная экспертиза самих проектов, подразумевающих использование технологий ИИ, так и выстроенная система тестирования для обнаружения возможных ошибок, умышленных вкладок и сбоев. И поскольку речь идёт о безо­пасности государства, такую экспертизу на межведомственном уровне (Совбез России) следует поручить компетентным силовым органам РФ, где должны быть созданы специализированные подразделения для контроля рисков и лицензирования технологий ИИ.

Но самое главное, о чём сейчас должны задуматься российские политики, государство и бизнес, это о масштабах инвестиций в исследования, о стимулировании разработок в научных институтах РАН и исследовательских центрах (таких как, например, «Курчатовский институт»), в ведущих технических вузах, в частных корпорациях и в том же Технополисе ЭРА. Следует стимулировать и поддерживать взаимодействие промышленных предприятий с IT-компаниями и лабораториями, выстраивать международную кооперацию со всеми заинтересованными странами. И конечно же уделять максимальное внимание качественному школьному и высшему образованию.

Мы должны предвидеть последствия применения новых технологий ИИ как в экономике и общественной жизни, так и «на поле боя» (гибридного боя в том числе), чётко прогнозировать проблемы, которые ожидаются в будущих конфликтах, и способствовать формированию систем минимизации ущерба и управления рисками.

Без всего этого Россия не сможет создать необходимые компетенции и укрепить свой потенциал в сфере кибербезопасности и национальной безопасности в целом.

Андрей ИЛЬНИЦКИЙ,
Александр ЛОСЕВ