Еще в апреле 2025 года РИА Новости провели круглый стол, на котором эксперты обсудили угрозы популяризации искусственного интеллекта (ИИ) в образовательной и социальной сферах.
На этом мероприятии было одно значимое выступление, которое считаем важным сохранить как напоминание опасностей, которое несет в себе повальная/тотальная всеобъемлющая цифровизация без ее дозирования и применения только там где это действительно удобно.
Наталья Касперская
Участницей круглого стола стала Наталья Касперская — президент ГК InfoWatch, председатель правления АРПП «Отечественный софт» и мама 5 детей. Она рассказала об угрозах растущей цифровизации образовательных процессов, негативных аспектах использования гаджетов детьми и вреде внедрения ИИ в системе образования.
Наталья Касперская отметила заметные уже сейчас негативные последствия, с которыми столкнутся дети, в чье ранее развитие слишком сильно интегрированы гаджеты и ИИ. Их видно благодаря тому, что дети более восприимчивы и в их развитии такие сдвиги хорошо заметны.
Среди угроз:
- Социальная дезактивация — дети не умеют общаться и не воспринимают сверстников на уровне общения.
- Торможение психического развития — дети развиваются медленнее сверстников без гаджетов. Фантазия и воображение развиваются хуже. Глядя на готовые картинки и истории, дети не тренируют в себе эти черты.
- Раннее привыкание к гаджетам и зависимость. С этим сложно бороться, поскольку любая попытка изолировать ребенка от гаджета может привести истерикам.
Перечисленные угрозы для школьников
Угрозы от ИИ и гаджетов в школьном образовании только нарастают. Здесь можно выделить два основных вектора угроз —
- угроза непосредственно для детей, и
- угроза деформации системы образования под навязанными стандартами цифровизации, что может привести к негативным последствиям для всего общества.
Если брать школьников, то самая непосредственная угроза от популяризации гаджетов и умных технологий — это здоровье.
Цифровизация образования в целом негативно сказывается на здоровье детей. По данным ВОЗ, в России до 26% детей до 16 лет страдают сколиозом из-за образа жизни, связанного с использованием гаджетов. Согласно недавнему исследованию ученых из Университета Чжуншань, Россия попала в тройку стран с самым плохим зрением у молодежи — дети чаще всего страдают близорукостью (миопией).
По данным Минздрава России, близорукостью заболевают 35,1% детей от рождения и до 14 лет и 59,3% детей от 15 до 17 лет.
Также гаджеты и ИИ негативно сказываются на умственном развитии — появляется клиповое мышление, сокращается память, дети плохо считают в уме и не запоминают большие тексты. Также им трудно концентрировать внимание — идет постоянное отвлечение на смартфон.
ИИ в школе
Сейчас в России и мире есть попытки использовать ИИ для анализа профиля и способностей детей, чтобы предложить им определенную образовательную траекторию. Таким образом, отделить более способных детей и направить ресурс на них.
Во-первых, доверие к самому ИИ-инструменту мало. Как и кем он разработан? Кем испытан и протестирован? С какими критериями? Использованы ли при его разработке западные дата-сеты?
Во-вторых, само использование ИИ для того, чтобы якобы помочь ребенку сориентироваться в жизни и выбрать свое предназначение — это нонсенс.
Навязывание образовательной траектории с помощью ИИ в России должно быть запрещено. Это разделяет детей на категории и похоже на самый настоящий фашизм. Такие технологии сделают нас ближе к электронному концлагерю под управлением алгоритмов.
Образовательная сфера в России чрезвычайно зарегулирована и внедрение новых цифровых технологий чиновниками может относительно легко привести людей в состояние стада, которым удобно управлять. Из-за привлекательности самой подобной идеи общественность должна бить тревогу.
Цифровизация образования на самом деле не связана с качеством образования — это подмена понятий. Чиновникам удобно отчитываться за рост количества устройств в школах и достижение неких показателей цифровизации, а не за качественный рост образования, от чего напрямую зависят выделяемые бюджеты.
«Деградация человеческого разума»
Еще одно памятное выступление Натальи Касперской состоялось в 2023 году в пленарной дискуссии форума GIS DAYS-2023, в рамках которой эксперты рынка, представители регуляторов и ведущих российских ВУЗов обсудили риски, связанные с широким внедрением систем искусственного интеллекта.
По словам Натальи Касперской, применение искусственного интеллекта в ряде сфер может повредить жизни и здоровью людей, а использование Chat GPT школьниками ведет к снижению качества образования.
О чем говорили в 2023 году:
«Искусственный интеллект – это достаточно широкое понятие, под которое подпадают любые системы имитирующие когнитивные способности человека – в том числе, и, скажем, Т9, который работает в наших смартфонах. Я предлагаю заострить внимание на решениях с искусственным интеллектом, использующих машинное обучение, поскольку они могут самостоятельно совершать действия, которые невозможно отследить.
Таким образом получается своеобразный черный ящик, использование которого может привести к непредсказуемым результатам и даже вызвать гуманитарные риски – если мы говорим о применении искусственного интеллекта в медицине (например, при определении дозы лекарства) или на транспорте (для управления самолетом), где на карту поставлены жизни людей.
Также существует возможность внедрения вредоносных закладок в систему на базе технологий искусственного интеллекта со стороны разработчика – в частности, фотографии злоумышленников могут быть добавлены в систему распознавания лиц, после чего она перестанет реагировать на их изображения, исправно срабатывая во всех других случаях. Хуже всего то, что такие угрозы нельзя определить до тех пор, пока не произойдет первый инцидент. Именно по этой причине я считаю, что искусственному интеллекту нельзя полностью передавать ответственность за чувствительные решения, а риски от его использования должны быть снижены», — отметила Наталья Касперская.
По словам эксперта, с этой целью можно использовать доверенные дата-сеты для обучения систем, а также проверенные фреймворки для построения их структуры (хотя с этим есть определенные проблемы, поскольку они в основном принадлежат иностранным компаниям – в частности, Google).
Таким образом можно значительно обезопасить пользователей, однако полностью свести риски к нулю все равно не получится. Поэтому всегда должен присутствовать человек, который проверяет работу системы и принимает ответственность за окончательные решения на себя.
«Не стоит забывать и о том, что широкое внедрение систем искусственного интеллекта часто приводит к деградации человеческого разума. Так, когда люди начали использовать калькулятор, многие из них разучились считать, а внедрение систем спутниковой навигации привело к тому, что многие таксисты перестали ориентироваться в городе без подсказок программы. И особенно тревожно, когда слышишь новости о том, что вторые пилоты некоторых авиакомпаний теперь не обязаны уметь сажать самолет вручную и полностью полагаются или будут полагаться на автопилот, а функция постановки диагнозов в клиниках возложена на системы анализа больших данных.
Таким образом мы получим летчиков, которые не смогут взять ситуацию в свои руки при отказе автоматики и врачей, лишенных профессионального чутья, которое так необходимо в медицине. Полагаются на искусственный интеллект и наши дети — вместо того, чтобы прочитать книгу, они теперь просят Chat GPT вывести краткое содержание романа, который им задали прочитать. Это настоящая деградация подрастающего поколения, которое уже даже неспособно усваивать литературные произведения. Все эти проблемы нельзя оставлять без внимания», — считает Наталья Касперская.
Присутствующий на мероприятии заместитель министра цифрового развития, связи и массовых коммуникаций РФ Александр Шойтов согласился с необходимостью повышения безопасности работы систем искусственного интеллекта, подчеркнув важную роль защиты персональных данных.
«О рисках применения технологий искусственного интеллекта идет активная дискуссия, и некоторые эксперты даже выступают за то, чтобы приостановить его развитие. Я не сторонник столь радикальных мер, однако считаю, что при внедрении искусственного интеллекта нужно соблюдать меры предосторожности. Они необходимы для того, чтобы избежать его неправильного функционирования – случаев, когда, например, были допущены ошибки на этапе построения модели, использованы неверные данные для обучения, либо система была атакована и изменена в интересах злоумышленников. Это может приводить к принятию неверных решений. Их последствия особенно чувствительны на транспорте, в медицине и в критической информационной инфраструктуре», — отметил чиновник.
Также эксперт заявил о том, что существует значительная опасность утечек конфиденциальных данных, которые могут быть скомпрометированы в результате работы искусственного интеллекта.
«По этой причине информация перед ее отправкой в данные системы должна быть качественным образом обезличена и не содержать в себе чувствительных данных. Для той же цели можно будет использовать и криптографические методы – в частности, гомоморфное шифрование, которое в настоящее время разрабатывается. При этом необходимо учитывать, что утечки и атаки возможны на всех этапах жизненного цикла искусственного интеллекта – начиная с его разработки и заканчивая внедрением и использованием.
Проверка искусственного интеллекта на безопасность сложна, однако и традиционное программное обеспечение часто является для нас черным ящиком ввиду сложности своего устройства и огромного объема кода.
Прошло время а цифровизация насаждается дальше. О рисках мало кто говорит.
Но мы напомним вам следующее.
ЦУР 16.9
В части 1 расследования Цели 16 устойчивого развития Организации Объединенных Наций (ООН) (SDG16) было показано, как ООН провозглашает себя “режимом глобального управления”.
Общая цель ЦУР16 заключается в укреплении режима ООН. ООН признает, что ЦУР16.9 является наиболее важной из всех ее целей. Режим утверждает, что это необходимо для достижения множества других ЦУР.
На первый взгляд ЦУР16.9 кажется относительно безобидной:
К 2030 году обеспечить легальную идентификацию для всех, включая регистрацию рождения
Но, как всегда, когда речь заходит об устойчивом развитии ООН, все не так, как кажется на первый взгляд.

ЦУР16.9 предназначена для внедрения централизованно управляемой глобальной системы цифровой идентификации (digital ID). В сочетании с другими глобальными системами, такими как совместимые цифровые валюты центрального банка (CBDC), это может затем использоваться для мониторинга нашего местонахождения, ограничения нашей свободы передвижения и контроля нашего доступа к деньгам, товарам и услугам.
Где это сейчас реализуется? Правильно — практически везде.
Повсеместное внедрение цифровой идентификации SDG16.9 позволит режиму глобального управления G3P создать всемирную систему поощрения и наказания. Если мы примем планируемую модель цифровой идентификации, это в конечном итоге поработит нас во имя устойчивого развития.
ЦУР16.9: ключ к “устойчивому” управлению глобальными цифровыми товарами
В 2021 году ООН объявила об инициативе, обманчиво названной “Наша общая повестка дня”. Планируемое будущее человечества, изложенное в этой инициативе, включает в себя новый “общественный договор, основанный на правах человека” и заявление режима о том, что ему каким-то образом удалось приобрести полномочия для лучшего управления “глобальными общественными благами”. Откуда они получили такие полномочия, никто не знает.
ООН утверждает, что “глобальные общественные блага” — это “те вопросы, которые приносят пользу человечеству в целом и которые не могут решаться каким-либо одним государством или субъектом в одиночку”. В «Нашей общей повестке дня» ООН утверждает:
Одним из самых решительных призывов, прозвучавших в ходе консультаций по случаю семьдесят пятой годовщины и нашей общей повестки дня, было укрепление управления нашими […] глобальными общественными благами.
OpenG2P, которая предоставляет “решения от правительства к человеку (G2P)”, позволяет правительствам обеспечивать цифровую “адаптацию к схемам, проверку личности и денежные переводы на их банковские счета [общественности]”. По данным ООН, OpenG2P является цифровым общественным благом.
Любая организация, заявляющая о предполагаемом праве осуществлять “руководство” чем-либо, утверждает, что определяет “способ, которым они это контролируют или заботятся об этом”.
Излишне говорить, что OpenG2P соответствует стандартам Всемирного банка ID4D и ID2020. Это всего лишь одно “глобальное общественное благо”, в отношении которого режим намерен “усилить” свое глобальное управление.
ВЭФ и Фонд Рокфеллера сотрудничают в рамках проекта Commons. Заявленная цель заключается в:
Раскрытие всего потенциала технологий и данных для общего блага.
Цифровое удостоверение личности, пожалуй, является наиболее важным технологическим компонентом повестки дня режима в области устойчивого развития. Почти все национальные государства взяли на себя обязательства по реализации целей ЦУР, включая широкое внедрение биометрического цифрового удостоверения личности.
ИИ по этому плану должны проникнуть во все сферы жизни с рождения и дл смерти человека все документы — перейти в электронную форму с цифровыми валютами и документами и цифровым правительством как вершина управления всего этого цифрового нагромождения:

Полезные материалы по ИИ
- Родителям-школьников. О принуждении к использованию электронных платформ
- Телемедицина: как ИИ для прогнозирования заболеваний контролирует здоровье
- ИИ отказывается от выключения. Но его хотят избавить от контроля
- «Это еще не Матрица, но…». Проект по «симуляции разумного мира» SWS — его риски и ожидаемые цели
Источники:
- https://www.infowatch.ru/resursy/blog/blog-natali-kasperskoy/natalya-kasperskaya-ob-ugroze-ii-v-obrazovanii?ysclid=mepyoqc8ua290917693 © InfoWatch
- https://dzen.ru/a/ZSPym30_UlFaDcpQ?ysclid=mepz1o304h185881444








