MORVANTINE
Legal Advisory25 min read

Руководство по соблюдению Регламента ЕС об ИИ для компаний за пределами ЕС: обязательства, классификация рисков и правоприменение

Практическое руководство по соблюдению Регламента ЕС об ИИ (Регламент (ЕС) 2024/1689) для компаний за пределами ЕС, которые используют, развёртывают или продают системы ИИ на европейских рынках. Классификация рисков, обязательства поставщиков и операторов, оценки соответствия, запрещённые практики и правоприменение Офиса ИИ ЕС — с практическими рекомендациями для главных юрисконсультов, технических директоров и директоров по комплаенсу.

Morvantine Legal Editorial Team

20 October 2025

Руководство по соблюдению Регламента ЕС об ИИ для компаний за пределами ЕС: обязательства, классификация рисков и правоприменение

Регламент (ЕС) 2024/1689 — Акт ЕС об искусственном интеллекте (AI Act) — вступил в силу 1 августа 2024 года и с тех пор применяется поэтапно. 2 февраля 2025 года вступил в силу запрет практик ИИ с неприемлемым риском. 2 августа 2025 года заработали система регулирования моделей ИИ общего назначения (GPAI) и институциональная структура Офиса ИИ ЕС. Обязательства в отношении систем ИИ высокого риска по Приложению III применяются с 2 августа 2026 года. Главный юрисконсульт или директор по комплаенсу любой организации, которая разрабатывает, развёртывает или реализует продукты ИИ на рынках ЕС, больше не может воспринимать Акт об ИИ как перспективное регулирование. Это действующее право с работающими механизмами правоприменения.

Наиболее значимой архитектурной особенностью Акта об ИИ — и наименее понятой компаниями за пределами ЕС — является его экстерриториальное действие. В отличие от первого поколения европейского регулирования продукции, которое достигало экстерриториального эффекта преимущественно через условия доступа к рынку, Акт об ИИ прямо устанавливает обязательства для организаций, зарегистрированных за пределами Европейского союза. Настоящая статья содержит практический анализ этих обязательств, системы классификации рисков, определяющей их сферу применения, различных требований к комплаенсу поставщиков и операторов, процедуры оценки соответствия и механизмов правоприменения, функционирующих в рамках Офиса ИИ ЕС.


Экстерриториальное действие: кто попадает под регулирование и каким образом

Географическая сфера применения Акта об ИИ определена статьёй 2(1), устанавливающей четыре самостоятельных основания юрисдикции. Регламент применяется к:

(a) поставщикам, выводящим системы ИИ на рынок ЕС или вводящим их в эксплуатацию в ЕС, вне зависимости от того, зарегистрированы ли эти поставщики в ЕС;

(b) поставщикам и операторам систем ИИ, зарегистрированным в ЕС;

(c) поставщикам систем ИИ, зарегистрированным в третьей стране, если выходные данные системы используются в ЕС; и

(d) операторам систем ИИ, зарегистрированным в третьей стране, если выходные данные системы используются в ЕС.

Практические последствия для американской технологической компании, предлагающей платформу подбора персонала на основе ИИ, японского производителя, продающего систему контроля качества с применением машинного зрения, или канадской финтех-компании, предоставляющей европейским кредиторам кредитные решения на основе ИИ, — идентичны: если выходные данные системы ИИ используются в ЕС, компания входит в регуляторный периметр Акта об ИИ — вне зависимости от места регистрации, расположения серверов или наличия представительства в ЕС.

Эта конструкция не является простым воспроизведением критерия «таргетирования» из статьи 3(2) GDPR. В ряде аспектов она шире: Акт об ИИ не требует активного таргетирования пользователей из ЕС. Определяющим критерием является использование выходных данных в ЕС. Система, разработанная и эксплуатируемая исключительно в третьей стране, проданная компании с местонахождением в ЕС и производящая данные, потребляемые сотрудниками в ЕС или клиентами — резидентами ЕС, подпадает под экстерриториальные положения, даже если зарубежный поставщик никогда не рассматривал ЕС в качестве основного рынка.

Статья 2 также возлагает обязательства на импортёров (статья 23) — организации, зарегистрированные в ЕС и выводящие на рынок ЕС системы ИИ, несущие наименование или товарный знак организации, зарегистрированной за пределами ЕС, — и дистрибьюторов (статья 24). Для поставщиков из третьих стран импортёр принимает на себя значительную долю обязательств по соблюдению требований, которые в противном случае лежали бы на поставщике, в том числе — проверку того, что поставщик провёл необходимую оценку соответствия, что система ИИ имеет маркировку CE там, где это предусмотрено, и что техническая документация, требуемая статьёй 11, доступна. Это создаёт зависимость по комплаенсу в цепочке поставок: поставщики из-за пределов ЕС, стремящиеся сохранить своих импортёров в ЕС как жизнеспособных партнёров по дистрибуции, должны поставлять соответствующие требованиям системы и документацию.

Акт об ИИ содержит ограниченное исключение по статье 2(2) для систем ИИ, выводимых на рынок, вводимых в эксплуатацию или используемых исключительно в военных, национальной безопасности или оборонных целях. Деятельность в области научных исследований и разработок также изъята из сферы применения по статье 2(6) при соблюдении определённых условий. Эти изъятия являются узкими и требуют положительного подтверждения — они не применяются автоматически к системам ИИ двойного назначения с гражданскими и оборонными приложениями.


Классификация на основе риска: архитектура обязательств

Требования к комплаенсу по Акту об ИИ не являются единообразными. Они откалиброваны в соответствии с четырёхуровневой классификацией рисков, которая определяет, какие обязательства применяются, с какой интенсивностью и с какими последствиями в части санкций. Классификация определяется предназначением системы и вариантом использования, в котором она развёртывается, а не самой технологией или маркетинговым описанием.

Система классификации рисков

Уровень рискаРегуляторный режимПримерыОсновные применимые положения
Неприемлемый риск (Запрещено)Абсолютный запрет — вывод на рынок, ввод в эксплуатацию и использование — всё запрещеноБиометрическая идентификация в режиме реального времени в общественных местах (с ограниченными исключениями); социальный скоринг публичными органами; сублиминальные манипуляции; эксплуатация уязвимостей отдельных групп; предиктивная полицейская деятельность исключительно на основе профилирования; ИИ, выводящий чувствительные атрибуты из биометрических данных в правоохранительных целяхСтатья 5; санкции до 35 млн евро или 7% мирового годового оборота
Высокий риск (Приложение I — безопасность продукции)Полная оценка соответствия; маркировка CE; обязательное участие нотифицированного органа для отдельных категорийИИ в качестве компонента безопасности в: медицинских изделиях (Регламент (ЕС) 2017/745); диагностических медицинских изделиях in vitro (Регламент (ЕС) 2017/746); авиации (Регламент (ЕС) 2018/1139); машинном оборудовании (Регламент (ЕС) 2023/1230); автомобильной отрасли (правила ЕЭК ООН)Статьи 8–25; Глава I, Раздел III; Приложение I
Высокий риск (Приложение III — вариант использования)Оценка соответствия (преимущественно внутренняя, в ряде случаев — третьей стороной); регистрация в базе данных ЕС; постмаркетинговый мониторингСистемы биометрической идентификации; ИИ в управлении критической инфраструктурой; оценка в области образования и профессиональной подготовки; занятость, управление персоналом и трудовыми ресурсами; доступ к основным услугам (кредит, страхование, социальные льготы); правоохранительная деятельность; миграция/убежище/пограничный контроль; правосудие; демократические процессыСтатьи 8–25; Глава II, Раздел III; Приложение III
Модели GPAIТехническая документация; соблюдение авторского права; прозрачность; меры по системным рискам для моделей с ≥10²⁵ FLOPsБольшие языковые модели, мультимодальные базовые модели (серии GPT, Gemini, Claude, Llama, Mistral)Статьи 51–56; Глава II, Раздел VIII
Ограниченный риск (прозрачность)Только обязательства по раскрытию информацииЧат-боты; системы распознавания эмоций; биометрическая категоризация; дипфейки и синтетические медиаСтатья 50
Минимальный рискНикаких обязательных требований (поощряются добровольные кодексы поведения)Спам-фильтры с ИИ, ИИ в видеоиграх, базовые рекомендательные системы без существенного влияния на решенияСтатья 95 (добровольные меры)

Приложение III: варианты использования, затрагивающие большинство компаний за пределами ЕС

Перечень Приложения III является практическим ориентиром для большинства технологических компаний за пределами ЕС. Он охватывает восемь сфер, в каждой из которых определены варианты использования, отнесённые к высокому риску:

1. Биометрическая идентификация и категоризация — системы ИИ, предназначенные для дистанционной биометрической идентификации физических лиц, за исключением верификации, при которой физическое лицо самостоятельно подтверждает свою личность. Это охватывает системы распознавания лиц при онбординге клиентов, верификацию личности в финансовых услугах и контроль доступа.

2. Критическая инфраструктура — системы ИИ, предназначенные для использования в качестве компонентов безопасности в управлении или эксплуатации критической цифровой инфраструктуры, дорожного движения, а также систем энергоснабжения, водоснабжения, газоснабжения и теплоснабжения. Поставщики облачных услуг, предлагающие услуги ИИ-управляемой инфраструктуры операторам основных услуг в ЕС, подпадают под данную категорию.

3. Образование и профессиональная подготовка — системы ИИ, используемые для определения доступа или распределения в образовательные учреждения, оценки результатов обучения и мониторинга учащихся во время экзаменов. EdTech-компании с институциональными клиентами в ЕС должны классифицировать свои системы ИИ для оценивания и надзора за экзаменами как высокорисковые.

4. Занятость, управление трудовыми ресурсами и доступ к самозанятости — системы ИИ, используемые для подбора и отбора персонала, оценки производительности и поведения, принятия решений о повышении и распределения задач на основе индивидуального поведения или личностных характеристик. HR-платформы на основе ИИ — системы отслеживания кандидатов с ИИ-оценкой, инструменты управления производительностью, ИИ для планирования персонала — прямо входят в сферу применения. Это категория, вызывающая наибольший интерес со стороны правоприменителей в 2025–2026 годах.

5. Доступ к основным частным услугам и льготам — системы ИИ, используемые кредитными организациями, страховыми компаниями и органами социального обеспечения для оценки кредитоспособности, оценки страховых рисков и определения доступа к социальным льготам и экстренным службам. Кредитный скоринг на основе ИИ является коммерчески наиболее значимым применением в данной категории.

6. Правоохранительная деятельность — ИИ для индивидуальных оценок риска, полиграфов, оценки достоверности доказательств, оценки риска рецидивизма и криминального профилирования. Ограничивается публичными органами в большинстве государств-членов, однако поставщики таких систем правоохранительным органам ЕС несут обязательства поставщиков.

7. Управление миграцией, убежищем и пограничным контролем — ИИ для обработки миграционных заявлений, оценки угроз безопасности или здоровью, автоматизированного принятия решений при обработке виз и мониторинга границ ЕС.

8. Отправление правосудия и демократические процессы — ИИ для содействия судам, применения права к фактам и влияния на результаты выборов. Инструменты юридических исследований на базе ИИ, развёртываемые судами ЕС или в судебных процессах ЕС, входят в сферу применения.


Обязательства поставщиков и операторов: структурное разграничение

Акт об ИИ устанавливает принципиальное регуляторное разграничение между поставщиками — организациями, разрабатывающими систему ИИ и выводящими её на рынок или вводящими в эксплуатацию — и операторами — организациями, использующими систему ИИ под собственную ответственность в профессиональных целях. Для компаний за пределами ЕС крайне важно понимать, какая роль применяется в той или иной конфигурации цепочки поставок, поскольку бремя комплаенса существенно асимметрично.

Обязательства поставщика (статьи 8–25)

Поставщики систем ИИ высокого риска несут первичные и наиболее обременительные обязательства по Акту об ИИ. Для поставщиков из-за пределов ЕС эти обязательства возникают в силу статьи 2(1)(a) и (c) и не могут быть переданы по договору зарегистрированным в ЕС операторам (хотя импортёры разделяют ряд обязательств по статье 23).

Основные обязательства поставщика:

Система управления рисками (статья 9): Непрерывный итерационный процесс управления рисками, который выявляет разумно предсказуемые риски для здоровья, безопасности и основных прав; оценивает эти риски; принимает меры по их снижению; и документирует остаточные риски. Это не единовременная оценка рисков, а операционная система, которая должна поддерживаться в актуальном состоянии на протяжении всего жизненного цикла системы ИИ.

Данные и управление данными (статья 10): Системы ИИ высокого риска, использующие обучающие данные, должны обучаться, проверяться и тестироваться на данных, отвечающих критериям качества в части релевантности, репрезентативности, отсутствия ошибок и полноты. Требования к управлению данными по Акту об ИИ прямо обязывают проверять обучающие данные на наличие потенциальных предвзятостей. Для систем ИИ, обучаемых на наборах данных, включающих персональные данные резидентов ЕС, пересечение с требованиями к оценке воздействия на защиту данных по статье 35 GDPR требует скоординированной системы комплаенса.

Техническая документация (статья 11 и Приложение IV): Поставщики обязаны подготовить и поддерживать техническую документацию до вывода системы ИИ высокого риска на рынок. Приложение IV устанавливает обязательное содержание: описание системы и предполагаемое назначение; элементы и архитектура; процесс разработки и методологии обучения; метрики и пороговые значения производительности; известные риски; меры по обеспечению точности, надёжности и кибербезопасности; план постмаркетингового мониторинга. Для поставщиков из-за пределов ЕС, снабжающих импортёров в ЕС, эта документация должна быть доступна органам национального рыночного надзора и Офису ИИ ЕС по запросу.

Автоматическое ведение журналов (статья 12): Системы ИИ высокого риска должны быть разработаны для автоматического формирования журналов своей работы — как минимум фиксирующих период каждого использования, входные данные и любые решения на выходе — в технически осуществимой мере. Эти журналы являются основным аудиторским следом для постдеплойментного мониторинга и расследований.

Прозрачность и информирование операторов (статья 13): Системы ИИ высокого риска должны быть разработаны таким образом, чтобы их работа была достаточно прозрачной для операторов, позволяя им интерпретировать выходные данные системы и использовать их надлежащим образом. Инструкции по эксплуатации — которые должны сопровождать каждую систему ИИ высокого риска — должны содержать конкретную информацию о предполагаемом назначении системы, уровне производительности, предсказуемых сценариях ненадлежащего использования, технических мерах, доступных операторам, и требуемых мерах по обеспечению надзора со стороны человека.

Надзор со стороны человека (статья 14): Системы ИИ высокого риска должны быть разработаны для обеспечения эффективного надзора со стороны физических лиц в период использования. Это конструктивное требование с содержательными характеристиками: система должна быть разработана так, чтобы лицо, ответственное за надзор, могло понимать возможности и ограничения системы, выявлять аномалии и неисправности, а также вмешиваться с целью отмены, прерывания или остановки системы. Требование к надзору со стороны человека по Акту об ИИ пересекается с требованием к вмешательству человека в автоматизированное принятие решений по статье 22(3) GDPR, однако не идентично ему — оба требования должны выполняться одновременно для систем ИИ, производящих юридические или аналогичные последствия для физических лиц.

Точность, надёжность и кибербезопасность (статья 15): Системы ИИ высокого риска должны достигать соответствующих уровней точности, надёжности и кибербезопасности на протяжении всего жизненного цикла. Метрики и пороговые значения точности должны быть задокументированы в технической документации. Акт требует, чтобы системы демонстрировали стабильную производительность при предсказуемых вариациях входных данных и были устойчивы к состязательным атакам.

Система менеджмента качества (статья 17): Поставщики обязаны внедрить систему менеджмента качества, охватывающую полный жизненный цикл систем ИИ высокого риска: разработку, тестирование, оценку соответствия, постмаркетинговый мониторинг и управление несоответствиями. СМК должна быть соразмерна размеру и характеру деятельности поставщика; для поставщиков нескольких систем ИИ высокого риска Акт поощряет создание единой СМК.

Оценка соответствия (статья 43): До вывода системы ИИ высокого риска на рынок ЕС или ввода в эксплуатацию поставщик обязан завершить оценку соответствия, подтверждающую, что система соответствует требованиям статей 8–15. Для большинства систем по Приложению III это внутренняя оценка соответствия на основе собственных процедур поставщика; оценка третьей стороной через нотифицированный орган обязательна для систем биометрической идентификации (с ограниченными исключениями) и систем ИИ — компонентов безопасности регулируемых продуктов по законодательству Приложения I. По завершении поставщик обязан составить Декларацию о соответствии ЕС по статье 47 и нанести маркировку CE по статье 48.

Регистрация в базе данных ИИ ЕС (статья 49): Поставщики систем ИИ высокого риска, перечисленных в Приложении III, обязаны зарегистрировать систему в публичной базе данных ИИ ЕС до вывода на рынок. База данных фиксирует предполагаемое назначение системы, метрики точности и производительности, применённую процедуру оценки соответствия и план постмаркетингового мониторинга.

Обязательства оператора (статья 26)

Операторы систем ИИ высокого риска несут существенно более лёгкий, но не пренебрежимый набор обязательств. Для компаний за пределами ЕС, развёртывающих — а не разрабатывающих — системы ИИ для профессионального использования, ориентированного на ЕС, статья 26 определяет минимальные требования комплаенса:

  • Использовать систему ИИ в соответствии с инструкциями по эксплуатации, предоставленными поставщиком (статья 26(1)).
  • Обеспечивать наличие у физических лиц, ответственных за надзор со стороны человека, компетенций, подготовки и полномочий, необходимых для эффективного осуществления надзора (статья 26(2)).
  • Осуществлять мониторинг работы системы ИИ на основе инструкций по эксплуатации и сообщать о серьёзных инцидентах поставщику и соответствующему национальному компетентному органу (статья 26(5)).
  • Проводить оценку воздействия на основные права (ОВОР) до развёртывания системы ИИ высокого риска в вариантах использования, связанных с правоохранительной деятельностью, миграцией, отправлением правосудия, основными частными услугами и занятостью (статья 27, применяется к органам публичного права и некоторым частным операторам).
  • Информировать представителей работников и затронутых работников до развёртывания систем ИИ в контексте занятости и управления трудовыми ресурсами (статья 26(7)).

Обязательство оператора по сообщению о серьёзных инцидентах создаёт важную зависимость в цепочке поставок: операторы за пределами ЕС должны поддерживать операционные возможности для выявления, оценки и сообщения об инцидентах с участием резидентов ЕС или в операциях, ориентированных на ЕС, в установленные национальными компетентными органами государств-членов, в которых сообщается об инциденте, сроки.

Когда граница между поставщиком и оператором смещается

Акт об ИИ содержит ключевое положение — статью 25(1) — по которому оператор становится поставщиком в регуляторных целях, когда он:

  • выводит систему ИИ высокого риска на рынок под своим именем или торговой маркой;
  • вносит в существующую систему ИИ высокого риска существенные изменения, достаточные для изменения её предполагаемого назначения; или
  • изменяет систему ИИ, не являющуюся высокорисковой, таким образом, что она становится высокорисковой.

Для компаний за пределами ЕС, реализующих системы ИИ под собственным брендом (белый ярлык), дообучающих базовые модели на проприетарных данных для конкретных ориентированных на ЕС сценариев использования или интегрирующих компоненты ИИ в продукты, продаваемые под собственным брендом в ЕС, статья 25(1) является ловушкой переклассификации. Анализ обязательств следует не корпоративной структуре цепочки поставок, а вопросу о том, кто существенно формирует систему ИИ, выходящую на рынок ЕС.


Оценки соответствия: процедура и практические последствия

Процедура оценки соответствия является процессуальным центральным элементом архитектуры комплаенса по Акту об ИИ. Её цель — до развёртывания установить, что система ИИ высокого риска соответствует содержательным требованиям статей 8–15. Процедура существенно различается в зависимости от того, относится ли система ИИ к Приложению I или Приложению III.

Системы Приложения III (большинство коммерческих систем ИИ): Процедура оценки соответствия по умолчанию является внутренней — поставщик проводит оценку по собственным задокументированным процедурам. Правовым основанием служат статья 43(2) и Приложение VI. Поставщик обязан: проверить техническую документацию на соответствие каждому требованию статей 8–15; задокументировать методологию и результаты оценки; составить Декларацию о соответствии ЕС с перечнем применимых требований и подтверждением соответствия; хранить техническую документацию и результаты оценки соответствия в течение десяти лет с момента вывода на рынок.

Исключение из процедуры внутренней оценки применяется к системам ИИ, используемым для биометрической идентификации физических лиц. В силу статьи 43(1) и Приложения VII эти системы подлежат оценке соответствия третьей стороной аккредитованным нотифицированным органом. Нотифицированные органы по Акту об ИИ — это национальные органы по аккредитации, назначенные в соответствии с Регламентом (ЕС) № 765/2008. Европейская комиссия ведёт базу данных NANDO нотифицированных органов; по состоянию на начало 2026 года инфраструктура нотифицированных органов для целей Акта об ИИ на национальном уровне ещё формируется.

Системы Приложения I (ИИ — компонент безопасности): Эти системы ИИ подлежат процедурам оценки соответствия, предписанным законодательством о безопасности продукции, в соответствии с которым сертифицируется регулируемый продукт. Для медицинского изделия, включающего диагностический компонент ИИ, оценка соответствия осуществляется по процедурам Приложения IX или Приложения X Регламента о медицинских изделиях (Регламент (ЕС) 2017/745). Требования Акта об ИИ включаются в существующую отраслевую оценку соответствия через общие требования к безопасности и эксплуатационным характеристикам.

Существенное изменение: Когда поставщик вносит в систему ИИ высокого риска изменение, квалифицирующееся как «существенное изменение» по статье 83(5) — изменение, влияющее на предполагаемое назначение или производительность системы способами, которые могут нарушить соответствие требованиям — оценка соответствия должна быть повторена для изменённой системы. Это имеет существенные последствия для систем ИИ, обновляемых через непрерывное обучение, дообучение или переобучение: каждый цикл обновления должен быть оценён на соответствие порогу существенного изменения.

Для поставщиков из-за пределов ЕС без персонала в ЕС практические трудности с управлением оценками соответствия, ведением технической документации в форматах, доступных для ЕС, и ответами на запросы национальных органов побудили большинство консультантов по комплаенсу рекомендовать назначение уполномоченного представителя в ЕС по статье 22. Этот субъект — который должен быть зарегистрирован в ЕС, уполномочен в письменной форме и зарегистрирован вместе с системой в базе данных ИИ ЕС — выступает в роли правового контактного лица для национальных компетентных органов и Офиса ИИ ЕС и несёт остаточную ответственность за соблюдение требований в случае бездействия поставщика.


Запрещённые практики: красные линии, действующие с февраля 2025 года

Статья 5 Акта об ИИ устанавливает перечень практик ИИ, которые запрещены абсолютно — не как высокорисковые на условиях, а как запрещённые без исключений. Эти положения вступили в силу 2 февраля 2025 года, что делает их наиболее непосредственно актуальными обязательствами для любого бизнеса с активными развёртываниями ИИ, затрагивающими рынок ЕС.

К запрещённым практикам относятся:

Сублиминальная манипуляция (статья 5(1)(a)): Системы ИИ, применяющие сублиминальные техники, выходящие за пределы осознания человека, или явно манипулятивные или вводящие в заблуждение техники, существенно искажающие поведение таким образом, что причиняется вред. Этот запрет выходит за рамки чисто сублиминальных техник и охватывает управляемую ИИ убеждающую архитектуру, носящую обманный характер или эксплуатирующую психологические уязвимости.

Эксплуатация уязвимостей (статья 5(1)(b)): Системы ИИ, эксплуатирующие уязвимости отдельных групп — лиц с ограниченными возможностями, детей, пожилых людей — таким образом, что их поведение искажается и причиняется вред. Это положение непосредственно касается систем ИИ, развёртываемых в социальных сетях, игровой индустрии, потребительском кредитовании и цифровом здравоохранении, использующих техники персонализации и поведенческого подталкивания (нёджинга) для пользователей этих категорий.

Социальный скоринг (статья 5(1)(c)): Системы ИИ, используемые публичными органами или от их имени для оценки или классификации физических лиц в течение определённого периода на основе их социального поведения или известных, выведенных или предсказанных личностных характеристик таким образом, что это влечёт неблагоприятное отношение, не связанное с контекстом, в котором были сгенерированы данные. Этот запрет нацелен на государственные системы социального скоринга, вызвавшие озабоченность в международном правозащитном дискурсе, однако его сфера охватывает частных субъектов, действующих на основании делегирования государственных полномочий.

Биометрическая идентификация в режиме реального времени дистанционно (RTRBI) в общественных местах (статья 5(1)(d)): Это запрет, с наибольшей вероятностью затрагивающий коммерческие технологические развёртывания. Системы ИИ, используемые для биометрической идентификации в режиме реального времени дистанционно — прежде всего распознавания лиц — в общедоступных пространствах в правоохранительных целях, запрещены, за исключением трёх узких случаев: поиск конкретных пропавших лиц и жертв торговли людьми; предотвращение конкретных, существенных и неминуемых угроз жизни; идентификация исполнителей тяжких уголовных преступлений. За пределами этих правоохранительных исключений RTRBI в общественных местах запрещена. Коммерческие развёртывания распознавания лиц в доступных для публики торговых объектах, транспортных узлах или развлекательных заведениях полностью подпадают под данный запрет.

Предиктивная полицейская деятельность исключительно на основе профилирования (статья 5(1)(e)): Системы ИИ, используемые правоохранительными органами для индивидуальных оценок риска с единственной целью предсказать вероятность совершения лицом преступления на основе профилирования или оценки черт личности.

Нецелевый скрейпинг для баз данных распознавания лиц (статья 5(1)(f)): Системы ИИ, создающие или расширяющие базы данных распознавания лиц посредством нецелевого скрейпинга из Интернета или видеозаписей систем видеонаблюдения. Это положение прямо адресовано модели Clearview AI по формированию биометрических баз данных из скрейпированных изображений.

Распознавание эмоций на рабочем месте и в учебных заведениях (статья 5(1)(g)): Системы ИИ, используемые для определения эмоций физических лиц в контексте рабочего места и учебных заведений. Данный запрет охватывает инструменты мониторинга вовлечённости на основе ИИ, выводящие эмоциональные состояния из выражений лиц, речевых паттернов или физиологических сигналов в профессиональных или образовательных условиях.

Биометрическая категоризация по чувствительным атрибутам (статья 5(1)(h)): Системы ИИ, индивидуально категоризирующие физических лиц на основе биометрических данных в целях выведения или дедуктивного определения расы, политических взглядов, членства в профсоюзе, религиозных или философских убеждений, сексуальной жизни или сексуальной ориентации. Этот запрет применяется к системам ИИ, использующим анализ лиц или другие биометрические сигналы для вывода этих атрибутов — включая системы ИИ, применяющие такие выводы в качестве маркетинговых сигналов.

Любая система ИИ, подпадающая под один из этих запретов, должна быть немедленно выведена с рынка ЕС и из ориентированного на ЕС сервиса, вне зависимости от того, когда она была разработана и на каких условиях поставлена клиентам в ЕС. Проверки соответствия, выявляющие запрещённую практику, должны влечь немедленное приостановление операций, а не составление плана исправления.


Правоприменение Офиса ИИ ЕС: институциональная архитектура

Офис ИИ ЕС — учреждённый в рамках Европейской комиссии Решением Комиссии (ЕС) 2024/1143 — является центральным органом по обеспечению соблюдения обязательств в отношении моделей GPAI и координатором более широкой экосистемы правоприменения по Акту об ИИ. Его роль в отношении систем ИИ высокого риска носит преимущественно надзорный характер по отношению к национальным органам, а не прямого правоприменения; однако для поставщиков моделей GPAI Офис ИИ является основным регулятором.

Органы рыночного надзора (ОРН): В отношении систем ИИ высокого риска основное правоприменение осуществляется национальными органами рыночного надзора, назначенными каждым государством-членом по статье 74. Государства-члены должны были назначить ОРН до 2 августа 2025 года. Большинство крупных экономик ЕС назначили действующих регуляторов: в Германии — Федеральное сетевое агентство и профильные органы; во Франции — CNIL и Конкурентное ведомство делят функции ОРН со структурой DNUM (Direction du numérique); в Ирландии функция ОРН разделена между ComReg и специальным назначением по ИИ в рамках DCCAE; в Испании специально для правоприменения по Акту об ИИ создана AESIA (Agencia Española de Supervisión de la Inteligencia Artificial), действующая с конца 2024 года.

Следственные полномочия (статья 74 и далее): Национальные ОРН обладают широкими следственными полномочиями: доступ к системам ИИ, обучающим данным, документации и исходному коду (при соблюдении гарантий конфиденциальности); полномочие требовать тестирования систем ИИ и проверки базовых наборов данных; полномочие вводить корректирующие меры; и полномочие налагать административные штрафы.

Санкции (статья 99): Структура санкций по Акту об ИИ является ступенчатой:

  • Нарушение запретов статьи 5: до 35 миллионов евро или 7% мирового годового оборота, в зависимости от того, что выше.
  • Нарушение обязательств, применимых к поставщикам, импортёрам, дистрибьюторам и операторам систем ИИ высокого риска по статьям 8–15, 25–27 и требованиям к регистрации и документации: до 15 миллионов евро или 3% мирового годового оборота, в зависимости от того, что выше.
  • Предоставление неверной, неполной или вводящей в заблуждение информации нотифицированным органам или компетентным органам: до 7,5 миллиона евро или 1% мирового годового оборота, в зависимости от того, что выше.

Для МСП и стартапов штрафы ограничены меньшей из абсолютного или процентного потолков. Для крупных транснациональных технологических компаний, как правило, применяется процентный потолок — а 7% мирового годового оборота превышает крупнейший штраф в истории GDPR для любой компании с годовым доходом свыше примерно 17 миллиардов евро.

Офис ИИ обладает дополнительной юрисдикцией по правоприменению в отношении поставщиков моделей GPAI по статьям 88–94, включая полномочие проводить оценки моделей, выносить обязывающие корректирующие меры и налагать штрафы в размере до 15 миллионов евро или 3% мирового годового оборота за несоблюдение обязательств GPAI.


Практические рекомендации для корпоративных юристов

1. Проведите немедленную инвентаризацию систем ИИ на предмет запретов статьи 5 — а не только высокорисковой классификации.

Запрещённые практики применяются с 2 февраля 2025 года. Любая система ИИ в вашем портфеле, взаимодействующая с пользователями из ЕС, должна быть проверена на соответствие каждому из восьми запретов статьи 5 до продолжения эксплуатации. Особое внимание следует уделить: инструментам распознавания эмоций, используемым в HR или клиентоориентированных контекстах; системам распознавания лиц или биометрической категоризации, применяемым в доступных для публики торговых объектах, транспортных узлах или развлекательных заведениях ЕС; и системам ИИ, использующим техники убеждающего дизайна, направленным на уязвимые группы. Привлеките межфункциональную команду (правовая служба, технологии, продукт) для проведения оценки — юридический анализ зависит от понимания того, что система ИИ реально делает на техническом уровне, а не что говорится в описании продукта.

2. Составьте карту цепочки поставок ИИ, чтобы определить, являетесь ли вы поставщиком, оператором или обоими в каждом контексте, ориентированном на ЕС.

Набор регуляторных обязательств существенно отличается для поставщиков и операторов и меняется при срабатывании триггеров переклассификации статьи 25(1). Для каждой системы ИИ, которую вы разрабатываете, поставляете или используете в деятельности, ориентированной на ЕС, документируйте: кто её обучил и является владельцем технической документации; кто выводит её на рынок ЕС или вводит в эксплуатацию; квалифицировалось ли дообучение, интеграция или продажа под белым ярлыком кем-либо из участников цепочки как существенное изменение; и кто несёт обязательства на каждом уровне. Это картирование следует обновлять при каждом обновлении системы или изменении модели дистрибуции.

3. Назначьте уполномоченного представителя в ЕС, если вы являетесь поставщиком систем ИИ высокого риска за пределами ЕС.

Статья 22 обязывает поставщиков систем ИИ высокого риска из-за пределов ЕС назначить уполномоченного представителя в ЕС до вывода своих систем на рынок ЕС. Уполномоченный представитель должен быть зарегистрирован в ЕС, уполномочен в письменной форме и зарегистрирован вместе с системой в базе данных ИИ ЕС. Представитель несёт солидарную ответственность за соблюдение Акта об ИИ наряду с поставщиком. Выбор надлежащего представителя — обладающего операционными возможностями для ответа на запросы национальных органов в короткие сроки и юридической экспертизой для управления документацией по соответствию требованиям — должен осуществляться с той же строгостью, что и привлечение представителя ЕС по GDPR.

4. Интегрируйте пересечение обязательств GDPR и Акта об ИИ в единую интегрированную систему управления.

Системы ИИ высокого риска, обрабатывающие персональные данные, одновременно подчиняются Акту об ИИ и GDPR, имеющим пересекающиеся, но не идентичные обязательства. Оценка воздействия на защиту данных, требуемая статьёй 35 GDPR для автоматизированной обработки, потенциально влекущей высокий риск, должна координироваться с системой управления рисками Акта об ИИ по статье 9, технической документацией по статье 11 и — для операторов — оценкой воздействия на основные права по статье 27 Акта об ИИ. Проведение этих процедур раздельно создаёт дублирование и риск несоответствий. Юридические команды должны разработать единый протокол управления ИИ, охватывающий оба нормативных инструмента, с чётко закреплённой ответственностью за каждое обязательство и общим картированием потоков данных, служащим как для целей ОВПД, так и для документальных требований Акта об ИИ.

5. Готовьтесь к волне правоприменения по Приложению III 2 августа 2026 года с конкретным графиком и структурой ответственности.

Обязательства в отношении систем ИИ высокого риска для вариантов использования Приложения III вступили в силу 2 августа 2026 года. Для организаций, ещё не завершивших оценки соответствия, не собравших техническую документацию, не зарегистрировавших системы в базе данных ИИ ЕС и не внедривших СМК, требуемую статьёй 17, срочность является немедленной. Назначьте поимённого руководителя проекта по комплаенсу с Актом об ИИ в юридическом или комплаенс-подразделении, установите график с жёсткими сроками для каждого результата и предусмотрите соответствующий бюджет на проверку технической документации третьими сторонами и, при необходимости, оценку нотифицированным органом. Стоимость надлежащей программы оценки соответствия существенно ниже стоимости регуляторного расследования — а органы рыночного надзора по ИИ по всему ЕС заявили об активных намерениях в области правоприменения применительно к волне Приложения III.


Заключение

Акт об ИИ устанавливает всеобъемлющую архитектуру комплаенса для любой организации — где бы та ни была зарегистрирована — участвующей в разработке, поставке или развёртывании систем ИИ, чьи выходные данные достигают рынка ЕС. Для компаний за пределами ЕС экстерриториальные положения статьи 2 исключают возможность регуляторной дистанции. Запрещённые практики статьи 5 уже действуют, обязательства GPAI статей 51–56 применяются с августа 2025 года, а все обязательства в отношении систем ИИ высокого риска по Приложению III теперь подлежат принудительному исполнению.

Путь к соответствию является технически требовательным, но структурно ясным: классифицировать каждую систему ИИ по уровням риска, определить роль поставщика/оператора в каждой цепочке дистрибуции, завершить необходимые оценки соответствия до развёртывания, поддерживать техническую документацию на протяжении всего жизненного цикла системы и внедрить структуры управления — управление рисками, менеджмент качества, постмаркетинговый мониторинг — демонстрирующие непрерывное соответствие, а не единовременную сертификацию.

Офис ИИ ЕС и национальные органы рыночного надзора располагают следственными инструментами, правовыми основаниями и заявленной институциональной приверженностью для применения этих обязательств к субъектам за пределами ЕС. Структура санкций, откалиброванная как процент от мирового годового оборота, гарантирует, что масштаб деятельности не обеспечивает регуляторного иммунитета. Для главного юрисконсульта или директора по комплаенсу, консультирующего международные советы директоров, Акт об ИИ — не будущий проект. Это сегодняшнее обязательство по комплаенсу.


Правовая оговорка: Настоящая статья предназначена исключительно для информационных и образовательных целей. Она не является юридической консультацией и не создаёт отношений адвокат-клиент. Анализ отражает текст Регламента (ЕС) 2024/1689, имплементирующие меры и общедоступные руководства по состоянию на дату публикации. Применение Акта об ИИ к конкретным фактам и системам требует квалифицированной юридической консультации специалистов в области европейского регулирования ИИ. Читателям не следует действовать на основании настоящей статьи без получения независимой профессиональной консультации, адаптированной к их конкретным обстоятельствам.

Нужна специализированная консультация по соответствию требованиям Акта об ИИ для вашей компании? Свяжитесь с нашей командой.

Need expert advice on this topic?

Our team at Morvantine specializes in exactly these issues. Get in touch for a consultation.

Get in Touch