Еврокомиссия опубликовала «Предложения о регулировании искусственного интеллекта на основе европейского подхода» (Proposal for a Regulation on a European approach for Artificial Intelligence) – документ, который декларирует необходимость полного запрета на применение систем искусственного интеллекта (ИИ) в ряде случаев.
Объявлены следующие цели регулирования ИИ в Евросоюзе:
- обеспечить, чтобы ИИ-системы на рынке ЕС были безопасны и соответствовали закону об основных правах и ценностях Евросоюза;
- обеспечить правовую определённость использования ИИ-систем, чтобы содействовать инвестициям и инновациям в области ИИ;
- усовершенствовать регулирование, обеспечить эффективное соблюдение существующего законодательства об основных правах и требованиях безопасности применительно к ИИ-системам;
- способствовать развитию единого, нефрагментированного рынка законных, безопасных и надёжных ИИ-систем.
Европа стремится стать сверхдержавой в вопросах этики, морали и кибербезопасности в связи с разработкой и использованием ИИ. Ничего другого ей, впрочем, не остаётся, поскольку ЕС существенно (возможно, даже безнадёжно) отстаёт в развитии технологий ИИ от Китая и США, и в области ИИ может рассматриваться даже как киберколония.
Мнение профессора, директора «Центра Сколтеха» по научным и инженерным вычислительным технологиям для задач с большими массивами данных Максима Фёдорова, участника европейской конференции 2019 года, посвящённой влиянию ИИ на права человека, демократию и верховенство права таково:
Благополучную развитую Европу, привыкшую к жизни по веками совершенствовавшимся, устоявшимся правилам, более всего заботит, как сохранить статус-кво в обстановке, быстро меняющейся под давлением новых технологий, в частности, ИИ. Жить по-старому в новых условиях – негласный девиз Евросоюза. Подтверждается это, например, тем, что государственное финансирование ИИ-исследований в ЕС гораздо скромнее того, что тратят на ИИ США и Китай
Впрочем, тем больше оснований изучить европейский опыт разработки законов об ИИ, регулирования ИИ-систем с упором на достижение этических целей и обеспечение прав человека.
«Предложения о регулировании искусственного интеллекта на основе европейского подхода» содержит прямые запреты на использование ИИ-систем при определённых условиях и для определённых целей, за нарушение которых компании могут получить штраф в размере до 6% их глобальной выручки.
Прежде всего запрет касается «удалённой биометрической идентификации» в режиме реального времени в общедоступных местах для целей правоохранительной деятельности (речь о видеонаблюдении и технологии распознавания лиц). Однако упоминание режима реального времени, а также оговорка «если не применяются определённые ограниченные исключения» позволяют предположить, что полиция не будет стеснена в возможностях использовать ИИ-системы для слежки за гражданами. Поскольку есть «ограниченные исключения», есть и возможность прописать в этих исключениях всё, что желательно полиции. Например, если нельзя распознавать лица в реальном времени – значит, видео можно записать, а потом его проанализировать.
Полный и безусловный запрет распознавания лиц в реальном времени в общественных местах был бы гарантией от повторения скандалов, подобных тем, которые случились про вине американской компании Clearview AI. Однако Еврокомиссия не сумела ввести этот запрет на ранней стадии разработки законодательства об ИИ – хотя и намеревалась, судя по сообщениям, предшествовавшим публикации документа.
Ранее имели место попытки использовать для запрета систем распознавания GPPR европейский закон о защите персональных данных. В 2018 году в Швеции регулятор оштрафовал одну из школ, где ученики добровольно согласились на применение системы распознавания лиц для контроля посещаемости.
Под запрет попали также следующие применения ИИ:
- присвоение человеку «социальных кредитных баллов», ограничивающее его доступ к банковским кредитам и иным ресурсам – по произволу машины, без принятия решения другим человеком;
- любое использование ИИ-систем, способное причинить физический вред людям (например, неконтролируемое врачом назначение лечения ИИ-системой);
- манипулирование поведением людей с помощью «подсознательных сигналов» (насколько люди некритично воспринимают прочитанное в социальных сетях и насколько подвержены влиянию, свидетельствуют результаты многих исследований).
Представлявшая документ еврокомиссар по вопросам конкуренции Маргрете Вестагер заявила: «Мы запрещаем это вообще, поскольку считаем просто неприемлемым», пишет The Verge.
Принцип «если не запрещено, то разрешено» в отношении ИИ-систем в Европе действовать не будет: документ распределяет ИИ-системы по уровням риска для человека, определяя для каждого уровня свои ограничения. На нижнем уровне находятся ИИ-системы, работа которых непосредственно с людьми не связана. Таковы, например, самообучающиеся системы фильтрации спама – для них и подобных им систем новое регулирование не будет применяться вообще.
Второй уровень – ИИ-системы ограниченного риска: например, чат-боты для заказа билетов или технологии, потенциально применимые для создания deep fake. Регулирование таких систем предусмотрено и будет разработано.
Высший уровень – высокорискованные ИИ-системы, управляющие критически важными механизмами, непосредственно влияющие на материальные аспекты жизни людей и на их здоровье. Именно на таких системах документ и сосредоточен. Пример высокорискованных ИИ-систем – беспилотные автомобили.
Для таких ИИ-систем декларируется обязательное использование высококачественных обучающих данных (цель – минимизировать риск «предвзятости», то есть фиксации в ИИ-системе не обязательно правильной практики, сложившейся к моменту обучения нейросети), обязательный «надзор» со стороны людей, подробное документирование, позволяющее регулятору и гражданам понять, как «рассуждает» ИИ. В первую очередь это относится к ИИ-системам, непосредственно взаимодействующим с людьми.
Новый документ Еврокомиссии при ближайшем рассмотрении не содержат ничего нового, ничего такого, о чём не было бы сказано ранее специалистами или примкнувшими к ним представителями других организаций, далёких от науки и технологий. Его ценность состоит в самом факте их появления, в попытке кодифицировать в юридически значимом тексте этические принципы использования обслуживающих человека машин, способных к самостоятельному принятию решений.
Документ ставит, но ещё не решает такую задачу. Для создания действующих законов об ИИ потребуются, очевидно, годы.
Читайте АВ Клуб в Telegram