► Читайте телеграмм-канал «Минфина»: главные финансовые новости
«За» проголосовали 523 евродепутата 523, «против» — 46 и 49 воздержались.
Закон направлен на защиту фундаментальных прав, демократии, верховенства права и устойчивости окружающей среды от искусственного интеллекта, одновременно стимулируя инновации и утверждая Европу как лидера в этой области.
Регламент устанавливает обязательства для ИИ на основе его потенциальных рисков и уровня воздействия.
Запретные программы
Новые правила запрещают определенные приложения искусственного интеллекта, угрожающие правам граждан, включая системы биометрической категоризации на основе конфиденциальных характеристик и нецелевого сбора изображений лица из Интернета или записей камер видеонаблюдения для создания баз данных распознавания лиц.
Распознавание эмоций на рабочем месте и в школах, социальная оценка, «Predictive policing» (прогностическая полицейская деятельность) (если она основывается исключительно на профилировании личности или оценке ее характеристик), а также искусственный интеллект, манипулирующий человеческим поведением или использующий уязвимые места людей, также будет запрещено.
Исключения для правоохранительных органов
Использование биометрических систем идентификации (RBI) правоохранительными органами в принципе запрещено, за исключением исчерпывающе перечисленных и узко определенных ситуаций.
RBI «в реальном времени» может использоваться только при соблюдении строгих мер безопасности, например его использование ограничено по времени и географии, и для него необходимо специальное предварительное судебное или административное разрешение.
Такие виды использования могут включать, например, целенаправленный поиск пропавшего или предотвращение террористического нападения. Использование таких систем постфактум считается случаем использования с высоким риском, требующим судебного разрешения, связанного с уголовным преступлением.
Обязательства для систем высокого риска
Четкие обязательства также предусмотрены для других систем искусственного интеллекта с высоким риском (из-за их значительного потенциального вреда для здоровья, безопасности, основных прав, окружающей среды, демократии и верховенства права).
Примеры использования искусственного интеллекта с высоким риском включают критическую инфраструктуру, образование и профессиональную подготовку, трудоустройство, основные частные и государственные услуги (например, здравоохранение, банки), определенные системы правоохранительных органов, управление миграцией и границами, правосудие и демократические процессы (например, влияние на выборы)
Такие системы должны оценивать и уменьшать риски, вести журналы использования, быть прозрачными и точными и обеспечивать надзор со стороны человека.
Граждане будут иметь право подавать жалобы на системы искусственного интеллекта и получать объяснения относительно решений, основанных на системах высокого риска искусственного интеллекта, влияющих на их права.
Требования к прозрачности
Системы искусственного интеллекта общего назначения и модели, на которых они базируются, должны соответствовать определенным требованиям прозрачности, включая соблюдение законодательства ЕС об авторском праве и публикацию детальных резюме содержимого, используемого для обучения.
Кроме того, искусственные или поддельные изображения, аудио- или видеоконтент («дипфейки») должны быть четко обозначены как таковые.
Что дальше
Закон должен быть официально одобрен