►Читайте телеграмм-канал«Мінфіну»: головні фінансові новини
«За» проголосували 523 євродепутати 523, «проти» — 46 та 49 утрималися.
Зазначається, що закон спрямований на захист фундаментальних прав, демократії, верховенства права та стійкості навколишнього середовища від штучного інтелекту, одночасно стимулюючи інновації та утверджуючи Європу як лідера в цій галузі.
Регламент встановлює зобов’язання для ШІ на основі його потенційних ризиків і рівня впливу.
Заборонені програми
Нові правила забороняють певні застосунки штучного інтелекту, які загрожують правам громадян, включно з системами біометричної категоризації на основі конфіденційних характеристик і нецільового збирання зображень обличчя з Інтернету або записів камер відеоспостереження для створення баз даних розпізнавання облич.
Розпізнавання емоцій на робочому місці та в школах, соціальна оцінка, «Predictive policing» (прогностична поліцейська діяльність) (якщо вона ґрунтується виключно на профілюванні особи чи оцінці її характеристик), а також штучний інтелект, який маніпулює людською поведінкою або використовує вразливі місця людей, також буде заборонено.
Винятки для правоохоронних органів
Використання біометричних систем ідентифікації (RBI) правоохоронними органами в принципі заборонено, за винятком вичерпно перелічених і вузько визначених ситуацій.
RBI «в реальному часі» може використовуватись лише за умови дотримання суворих заходів безпеки, наприклад його використання обмежене за часом і географією, і для нього необхідний спеціальний попередній судовий або адміністративний дозвіл.
Такі види використання можуть включати, наприклад, цілеспрямований пошук зниклої особи або запобігання терористичному нападу. Використання таких систем постфактум вважається випадком використання з високим ризиком, який потребує судового дозволу, пов’язаного з кримінальним злочином.
Зобов'язання для систем високого ризику
Чіткі зобов’язання також передбачені для інших систем штучного інтелекту з високим ризиком (через їх значну потенційну шкоду для здоров’я, безпеки, основних прав, навколишнього середовища, демократії та верховенства права).
Приклади використання штучного інтелекту з високим ризиком включають критичну інфраструктуру, освіту та професійну підготовку, працевлаштування, основні приватні та державні послуги (наприклад, охорона здоров’я, банки), певні системи правоохоронних органів, управління міграцією та кордонами, правосуддя та демократичні процеси (наприклад, вплив на вибори).
Такі системи повинні оцінювати та зменшувати ризики, вести журнали використання, бути прозорими та точними та забезпечувати нагляд з боку людини.
Громадяни матимуть право подавати скарги на системи штучного інтелекту та отримувати пояснення щодо рішень, заснованих на системах високого ризику штучного інтелекту, які впливають на їхні права.
Вимоги до прозорості
Системи штучного інтелекту загального призначення і моделі, на яких вони базуються, мають відповідати певним вимогам щодо прозорості, включаючи дотримання законодавства ЄС про авторське право та публікацію детальних резюме вмісту, який використовується для навчання.
Крім того, штучні або підроблені зображення, аудіо- чи відеоконтент («дипфейки») повинні бути чітко позначені як такі.
Що далі
Закон має бути офіційно схвалений Радою ЄС. Після чого він набуде чинності через 20 днів після його публікації в офіційному журналі.