►Читайте страницу «Минфина» в фейсбуке: главные финансовые новости
Новые правила
Правила устанавливают риск-ориентированный подход к ИИ и формулируют обязательства для разработчиков и пользователей ИИ в зависимости от уровня риска, который он может создавать.
Системы ИИ с неприемлемым уровнем риска безопасности людей будут строго запрещены. В эту группу войдут, например, системы, использующие подсознательные или целенаправленные манипулятивные методы, эксплуатирующие уязвимости людей или используемые для социальной оценки (классификация людей на основе их поведения, социально-экономического статуса, личных характеристик).
Парламент также уточнил список практик, запрещенных к искусственному интеллекту. В него вошли:
- удаленная биометрическая идентификация, в том числе в общественных местах в реальном времени, с исключением для правоохранительных органов и только после судебного разрешения;
- биометрическая категоризация с использованием чувствительных характеристик (например пол, раса, этническая принадлежность, гражданство, религия, политическая позиция);
- прогностические полицейские системы (основаны на профилировании, местонахождении или прошлом уголовном поведении);
- распознавание эмоций в правоохранительных органах, пограничных службах, на рабочих местах и в учебных заведениях;
- неизбирательное извлечение биометрических данных из социальных сетей или видеозаписей из камер видеонаблюдения для создания баз данных распознавания лиц (нарушение прав человека и права на неприкосновенность частной жизни).
Читайте: Как вложиться в искусственный интеллект: три стратегии инвестирования
Закон уточняет список АИ-систем «высокого риска». Согласно документу, это системы, которые могут потенциально нанести вред здоровью людей или окружающей среде. Сюда также входят системы искусственного интеллекта, которые используются для воздействия на избирателей в политических кампаниях и алгоритмов рекомендаций соцсетей.
Поставщики и разработчики «высокорискового» ИИ обязаны в соответствии с законом провести оценку риска и соответствия, зарегистрировать свои системы в европейской базе данных ИИ, обеспечить высокое качество данных, используемых для обучения ИИ, обеспечить прозрачность системы и информированность пользователей, а также обязательное наблюдение со стороны человека и возможность вмешательства в работу системы.
Читайте: Уоррен Баффет сравнил искусственный интеллект с атомной бомбой
Что касается «низкорискового» ИИ, такого как чат-боты, его поставщики обязаны информировать пользователей о том, что они взаимодействуют с ИИ, а не с человеком. Для генеративных моделей добавляется еще одно требование — сообщать пользователям, что контент создан нейросетью.
Конференция «Invest Talk Summit» Узнайте, как заработать на инвестициях в 2023—2024 годах! Подробности на сайте.
Промокод на 10% скидку: minfin10.
🕵️ Мы создали небольшой опрос, чтобы узнать больше о наших читателях.
💛💙 Ваши ответы помогут нам стать лучшими, уделять больше внимания темам, которые вам интересны.
🤗 Будем благодарны, если вы найдете минутку, чтобы ответить на наши вопросы .