Нива на риск в Закона за ИИ

Изкуственият интелект (ИИ) навлиза в съвременното общество с редица предизвикателства. С Регламент (ЕС) 2024/1689, известен като Закон за ИИ, се поставя правна рамка, която има за цел да гарантира надеждност и безопасност при използването на ИИ технологии в световен мащаб.
Правилата в него са с оглед рисковете и подкрепата на бъдещото му внедряване в ЕС, те ще влязат окончателно в сила през август 2025 г.
Законът определя четири нива на риск за системите с ИИ:
Неприемлив риск
Системите с неприемлив риск са забранени, тъй като представляват сериозна заплаха за правата и свободите на гражданите. В тази категория попадат:
- Манипулация и измама, базирана на ИИ
- Използване на уязвимости (например на деца или уязвими групи)
- Социално точкуване (оценяване на хора въз основа на поведение или лични характеристики)
- Прогнози за индивидуално престъпно поведение
- Създаване или разширяване на бази данни за разпознаване на лица
- Разпознаване на емоции на работното място и в образователни институции
- Биометрична категоризация на определени защитени характеристики
- Биометрична идентификация в реално време за целите на правоприлагането
Високорисковите ИИ системи
Високорисковите ИИ системи подлежат на строги регулации, тъй като могат да засегнат критични обществени сектори, като:
- Критична инфраструктура (напр. транспорт, енергетика)
- Оценяване на изпити и академични резултати
- Робот-асистирана хирургия
- Обществени услуги
- Управление на миграцията и правоприлагането
- Оценка на надеждността на доказателства и подпомагане на съдебни решения
За тези системи е предвиден преходен период до 2 август 2027 г., през който операторите трябва да се съобразят с новите изисквания.
Риск за прозрачност
ИИ системите, които не представляват пряка заплаха, но могат да повлияят на информираността на хората, попадат в тази категория. Според закона:
- Генерираното от ИИ съдържание трябва да бъде етикирано
- Хората трябва да бъдат информирани, когато взаимодействат с ИИ
Минимален или никакъв риск
В тази група влизат повечето ИИ приложения, които се използват в момента в ЕС, включително:
- Видеоигри
- Филтри за спам
- Асистенти за автоматизация
Надзор и прилагане на закона
Държавите-членки на ЕС са задължени до 2 август 2025 г. да създадат национални надзорни органи, които ще следят за спазването на правилата. Освен това, управлението на Закона за ИИ ще бъде ръководено от три консултативни органа:
- Европейски борд за ИИ
- Научна група от експерти в областта на ИИ
- Консултативен форум, включващ заинтересовани страни (търговски и нетърговски)