| | | | |

Нива на риск в Закона за ИИ

ekranna snimka 2025 02 07 104353

Изкуственият интелект (ИИ) навлиза в съвременното общество с редица предизвикателства. С Регламент (ЕС) 2024/1689, известен като Закон за ИИ, се поставя правна рамка, която има за цел да гарантира надеждност и безопасност при използването на ИИ технологии в световен мащаб.

Правилата в него са с оглед рисковете и подкрепата на бъдещото му внедряване в ЕС, те ще влязат окончателно в сила през август 2025 г.

Законът определя четири нива на риск за системите с ИИ:

Неприемлив риск

Системите с неприемлив риск са забранени, тъй като представляват сериозна заплаха за правата и свободите на гражданите. В тази категория попадат:

  • Манипулация и измама, базирана на ИИ
  • Използване на уязвимости (например на деца или уязвими групи)
  • Социално точкуване (оценяване на хора въз основа на поведение или лични характеристики)
  • Прогнози за индивидуално престъпно поведение
  • Създаване или разширяване на бази данни за разпознаване на лица
  • Разпознаване на емоции на работното място и в образователни институции
  • Биометрична категоризация на определени защитени характеристики
  • Биометрична идентификация в реално време за целите на правоприлагането

Високорисковите ИИ системи

Високорисковите ИИ системи подлежат на строги регулации, тъй като могат да засегнат критични обществени сектори, като:

  • Критична инфраструктура (напр. транспорт, енергетика)
  • Оценяване на изпити и академични резултати
  • Робот-асистирана хирургия
  • Обществени услуги
  • Управление на миграцията и правоприлагането
  • Оценка на надеждността на доказателства и подпомагане на съдебни решения

За тези системи е предвиден преходен период до 2 август 2027 г., през който операторите трябва да се съобразят с новите изисквания.

Риск за прозрачност

ИИ системите, които не представляват пряка заплаха, но могат да повлияят на информираността на хората, попадат в тази категория. Според закона:

  • Генерираното от ИИ съдържание трябва да бъде етикирано
  • Хората трябва да бъдат информирани, когато взаимодействат с ИИ

Минимален или никакъв риск

В тази група влизат повечето ИИ приложения, които се използват в момента в ЕС, включително:

  • Видеоигри
  • Филтри за спам
  • Асистенти за автоматизация

Надзор и прилагане на закона

Държавите-членки на ЕС са задължени до 2 август 2025 г. да създадат национални надзорни органи, които ще следят за спазването на правилата. Освен това, управлението на Закона за ИИ ще бъде ръководено от три консултативни органа:

  1. Европейски борд за ИИ
  2. Научна група от експерти в областта на ИИ
  3. Консултативен форум, включващ заинтересовани страни (търговски и нетърговски)

 

Подобни статии