Назад

EП е готов да преговаря за правилата за безопасен и прозрачен изкуствен интелект


  • След като бъдат одобрени, те ще бъдат първите правила за изкуствения интелект (ИИ) в света
  • Пълна забрана на използването на изкуствения интелект за биометрично наблюдение, разпознаване на емоции, профилиране от полицията
  • Системите с генеративен ИИ, като ChatGPT, трябва да указват, че съдържанието е генерирано от изкуствен интелект
  • Системите с ИИ, използвани за влияние на гласоподавателите при избори, се считат за високорискови

Правилата насърчават утвърждаването на ориентиран към човека, надежден ИИ и защитават здравето, безопасността, основните права и демокрацията от вредните му ефекти.

На 14 юни Европейският парламент прие преговорната си позиция по Законодателния акт за изкуствен интелект (ИИ) с 499 гласа „за“, 28 гласа „против“ и 93 гласа „въздържал се“ преди преговорите с държавите членки на ЕС относно окончателния вариант на закона. Правилата ще подсигурят пълното съответствие на разработения и използван в Европа изкуствен интелект с правата и ценностите на ЕС, необходимостта от човешки надзор, безопасността, неприкосновеността на личния живот, прозрачността, недискриминацията и добрите социални и екологични условия.

Забранени практики с ИИ

Правилата са ориентирани към ограничаване на рисковете и установяват задължения за доставчиците и тези, които внедряват системи с ИИ, в зависимост от нивото на риска, който ИИ може да създаде. Следователно ще бъдат забранени системите с ИИ с неприемливо ниво на риск за безопасността на хората, като тези, използвани за социално оценяване (класифициране на хора на база на тяхното социално поведение или лични характеристики). Членовете на ЕП разшириха списъка, за да включат забрани за натрапчиво и дискриминационно използване на ИИ, като например:

  • системи за дистанционна биометрична идентификация в реално време в публично достъпни пространства;
  • "екс-пост" системи за дистанционна биометрична идентификация, освен ако не е налице предварително съдебно разрешение и в строго необходими ситуации свързани с преследването на тежко престъпление;
  • системи за биометрична категоризация, използващи чувствителни характеристики (напр. пол, раса, етническа принадлежност, гражданство, религия, политическа ориентация);
  • системи използвани от полицията за прогнозиране на потенциални престъпления (въз основа на профилиране, местоположение или минало престъпно поведение);
  • системи за разпознаване на емоции в областта на правоприлагането, управлението на границите, на работното място и в образователните институции; както и
  • нецеленасочено извличане на лицеви изображения от интернет или записи от видеонаблюдение с цел създаване на бази данни за разпознаване на лица (нарушаване на правата на човека и правото на неприкосновеност на личния живот).

Високорисков ИИ

Членовете на ЕП гарантират, че класификацията на високорисковите приложения ще включва и системи с ИИ, които нанасят значителни вреди на здравето, безопасността, основните права или околната среда. Към списъка с високорисков ИИ бяха добавени и системите с ИИ, използвани за оказване на влияние върху гласоподавателите и резултатите от изборите, както и в системите за препоръчване, използвани от платформите за социални медии (с над 45 милиона потребители).

Задължения за ИИ с общо предназначение

Доставчиците на т.нар. базови модели (foundation models) — нова и динамична тенденция в областта на ИИ — ще трябва да оценят и намалят възможните рискове (за здравето, безопасността, основните права, околната среда, демокрацията и принципите на правовата държава) и да регистрират своите модели в базата данни на ЕС преди пускането им на пазара на Съюза. Системите на ИИ за генериране на съдържание, като ChatGPT, ще трябва да отговарят на изискванията за прозрачност (като разкриват, че съдържанието е генерирано от ИИ, и да помагат да се разграничават т.нар. дълбинни фалшификати (deep fake) от истинските) и да осигурят гаранции срещу генерирането на незаконно съдържание. Подробните резюмета на

защитените с авторско право данни, използвани за тяхното обучение, също ще трябва да бъдат публично достъпни.

Подкрепа за иновациите и защита на правата на гражданите

С цел насърчаване на иновациите в областта на ИИ и подкрепа на малките и средните предприятия евродепутатите добавиха изключения за научноизследователската дейност и за компонентите на ИИ, предоставяни по силата на лицензи с отворен код. Новият закон насърчава т.нар. „регулаторни лаборатории“ или експериментална нормативна среда, създадена от публичните органи, за тестване на ИИ преди неговото внедряване.

И накрая, членовете на ЕП искат да укрепят правата на гражданите за подаване на жалби относно системи с ИИ и за получаване на обяснения за решения, основаващи се на високорискови системи с ИИ, които оказват значително въздействие върху техните основни права. Евродепутатите реформираха и ролята на Службата по изкуствен интелект на ЕС , на която ще бъде възложено да следи как се прилагат правилата за ИИ.