Направо към основното съдържание
Лого на Европейската комисия
Представителство в България
Новинарска статия10 Декември 2023 г.Представителство в БългарияВреме за четене 1 мин

Политическо споразумение за Законодателния акт за изкуствения интелект

Акт за ИИ
© iStock by Getty Images - 1139760401 peshkov

Европейската комисия приветства политическото споразумение, постигнато между Европейския парламент и Съвета относно Законодателния акт за изкуствения интелект, (ИИ) предложен от Комисията през април 2021 г.

Урсула фон дер Лайен, председател на Европейската комисия, заяви: „Изкуственият интелект вече променя ежедневието ни. А това е само началото. Използван разумно и широко, ИИ обещава огромни ползи за икономиката и общество. Ето защо горещо приветствам днешното политическо споразумение между Европейския парламент и Съвета относно Законодателния акт за изкуствения интелект. Той е първата по рода си всеобхватна правна рамка за изкуствения интелект в световен мащаб. Така че това е исторически момент. Законодателният акт за ИИ транспонира европейските ценности в нова ера. Днешното споразумение ще насърчи отговорните иновации в Европа. Като гарантира безопасността и основните права на гражданите и бизнеса, актът ще подкрепи разработването, внедряването на надежден изкуствен интелект в ЕС и ще допринесе значително за разработването на глобални правила и принципи за ориентиран към човека изкуствен интелект.

Новите правила ще се прилагат пряко по един и същ начин във всички държави членки въз основа на ориентирано към бъдещето определение за ИИ. Те следват основан на риска подход:

  1. Минимален риск: Приложенията с минимален риск, като например системи за препоръчване с ИИ или филтри за спам, ще се ползват достъпно и без ограничения, тъй като представляват само минимален или никакъв риск за правата или безопасността на гражданите. Въпреки това на доброволна основа дружествата могат да се ангажират с допълнителни кодекси за поведение за тези системи с ИИ.
  2. Висок риск: От системите с ИИ, определени като високорискови, ще се изисква да отговарят на строги изисквания, включително системи за намаляване на риска, високо качество на наборите от данни, регистриране на дейността, подробна документация, ясна информация за ползвателите, човешки надзор и високо ниво на надеждност, точност и киберсигурност. Регулаторните лаборатории ще улеснят отговорните иновации и разработването на съответстващи на изискванията системи с ИИ. Примери за високорискови системи с ИИ включват критични инфраструктури в областта на водата, газа и електроенергията; медицински изделия; системи за определяне на достъпа до образователни институции или за набиране на хора; и някои системи, използвани в областта на правоприлагането, граничния контрол, правораздаването и демократичните процеси. Освен това системите за биометрична идентификация, категоризация и разпознаване на емоции също се считат за високорискови.
  3. Неприемлив риск: Системите с ИИ, считани за явна заплаха за основните права на хората, ще бъдат забранени. Това включва системи или приложения с ИИ, които манипулират човешкото поведение с цел заобикаляне на свободната воля на потребителите, като например играчки, използващи гласова помощ, насърчаващи опасно поведение на малолетни и непълнолетни лица, или системи, които позволяват „социално оценяване“ от страна на правителства или дружества, както и някои приложения на прогнозната полицейска дейност. Освен това някои видове използване на биометрични системи ще бъдат забранени, например системи за разпознаване на емоции, използвани на работното място, и някои системи за категоризиране на хора или дистанционна биометрична идентификация в реално време за целите на правоприлагането на обществено достъпни места (с малки изключения).
  4. Специфичен риск за прозрачността: Когато използват системи с ИИ като чатботове, ползвателите следва да са наясно, че взаимодействат с машина. Дълбинните фалшификати и друго създадено с ИИ съдържание ще трябва да бъдат обозначени като такива, а потребителите трябва да бъдат информирани, когато се използват системи за биометрична категоризация или разпознаване на емоции. Освен това доставчиците ще трябва да проектират системите по такъв начин, че синтетичното аудио, видео, текстово и образно съдържание да бъде маркирано в машинночетим формат и да може да бъде установено като изкуствено създадено или манипулирано.

В случай на нарушения на Законодателния акт за изкуствения интелект ще бъдат налагани глоби.

Със Законодателния акт за ИИ се въвеждат специални правила за моделите на ИИ с общо предназначение, които ще гарантират прозрачност по веригата за създаване на стойност. За много мощни модели, които биха могли да породят системни рискове, ще има допълнителни обвързващи задължения. Тези нови задължения ще бъдат приведени в действие чрез кодекси на практиките, разработени от бизнеса, научната общност, гражданското общество и други заинтересовани страни заедно с Комисията.

Що се отнася до управлението, националните компетентни органи за надзор на пазара ще упражняват надзор върху прилагането на новите правила на национално равнище, а създаването на нова Европейска служба за ИИ в рамките на Европейската комисия ще осигури координация на европейско равнище – първия орган в световен мащаб, който прилага задължителни правила за ИИ.

Следващи стъпки

Постигнатото политическот споразумение подлежи на официално одобрение от Европейския парламент и Съвета и ще влезе в сила 20 дни след публикуването му в Официален вестник. След това Законодателният акт за изкуствения интелект ще започне да се прилага две години след влизането му в сила, с изключение на някои специфични разпоредби: забраните вече ще се прилагат след 6 месеца, докато правилата относно ИИ с общо предназначение ще се прилагат след 12 месеца.

За да се преодолее преходният период преди регламентът да стане общоприложим, Комисията ще стартира Пакт за ИИ. Тя ще свика разработчици на ИИ от Европа и по света, които доброволно се ангажират да изпълняват основните задължения по Законодателния акт за ИИ преди законоустановените срокове.

За повече информация

Съобщение за медиите

Нови правила за изкуствения интелект – въпроси и отговори

Нови правила за изкуствения интелект – страница с факти

Данни

Дата на публикуване
10 Декември 2023 г.
Автор
Представителство в България