Технологии
След месеци на преговори: ЕС опитва да финализира законодателството за ИИ
На 6 декември Европейският парламент и държавите членки на ЕС ще се опитат да постигнат споразумение по текст за регулиране на изкуствения интелект (ИИ) след месеци на трудни преговори за това как да се справят с явлението ChatGPT, предаде АФП.
Европейският съюз иска да бъде първият в света, който ще разполага с цялостна правна рамка за ограничаване на злоупотребите с ИИ, като същевременно защитава иновациите.
Преговарящите ще се събират в Брюксел от 15:00 ч. местно време и се очаква дискусиите да продължат до късно вечерта.
Според няколко източника постигането на споразумение остава несигурно и в случай на неуспех може да се наложи нова среща през януари.
Законодателният процес, стартирал през април 2021 г. с предложение на Комисията, беше разтърсен в края на миналата година от появата на ChatGPT - текстовия генератор на калифорнийската компания OpenAI, способен да пише есета, стихотворения или преводи за броени секунди.
Бързо го последваха конкурентите му Bard (Google) и Llama (Meta). Тези приложения, заедно с генератори на изображения като Dall-E (също разработен от OpenAI) и Midjourney, разкриха огромния си потенциал пред широката публика. Но те носят и определени рискове.
Разпространението на фалшиви, реалистични изображения в социалните мрежи показа на хората опасността от манипулиране на публичното мнение.
Този феномен на генеративния изкуствен интелект беше включен в настоящите преговори по искане на членовете на ЕП, които настояват за етичен подход и строг контрол.
Трудно е обаче да се постигне компромис с държавите членки, които се опасяват, че прекомерното регулиране ще унищожи в зародиш техните зараждащи се софтуери, като Aleph Alpha в Германия и Mistal AI във Франция, като направи разходите за разработване прекалено високи.
"Германия, Франция и Италия не желаят никаква конкретна регулация на генеративния ИИ и блокират включването му в законодателството", обобщи консервативният евродепутат Аксел Вос, който иска да наложи по-голяма прозрачност на алгоритмите и гигантските бази данни, които са в основата на тези системи.
Текстът включва правила, които да гарантират качеството на данните, използвани при разработването на алгоритмите, и да проверяват дали те не нарушават законодателството за авторското право.
Тези ограничения ще бъдат затегнати само за системи, които надхвърлят определени прагове по отношение на изчислителната мощ и броя на компаниите потребители.
Това е повод за безпокойство на технологичните лобита (BSA, CCIA), които смятат, че специфичното третиране, наложено на генеративния ИИ, поставя под въпрос принципите на "технологична неутралност" и "основан на риска подход“, които вдъхновиха първоначалното предложение на Комисията.
Тези принципи са същите като тези на съществуващите разпоредби за безопасност на продуктите, които налагат контрол, основан предимно на компаниите.
В допълнение към главите, посветени на генеративния ИИ, ядрото на предложението за други приложения се състои от списък с правила, които се налагат само на системи, считани за "високорискови".
Това биха били приложения, използвани в чувствителни области като критични инфраструктури, образование, човешки ресурси, правоприлагане или управление на миграцията... Но и тук Парламентът и държавите-членки са в противоречие по отношение на определянето на приложното поле.
Системите ще подлежат на редица задължения, като например осигуряване на човешки контрол върху технологиите, изготвяне на техническа документация и създаване на система за управление на риска.
Законодателството предвижда специален надзор на системите с изкуствен интелект, които взаимодействат с хора. От тях ще се изисква да информират потребителите, че взаимодействат с машина, а приложенията, които генерират изображения, ще бъдат задължени да посочват, че те са изкуствено създадени.
Забраните ще бъдат редки. Те ще се отнасят до приложения, които противоречат на европейските ценности, като например системите за оценка на гражданите или системите за масово наблюдение, използвани в Китай.
Членовете на ЕП искат да добавят забрана за системите за разпознаване на емоции. Те искат също така да се премахнат дерогациите, разрешаващи на правоприлагащите органи да извършват дистанционна биометрична идентификация на хора на обществени места, което е друга точка на конфликт за държавите-членки.