21 maja 2024 r. Rada UE jako pierwsza na świecie przyjęła regulacje prawne dotyczące sztucznej inteligencji, a rozporządzenie nosi tytuł „AI Act”. Możemy w nim wyróżnić 4 poziomy ryzyka” niedopuszczalne, wysokie, ograniczone i minimalne. Jednocześnie regulacje ustanowiły bardzo surowe wymagania dla najniebezpieczniejszych systemów, co za tym idzie niedopuszczalne ryzyko, które reprezentuje sztuczna inteligencja i stwarza zagrożenie dla ludzi jest zakazane na gruncie nowych przepisów.
Systemy AI niedopuszczalnego ryzyka obejmują:
1. poznawczo-behawioralną manipulację ludźmi albo konkretnymi wrażliwymi grupami odbiorców;
2. identyfikację biometryczną oraz kategoryzację osób fizycznych;
3. scoring, czyli klasyfikację punktową obywateli, która obejmuje klasyfikację ludzi w oparciu o ich zachowania, cechy osobiste, czy status społeczno-ekonomiczny;
4. systemy identyfikacji biometrycznej, które działają w czasie rzeczywistym oraz zdalnie – rozpoznawanie twarzy.
Nowe regulacje dot. systemu AI za system wysokiego ryzyka uznaje się, jeżeli zostaną spełnione jednocześnie dwie przesłanki:
- system AI musi być przeznaczony do wykorzystania jako element produkty, który jest objęty unijnym prawodawstwem harmonizacyjnym, bądź samo AI stanowi taki produkt;
- system AI jako produkt, który jest powiązany z bezpieczeństwem podlega ocenie zgodności przez stronę trzecią w związku z wprowadzeniem go do obrotu lub oddaniem do użytkowania.
Najczęściej technologie wysokiego ryzyka mają zastosowanie w edukacji, służbie zdrowia, rekrutacji albo finansach. Przykładowo systemy AI wykorzystywane są do przetwarzania i analizy podań studentów ubiegających się o przyznanie stypendium albo przyjęcie na studia. Nowe przepisy wskazują, że systemy AI wysokiego ryzyka mogą działać wyłącznie po spełnieniu określonych norm bezpieczeństwa i transparentności.
Warto zaznaczyć, że systemy sztucznej inteligencji, które tworzą dopiero nowe treści zgodnie z nowymi regulacjami prawnymi nie zostały uznane za takie, które prezentują wysoki poziom ryzyka. Jednakże muszą przestrzegać zasady przejrzystości i prawa autorskich, na które składają się:
1. Ujawnienie faktu, że dana treść została wygenerowana przy pomocy sztucznej inteligencji;
2. Zaprojektowanie programu / modelu, który zapewni niegenerowanie nielegalnych treści;
3. Publikacja streszczeń, które są chronione prawem autorskim i wykorzystywane do szkolenia systemów sztucznej inteligencji.
Co ważne– treści multimedialne wygenerowane przez sztuczną inteligencję muszą być oznaczone w taki sposób, aby odbiorca mógł świadomie zapoznać się z prezentowaną treścią. Organem monitorującym i odpowiedzialnym za całą procedurę wdrożenia, a także przestrzegania nowych przepisów prawnych jest Europejski Urząd ds. Sztucznej Inteligencji.
Zgodnie z przepisem art. 99 AI Act państwa członkowskie Unii Europejskiej odpowiedzialne są za ustanowienie przepisów, na podstawie których będą mogły nakładać katy i egzekwować prawo. Tworzone regulacje będą mogły także obejmować ostrzeżenia i środki niepieniężne. Rada UE mówi, że kary muszą być skuteczne, proporcjonalne do stworzonego zagrożenia i jednocześnie odstraszające od podjęcia nielegalnych działań.
21 maja 2024 r. Rada UE zatwierdziła wcześniej zaproponowane przez Komisję Europejską rozporządzenie AI Act, który ma zostać opublikowany w Dzienniku Urzędowym UE na przełomie czerwca i lipca, zaś przepisy wejdą w życie 20 dni po publikacji.
źródło: legalis.pl