Blog

Jakie ryzyko niesie za sobą wprowadzenie sztucznej inteligencji na większą skalę?

PCC Poland
2024-07-02

21 maja 2024 r. Rada UE jako pierwsza na świecie przyjęła regulacje prawne dotyczące sztucznej inteligencji, a rozporządzenie nosi tytuł „AI Act”. Możemy w nim wyróżnić 4 poziomy ryzyka” niedopuszczalne, wysokie, ograniczone i minimalne. Jednocześnie regulacje ustanowiły bardzo surowe wymagania dla najniebezpieczniejszych systemów, co za tym idzie niedopuszczalne ryzyko, które reprezentuje sztuczna inteligencja i stwarza zagrożenie dla ludzi jest zakazane na gruncie nowych przepisów.




Systemy AI niedopuszczalnego ryzyka obejmują:

1. poznawczo-behawioralną manipulację ludźmi albo konkretnymi wrażliwymi grupami odbiorców;
2. identyfikację biometryczną oraz kategoryzację osób fizycznych;
3. scoring, czyli klasyfikację punktową obywateli, która obejmuje klasyfikację ludzi w oparciu o ich zachowania, cechy osobiste, czy status społeczno-ekonomiczny;
4. systemy identyfikacji biometrycznej, które działają w czasie rzeczywistym oraz zdalnie – rozpoznawanie twarzy.


Nowe regulacje dot. systemu AI za system wysokiego ryzyka uznaje się, jeżeli zostaną spełnione jednocześnie dwie przesłanki:

  • system AI musi być przeznaczony do wykorzystania jako element produkty, który jest objęty unijnym prawodawstwem harmonizacyjnym, bądź samo AI stanowi taki produkt;
  • system AI jako produkt, który jest powiązany z bezpieczeństwem podlega ocenie zgodności przez stronę trzecią w związku z wprowadzeniem go do obrotu lub oddaniem do użytkowania.


Najczęściej technologie wysokiego ryzyka mają zastosowanie w edukacji, służbie zdrowia, rekrutacji albo finansach. Przykładowo systemy AI wykorzystywane są do przetwarzania i analizy podań studentów ubiegających się o przyznanie stypendium albo przyjęcie na studia. Nowe przepisy wskazują, że systemy AI wysokiego ryzyka mogą działać wyłącznie po spełnieniu określonych norm bezpieczeństwa i transparentności.


Warto zaznaczyć, że systemy sztucznej inteligencji, które tworzą dopiero nowe treści zgodnie z nowymi regulacjami prawnymi nie zostały uznane za takie, które prezentują wysoki poziom ryzyka. Jednakże muszą przestrzegać zasady przejrzystości i prawa autorskich, na które składają się:

1. Ujawnienie faktu, że dana treść została wygenerowana przy pomocy sztucznej inteligencji;
2. Zaprojektowanie programu / modelu, który zapewni niegenerowanie nielegalnych treści;
3. Publikacja streszczeń, które są chronione prawem autorskim i wykorzystywane do szkolenia systemów sztucznej inteligencji.


Co ważne– treści multimedialne wygenerowane przez sztuczną inteligencję muszą być oznaczone w taki sposób, aby odbiorca mógł świadomie zapoznać się z prezentowaną treścią. Organem monitorującym i odpowiedzialnym za całą procedurę wdrożenia, a także przestrzegania nowych przepisów prawnych jest Europejski Urząd ds. Sztucznej Inteligencji.


Zgodnie z przepisem art. 99 AI Act państwa członkowskie Unii Europejskiej odpowiedzialne są za ustanowienie przepisów, na podstawie których będą mogły nakładać katy i egzekwować prawo. Tworzone regulacje będą mogły także obejmować ostrzeżenia i środki niepieniężne. Rada UE mówi, że kary muszą być skuteczne, proporcjonalne do stworzonego zagrożenia i jednocześnie odstraszające od podjęcia nielegalnych działań.


21 maja 2024 r. Rada UE zatwierdziła wcześniej zaproponowane przez Komisję Europejską rozporządzenie AI Act, który ma zostać opublikowany w Dzienniku Urzędowym UE na przełomie czerwca i lipca, zaś przepisy wejdą w życie 20 dni po publikacji.



źródło: legalis.pl