EDPO

EDPO - Ochrona Danych Osobowych
  • Strona główna
  • AI Act, akt o sztucznej inteligencji – czy okaże się przydatny?
Magdalena Gujska 2024-06-06

Unia Europejska wprowadziła pierwsze na świecie kompleksowe przepisy regulujące sztuczną inteligencję (AI).

Celem jest ochrona ludzi przed potencjalnymi zagrożeniami związanymi z tą technologią. Nowe prawo wprowadza szereg obowiązków dla firm i organizacji, które wykorzystują AI, a także przewiduje wysokie kary za ich łamanie.

Jakie są cele AI Act?

Głównym celem AI Act jest zapewnienie, że sztuczna inteligencja będzie wykorzystywana w sposób bezpieczny, etyczny i odpowiedzialny. Nowe przepisy mają na celu:

  • Ochronę praw podstawowych i wolności obywateli, takich jak prawo do prywatności, niedyskryminacji i równego traktowania.
  • Zwiększenie przejrzystości systemów AI i zapewnienie użytkownikom możliwości kontroli nad tym, jak ich dane są wykorzystywane.
  • Zminimalizowanie ryzyka związanego z wykorzystaniem AI, takich jak błędy algorytmów, uprzedzenia i nadużycia władzy.
  • Wspieranie innowacji i rozwoju bezpiecznej i godnej zaufania sztucznej inteligencji.

Jakie systemy AI są objęte zakazem?

AI Act zakazuje stosowania niektórych systemów AI, które stanowią zagrożenie dla bezpieczeństwa i praw podstawowych obywateli. Do takich systemów należą m.in.:

  • Systemy rozpoznawania emocji w miejscu pracy lub w placówkach edukacyjnych.
  • Systemy oceny społecznej (social scoring), które mogą prowadzić do dyskryminacji lub krzywdzenia osób fizycznych lub grup osób.
  • Systemy wykorzystujące biometrię w celu śledzenia ludzi w czasie rzeczywistym.
  • Systemy wykorzystujące algorytmy predykcyjne w celu podejmowania decyzji dotyczących osób fizycznych, np. w zakresie rekrutacji, dostępu do kredytów lub świadczeń socjalnych.

Co zmieni AI Act w sprawie sztucznej inteligencji?

Unia Europejska wprowadziła pierwsze na świecie kompleksowe przepisy regulujące sztuczną inteligencję (AI). Celem jest ochrona ludzi przed potencjalnymi zagrożeniami związanymi z tą technologią. Nowe prawo wprowadza szereg obowiązków dla firm i organizacji, które wykorzystują AI, a także przewiduje wysokie kary za ich łamanie.

Jakie są cele AI Act?

Głównym celem AI Act jest zapewnienie, że sztuczna inteligencja będzie wykorzystywana w sposób bezpieczny, etyczny i odpowiedzialny. Nowe przepisy mają na celu:

  • Ochronę praw podstawowych i wolności obywateli, takich jak prawo do prywatności, niedyskryminacji i równego traktowania.
  • Zwiększenie przejrzystości systemów AI i zapewnienie użytkownikom możliwości kontroli nad tym, jak ich dane są wykorzystywane.
  • Zminimalizowanie ryzyka związanego z wykorzystaniem AI, takich jak błędy algorytmów, uprzedzenia i nadużycia władzy.
  • Wspieranie innowacji i rozwoju bezpiecznej i godnej zaufania sztucznej inteligencji.

Jakie systemy AI są objęte zakazem?

AI Act zakazuje stosowania niektórych systemów AI, które stanowią zagrożenie dla bezpieczeństwa i praw podstawowych obywateli. Do takich systemów należą m.in.:

  • Systemy rozpoznawania emocji w miejscu pracy lub w placówkach edukacyjnych.
  • Systemy oceny społecznej (social scoring), które mogą prowadzić do dyskryminacji lub krzywdzenia osób fizycznych lub grup osób.
  • Systemy wykorzystujące biometrię w celu śledzenia ludzi w czasie rzeczywistym.
  • Systemy wykorzystujące algorytmy predykcyjne w celu podejmowania decyzji dotyczących osób fizycznych, np. w zakresie rekrutacji, dostępu do kredytów lub świadczeń socjalnych.

Kogo dotyczą nowe przepisy?

AI Act dotyczy zarówno podmiotów publicznych, jak i prywatnych, które działają w UE lub oferują swoje usługi na terenie Unii. Oznacza to, że nowe obowiązki będą musieli spełnić m.in.:

  • Dostawcy systemów AI, czyli firmy, które opracowują i sprzedają systemy sztucznej inteligencji.
  • Użytkownicy systemów AI, czyli firmy i organizacje, które wykorzystują systemy AI w swojej działalności.
  • Organy publiczne, które wykorzystują systemy AI w swojej pracy.

Systemy AI wysokiego ryzyka

Szczególne obowiązki dotyczą systemów AI wysokiego ryzyka, czyli systemów, które mogą mieć szkodliwy wpływ na bezpieczeństwo i prawa podstawowe obywateli. Do takich systemów należą m.in.:

  • Systemy wykorzystywane w rekrutacji.
  • Systemy oceniające zdolność kredytową.
  • Systemy wykorzystywane w diagnostyce medycznej.
  • Systemy wykorzystywane w transporcie.

Dostawcy systemów AI wysokiego ryzyka muszą przed wprowadzeniem ich na rynek przeprowadzić ocenę zgodności z wymaganiami AI Act.

Sankcje

AI Act przewiduje wysokie kary finansowe za naruszenie jego przepisów. Kary mogą sięgać do 35 mln euro lub 7% rocznego światowego obrotu firmy, w zależności od tego, która kwota jest wyższa.

Przydatne linki:

https://www.europarl.europa.eu/topics/en/article/20230601STO93804/eu-ai-act-first-regulation-on-artificial-intelligence

https://www.europarl.europa.eu/news/en/press-room/20240308IPR19015/artificial-intelligence-act-meps-adopt-landmark-law