Unia Europejska przyjęła kompleksowe ramy regulacyjne dotyczące sztucznej inteligencji (AI), pierwsze tego rodzaju na świecie. Ustawa UE o sztucznej inteligencji został zatwierdzony przez Parlament Europejski, z 523 głosy za, 46 przeciwI 49 głosów wstrzymujących się.
Celem tego prawodawstwa jest zajęcie się złożonymi etycznymi, prawnymi i społecznymi konsekwencjami sztucznej inteligencji, a jednocześnie zachęcanie do odpowiedzialnego rozwoju i innowacji w zakresie sztucznej inteligencji w Europie.
Kluczowe pojęcia unijnej ustawy o sztucznej inteligencji
Ustawa UE o sztucznej inteligencji klasyfikuje systemy sztucznej inteligencji na cztery kategorie ryzyka:
- Gorszący
- Wysokie ryzyko
- Ograniczone ryzyko
- Minimalne ryzyko
Takie podejście pozwala na dostosowanie przepisów, zapewniając proporcjonalność przepisów do potencjalnego ryzyka.
Niedopuszczalne ryzyko systemów AI
Uważa się, że systemy AI stanowią zagrożenie niedopuszczalne ryzyko dla praw podstawowych i bezpieczeństwa Czy wręcz zakazane zgodnie z ustawodawstwem.
To zawiera:
- Systemy punktacji społecznej, które mogą prowadzić do praktyk dyskryminacyjnych
- Nadzór oparty na sztucznej inteligencji, który narusza prywatność
- Systemy manipulujące ludzkim zachowaniem w sposób podważający autonomię
Systemy AI wysokiego ryzyka
Systemy sztucznej inteligencji uznawane za systemy wysokiego ryzyka są podlegają rygorystycznym wymaganiom i ocenom zgodności.
Przykłady zastosowań wysokiego ryzyka obejmują:
- AI w infrastrukturze krytycznej
- Sztuczna inteligencja wykorzystywana w edukacji i szkoleniu zawodowym
- Systemy AI do rekrutacji i zarządzania pracownikami
- Aplikacje egzekwowania prawa
Sztuczna inteligencja o ograniczonym ryzyku
Te systemy sztucznej inteligencji stanowią: potencjalne ryzyko manipulacji lub oszustwaale ogólne ryzyko uważa się za możliwe do opanowania.
Oto kilka przykładów sztucznej inteligencji o ograniczonym ryzyku:
- Chatboty zasilane sztuczną inteligencją wykorzystywane do obsługi klienta lub dostarczania informacji
- Deepfakes dla rozrywki
- Systemy AI, które próbują analizować czyjeś emocje na podstawie wyrazu twarzy lub tonu głosu (inaczej systemy rozpoznawania emocji)
Sztuczna inteligencja o minimalnym ryzyku
Uważa się, że systemy sztucznej inteligencji stwarzają minimalne ryzyko bardzo małe lub żadne ryzyko dla jednostek lub społeczeństwa. Systemy te są na ogół wyłączone spod szczególnych przepisów, ale należy nadal rozwijać, mając na uwadze odpowiedzialne praktyki.
Oto kilka przykładów sztucznej inteligencji o minimalnym ryzyku:
- Filtry spamu e-mail oparte na sztucznej inteligencji, które sortują niechciane wiadomości
- Sztuczna inteligencja wykorzystywana do poprawy jakości zdjęć lub filmów poprzez redukcję szumów lub dopasowywanie kolorów
- Sztuczna inteligencja personalizująca rekomendacje na platformach e-commerce lub w usługach przesyłania strumieniowego, taka jak niedawno ogłoszony system reklamowy AI firmy Apple
Unijny akt dotyczący sztucznej inteligencji to przełomowy moment w globalnym krajobrazie sztucznej inteligencji. To przełomowe prawodawstwo pokazuje zaangażowanie w wykorzystanie mocy sztucznej inteligencji przy jednoczesnej ochronie obywateli, budowaniu zaufania i stymulowaniu odpowiedzialnego rozwoju. Dzięki właściwym ramom regulacyjnym Europa ma szansę stać się liderem w rozwoju bezpiecznej, etycznej i korzystnej sztucznej inteligencji.
Co dalej?
Oczekuje się, że ustawa o sztucznej inteligencji tak zrobi oficjalnie staną się prawem w maju lub czerwcupo dopełnieniu kilku końcowych formalności, w tym błogosławieństwie od krajów członkowskich UE.
Przepisy zaczną obowiązywać etapami:
- Kraje będą zobowiązane do wprowadzenia zakazu zakazanych systemów sztucznej inteligencji sześć miesięcy po wejściu przepisów do ksiąg prawnych
- Przepisy dotyczące systemów sztucznej inteligencji ogólnego przeznaczenia, takich jak chatboty, zaczną obowiązywać rok po wejściu ustawy w życie
- Do połowy 2026 roku zacznie obowiązywać komplet przepisów, obejmujący wymagania dotyczące systemów wysokiego ryzyka
Każdy kraj UE utworzy własny organ nadzorujący sztuczną inteligencję, do którego obywatele będą mogli składać skargi, jeśli uznają, że padli ofiarą naruszenia przepisów. Bruksela utworzy Biuro ds. Sztucznej Inteligencji, którego zadaniem będzie egzekwowanie i nadzorowanie prawa dotyczącego systemów sztucznej inteligencji ogólnego przeznaczenia.
Naruszenie ustawy o sztucznej inteligencji może nałożyć kary w wysokości do 35 milionów euro (38 milionów dolarów)lub 7% światowych przychodów firmy.
To nie jest ostatnie słowo Brukseli w sprawie przepisów dotyczących sztucznej inteligencji, powiedział włoski poseł Brando Benifei, współprzewodniczący prac parlamentu nad ustawą. Dodał, że po letnich wyborach może zostać wprowadzonych więcej przepisów związanych ze sztuczną inteligencją, w tym w obszarach takich jak sztuczna inteligencja w miejscu pracy, które częściowo obejmuje nowe prawo.
Jedno jest pewne: unijna ustawa o sztucznej inteligencji to: moment przełomowy w globalnym krajobrazie sztucznej inteligencji.
Autor wyróżnionego obrazu: Jessica45/Pixabay.
Source: Przełomowe ustawodawstwo UE dotyczące sztucznej inteligencji uwzględnia ryzyko i promuje innowacje