Korzystanie z sztucznej inteligencji staje się coraz bardziej powszechne, dlatego UE proponuje nowe, bardziej rygorystyczne przepisy. UE postanowiła zrobić krok naprzód, publikując swój pierwszy wniosek regulacyjny, zawierający bardziej rygorystyczne przepisy dotyczące stosowania sztucznej inteligencji.
Projekt przepisów opisuje, w jaki sposób firmy i rządy we wszystkich państwach członkowskich będą mogły korzystać z tej technologii, wyznaczając ograniczenia dotyczące wykorzystania sztucznej inteligencji w różnych działaniach, od autonomicznych samochodów po decyzje dotyczące zatrudnienia, pożyczek bankowych, wyboru czesnego lub oceniania egzaminów, a nawet jego wykorzystanie przez organy ścigania i systemy sądowe oraz w innych obszarach, które zagrażają bezpieczeństwu ludzi lub prawom podstawowym.
UE pokazuje swoje podejście do sztucznej inteligencji za pomocą nowych propozycji reguł
Komisja Europejska koncentruje się na zastosowaniach sztucznej inteligencji wysokiego ryzyka i zapewnia gwarancje bezpieczeństwa osób, ich praw i interesów, bez wprowadzania poważnych przeszkód dla firm, które chcą wprowadzać na rynek produkty i usługi oparte na sztucznej inteligencji.
Propozycja jest przedstawiona w ramach „podejścia opartego na ryzyku w odniesieniu do niektórych zastosowań sztucznej inteligencji zgodnie z potencjalnym wpływem na ludzi, z podziałem na maksymalnie cztery różne poziomy, spośród których wykluczone są tylko zastosowania wojskowe.

Zaczynając od minimalnego ryzyka, znajdujemy banalne zastosowania, takie jak wypoczynek i sztuczna inteligencja, zawarte np. W niektórych zabawkach lub grach wideo, czy aplikacjach do tworzenia muzyki lub edycji obrazów, dla których rozporządzenie nie określa zastosowania wszelkie środki ograniczające.
Środki, które zaczną się przy „ograniczonym ryzyku”, w tym zamknięte systemy sztucznej inteligencji, z którymi użytkownicy mogą się kontaktować, takie jak chatboty, które muszą teraz przestrzegać minimalnego poziomu przejrzystości, a także być zawsze ostrzegane o kontakcie innym niż człowiek .
Drugi punkt „wysokiego ryzyka” obejmuje systemy, które mają negatywny wpływ na bezpieczeństwo ludzi lub ich podstawowe prawa, zastosowania w infrastrukturach krytycznych, które mogą mieć wpływ na zdrowie, edukację, systemy rekrutacji personelu, usługi publiczne, ustawodawstwo lub wymiar sprawiedliwości.
Istnieje kategoria o nazwie „niedopuszczalne”
Ponadto zdalne systemy biometrycznej identyfikacji będą również uważane za wysokie ryzyko i będą miały do nich zastosowanie nowe, bardziej rygorystyczne wymagania. Chociaż Komisja Europejska nie zdecydowała się zakazać ich bezpośrednio, ustala, że rozpoznawanie twarzy będzie zabronione do użytku w miejscach publicznych i mieszkalnych. Chociaż będą pewne wyjątki, takie jak poszukiwanie osób zależnych lub zaginionych, zapobieganie konkretnemu i bezpośredniemu zagrożeniu terrorystycznemu lub identyfikacja sprawcy lub podejrzanego o popełnienie poważnego przestępstwa.
Na najwyższym poziomie znajdziemy sekcję „niedopuszczalne ryzyko”, która obejmie te zastosowania uważane za zagrożenie dla „oceny społecznej przez rządy, wykorzystywanie słabych stron dzieci, stosowanie technik podprogowych oraz – z zastrzeżeniem wąskich wyjątków – zdalne systemy identyfikacji biometrycznej na żywo w publicznie dostępnych miejscach używanych do celów egzekwowania prawa ”.

Wreszcie, po raz kolejny podkreślono potrzebę interakcji i kontroli między ludźmi, biorąc pod uwagę, że sztuczna inteligencja nie może nigdy zastępować ani zwalniać istot ludzkich z ich odpowiedzialności.
Jednak Komisja Europejska nie zatwierdziła jeszcze tego nowego rozporządzenia, co może przedłużyć wdrażanie tych środków o ponad rok. Chociaż zostało już wyjaśnione, że chociaż na razie tylko niektóre zastosowania sztucznej inteligencji zostaną uregulowane, przepisy te będą miały „margines dla innowacji”, wchodząc już w regulację innych nowych, gorących tematów, takich jak robotyka czy drukarki 3D.





