Sam Altman, dyrektor generalny OpenAI, proponuje utworzenie międzynarodowej agencji nadzorującej kontrolę technologii sztucznej inteligencji (AI). Altman twierdzi, że biorąc pod uwagę szybką ewolucję sztucznej inteligencji, podejście oparte na agencji byłoby lepsze niż sztywne przepisy.
Porównując sztuczną inteligencję do samolotów, Altman podkreśla potrzebę stworzenia ram testów bezpieczeństwa. Zwraca uwagę, że systemy AI mogą mieć negatywne skutki wykraczające poza granice kraju.
Podkreśla też, że tak potężne systemy powinny być sprawdzane przez międzynarodową agencję i poddawane rozsądnym testom bezpieczeństwa.
Sam Altman wzywa do globalnego nadzoru w celu zapewnienia bezpiecznego rozwoju sztucznej inteligencji
Sam Altman wyjaśnia potrzebę uregulowania sztucznej inteligencji, porównując ją do bezpieczeństwa samolotu. Twierdzi, że ramy testów bezpieczeństwa mających na celu zapobieganie ofiarom ludzkim, tak jak w samolotach, są niezbędne dla sztucznej inteligencji. Altman mówi, że wsiadając do samolotu, zakłada, że będzie bezpiecznie i takie samo zaufanie należy darzyć AI.
Sam Altman argumentuje, że agencja międzynarodowa, a nie przepisy krajowe, może zaoferować bardziej elastyczne rozwiązania w zakresie regulacji sztucznej inteligencji. Podkreśla, że tego rodzaju regulacje są ważne dla szybko zmieniającej się technologii, jaką jest sztuczna inteligencja. Altman argumentuje, że obecne przepisy nie mogą właściwie regulować sztucznej inteligencji i mogą utracić ważność w ciągu kilku miesięcy.
W marcu tego roku Unia Europejska zatwierdziła ustawę o sztucznej inteligencji, która ma na celu kategoryzację zagrożeń związanych ze sztuczną inteligencją i zakazanie niedopuszczalnych przypadków jej użycia. W tym samym czasie prezydent USA Joe Biden podpisał zarządzenie wykonawcze żądające większej przejrzystości w przypadku największych na świecie modeli sztucznej inteligencji. Według danych stanu Kalifornia w dalszym ciągu przoduje w regulowaniu sztucznej inteligencji, a ustawodawca rozpatrzy ponad 30 ustaw. Bloomberga.
Altman stwierdza, że międzynarodowe regulacje dotyczące technologii AI powinny być na tyle elastyczne, aby dostosować się do rozwoju tej dziedziny i ustanowić globalny standard bezpieczeństwa. Taka współpraca międzynarodowa może mieć kluczowe znaczenie dla minimalizacji potencjalnego globalnego ryzyka związanego ze sztuczną inteligencją.
Kontrolowanie sztucznej inteligencji ma kluczowe znaczenie zarówno dla trwałości innowacji technologicznych, jak i bezpieczeństwa społecznego. Bez odpowiednich regulacji systemy sztucznej inteligencji mogą zachowywać się w nieoczekiwany sposób, powodując nieprzewidziane szkody. W szczególności potężne zastosowania sztucznej inteligencji, takie jak broń autonomiczna, mogą stanowić poważne zagrożenie dla bezpieczeństwa międzynarodowego, jeśli nie zostaną poddane kontroli.
Z drugiej strony nadmierna regulacja sztucznej inteligencji może stłumić innowacje i spowolnić rozwój technologiczny. Zbyt rygorystyczne przepisy mogą uniemożliwiać firmom i badaczom opracowywanie nowych zastosowań sztucznej inteligencji, co może skutkować pozostawaniem w tyle w światowej konkurencji gospodarczej i technologicznej. Dlatego w regulacjach dotyczących sztucznej inteligencji należy przyjąć zrównoważone podejście między innowacjami technologicznymi a ochroną praw społecznych i indywidualnych.
Jak zasugerował Sam Altman, międzynarodowa agencja mogłaby zapewnić ustandaryzowany globalny nadzór nad technologiami sztucznej inteligencji, zarówno stymulując innowacje, jak i minimalizując potencjalne ryzyko. Zachęcając do współpracy międzynarodowej i wymiany informacji, podejście to zmaksymalizowałoby pozytywny potencjał sztucznej inteligencji i zminimalizowało ryzyko. Innymi słowy, odpowiednie i skuteczne regulowanie technologii sztucznej inteligencji ma kluczowe znaczenie zarówno dla wspierania nowych osiągnięć, jak i zapobiegania szkodom społecznym.
Autor wyróżnionego obrazu: Emiliano Vittoriosi / Unsplash