CEO OpenAI Sama Altmana kontynuuje swój międzynarodowy zasięg, opierając się na rozmachu wywołanym jego niedawnymi wystąpieniami przed Kongresem USA. Jednak podejście Altmana za granicą różni się od klimatu przyjaznego sztucznej inteligencji w Stanach Zjednoczonych, ponieważ sugeruje on możliwość przeniesienia swoich przedsięwzięć technologicznych, jeśli nie zostaną spełnione jego zasady.
Globtroterska podróż zabrała Altmana Lagos, Nigeria do różnych miejsc w Europie, kończąc na Londyn, Wielka Brytania. Pomimo pewnych protestów aktywnie współpracuje z wybitnymi postaciami z branży technologicznej, firm i decydentów, podkreślając możliwości modelu językowego ChatGPT OpenAI. Altman stara się zdobyć poparcie dla przepisów pro-AI, jednocześnie wyrażając niezadowolenie z definicji systemów „wysokiego ryzyka” Unii Europejskiej, jak omówiono podczas panelu na University College London.
The Proponowana przez Unię Europejską ustawa o sztucznej inteligencji wprowadza trójstopniową klasyfikację systemów sztucznej inteligencji opartą na poziomach ryzyka. Przypadki sztucznej inteligencji, które stwarzają „niedopuszczalne ryzyko” poprzez naruszenie praw podstawowych, obejmują systemy punktacji społecznej i manipulacyjną sztuczną inteligencję społeczną. Z drugiej strony „systemy sztucznej inteligencji wysokiego ryzyka” muszą spełniać kompleksowe standardy przejrzystości i nadzoru, dostosowane do ich zamierzonego zastosowania.
Sam Altman wyraził obawy dotyczące obecnego projektu ustawy, stwierdzając, że zarówno ChatGPT, jak i nadchodzący GPT-4 mogą potencjalnie należeć do kategorii wysokiego ryzyka. W takich przypadkach konieczne byłoby spełnienie określonych wymogów. Altman podkreślił zamiar OpenAI dążenia do zgodności, ale przyznał, że istnieją ograniczenia techniczne, które mogą wpłynąć na ich zdolność do tego. Jak zgłoszone przez Czas, stwierdził: „Jeśli możemy się dostosować, zrobimy to, a jeśli nie, przestaniemy działać… Spróbujemy. Istnieją jednak techniczne ograniczenia tego, co jest możliwe”.
Ustawa UE o sztucznej inteligencji jest aktualizowana w miarę ulepszania sztucznej inteligencji
Pierwotnie mająca na celu rozwiązanie problemów związanych z chińskim systemem kredytów społecznych i rozpoznawaniem twarzy, ustawa o sztucznej inteligencji napotkała nowe wyzwania wraz z pojawieniem się OpenAI i innych startupów. Następnie UE wprowadziła w grudniu przepisy ukierunkowane na „podstawowe modele”, takie jak duże modele językowe (LLM) zasilające chatboty AI, takie jak ChatGPT. Niedawno komisja Parlamentu Europejskiego zatwierdziła te zaktualizowane przepisy, wymuszając kontrole bezpieczeństwa i zarządzanie ryzykiem.
W przeciwieństwie do Stanów Zjednoczonych, UE wykazała większą skłonność do kontroli OpenAI. The Europejska Rada Ochrony Danych aktywnie monitoruje zgodność ChatGPT z przepisami dotyczącymi prywatności. Należy jednak zauważyć, że ustawa o sztucznej inteligencji wciąż podlega potencjalnym rewizjom, co prawdopodobnie wyjaśnia globalną podróż Altmana, mającą na celu poruszanie się po zmieniającym się krajobrazie przepisów dotyczących sztucznej inteligencji.
Altman powtórzył znane punkty ze swojego niedawnego zeznania w Kongresie, wyrażając zarówno obawy związane z zagrożeniami związanymi ze sztuczną inteligencją, jak i uznanie jej potencjalnych korzyści. Opowiadał się za regulacjami, w tym wymaganiami bezpieczeństwa i agencją zarządzającą testami zgodności. Altman wezwał do podejścia regulacyjnego, które zapewnia równowagę między tradycjami europejskimi i amerykańskimi.
Jednak Altman przestrzegał przed regulacjami, które mogą ograniczać dostęp użytkowników, szkodzić mniejszym firmom lub utrudniać ruch sztucznej inteligencji o otwartym kodzie źródłowym. Zmieniająca się postawa OpenAI w sprawie otwartości, powołując się na konkurencję, kontrastuje z jej poprzednimi praktykami. Warto zauważyć, że wszelkie nowe przepisy z natury przyniosłyby korzyści OpenAI, zapewniając ramy odpowiedzialności. Kontrole zgodności mogą również zwiększyć koszty opracowywania nowych modeli sztucznej inteligencji, dając firmie przewagę w konkurencyjnym środowisku sztucznej inteligencji.
Kilka krajów nałożyło zakazy na ChatGPT, a Włochy są jednym z nich. Jednak po tym, jak OpenAI ulepszyło kontrolę prywatności użytkowników, zakaz został zniesiony przez skrajnie prawicowy rząd Włoch. OpenAI może być zmuszona do dalszego rozwiązywania problemów i ustępstw w celu utrzymania korzystnych relacji z rządami na całym świecie, zwłaszcza biorąc pod uwagę dużą bazę użytkowników, liczącą ponad 100 milionów aktywnych użytkowników ChatGPT.
Dlaczego rządy zachowują ostrożność w stosunku do chatbotów AI?
Istnieje wiele powodów, dla których rządy mogą nakładać zakazy na ChatGPT lub podobne modele sztucznej inteligencji z kilku powodów:
- Dezinformacja i fake newsy: modele sztucznej inteligencji, takie jak ChatGPT, mogą generować wprowadzające w błąd lub fałszywe informacje, przyczyniając się do rozprzestrzeniania dezinformacji. Rządy mogą nakładać zakazy, aby zapobiec rozpowszechnianiu niedokładnych lub szkodliwych treści.
- Nieodpowiednie lub obraźliwe treści: modele sztucznej inteligencji mogą potencjalnie generować treści, które są nieodpowiednie, obraźliwe lub naruszają normy i wartości kulturowe. Rządy mogą zakazać ChatGPT, aby chronić obywateli przed napotkaniem nieodpowiednich materiałów.
- Obawy etyczne: Modele AI rodzą pytania etyczne związane z prywatnością, zgodą i stronniczością. Rządy mogą nakładać zakazy w odpowiedzi na obawy dotyczące prywatności danych, potencjalnego niewłaściwego wykorzystania danych osobowych lub utrwalania uprzedzeń w treściach generowanych przez sztuczną inteligencję.
- Zgodność z przepisami: Modele AI muszą być zgodne z obowiązującymi przepisami i regulacjami. Rządy mogą nakładać zakazy, jeśli stwierdzą, że ChatGPT nie spełnia wymogów regulacyjnych, takich jak ochrona danych lub standardy treści.
- Bezpieczeństwo narodowe i stabilność społeczna: Rządy mogą postrzegać modele AI jako potencjalne zagrożenie dla bezpieczeństwa narodowego lub stabilności społecznej. Mogą nakładać zakazy, aby zapobiegać niewłaściwemu wykorzystywaniu technologii sztucznej inteligencji do złych celów lub zachować kontrolę nad przepływem informacji.
Warto zauważyć, że konkretne powody nałożonych przez rząd zakazów ChatGPT mogą się różnić w zależności od jurysdykcji, a na decyzje wpływa kombinacja czynniki prawne, etyczne, społeczne i polityczne. Aby zapoznać się z niektórymi aktualnymi zagrożeniami i niepożądanymi konsekwencjami chatbotów AI, zapoznaj się z tymi najnowszymi artykułami:
- Wyeksponowane ryzyko ChatGPT: Zrozumienie potencjalnych zagrożeń
- Ciemna strona ChatGPT: Ludzki koszt sukcesu sztucznej inteligencji
Source: Sam Altman z OpenAI grozi wyjściem z UE w związku z rozmowami na temat regulacji AI