OpenAI, laboratorium badawcze AI, wydało niedawno oświadczenie dotyczące obaw związanych z bezpieczeństwem swoich produktów. Oświadczenie jest odpowiedzią na kilka kontrowersji, które pojawiły się w ostatnich tygodniach, w tym wezwanie liderów branży do wstrzymania rozwoju modeli takich jak GPT-4, zakaz ChatGPT we Włoszech oraz skarga do Federalnej Komisji Handlu dotycząca ryzyka niebezpiecznych dezinformacji, w szczególności kierowanych do dzieci.
Deklaracja bezpieczeństwa OpenAI ma na celu zapewnienie opinii publicznej, że jej produkty są bezpieczne, jednocześnie przyznając, że wciąż jest miejsce na ulepszenia. Firma podkreśliła, że pracuje nad zapewnieniem bezpieczeństwa wbudowanego w jej systemy na wszystkich poziomach i jest zaangażowana we współpracę z decydentami i zainteresowanymi stronami w celu stworzenia bezpiecznego ekosystemu sztucznej inteligencji.
Jednak w oświadczeniu brakowało szczegółów na temat tego, w jaki sposób OpenAI planuje ograniczać ryzyko, egzekwować swoje zasady lub współpracować z organami regulacyjnymi.
Elon Musk i Steve Wozniak opublikowali list otwarty wzywający do sześciomiesięcznej przerwy
Hybrydowe przeprosiny, które zostały opublikowane w czwartek, miały na celu zarówno zapewnienie opinii publicznej, że towary firmy są bezpieczne, jak i uznanie, że istnieje przestrzeń do wzrostu.
Deklaracja bezpieczeństwa z OpenAI brzmi jak reakcja kreta na wszystkie ostatnie kontrowersje. Tylko w zeszłym tygodniu ChatGPT został całkowicie zakazany we Włoszech, Elona Muska I Steve Wozniak opublikowali list otwarty wzywający do sześciomiesięcznej przerwy w rozwoju modeli takich jak GPT-4 oraz złożono skargę do Federalnej Komisji Handlu, twierdząc, że ChatGPT stwarza niebezpieczne ryzyko dezinformacji, w szczególności dla dzieci.
Aha, i była ta usterka, która pozwalała każdemu zobaczyć komunikację na czacie i prywatne informacje użytkowników.
Według OpenAI, stara się „zapewnić bezpieczeństwo wbudowane w nasz system na wszystkich poziomach”. Przed wypuszczeniem GPT-4 OpenAI spędził ponad sześć miesięcy „rygorystycznie testować” i powiedział, że szuka alternatywnych metod weryfikacji w celu wdrożenia wymogu wieku powyżej 18 lat.
Firma podkreśliła, że nie sprzedaje poufnych informacji i wykorzystuje je wyłącznie do ulepszania modeli AI. Zadeklarowała również gotowość do współpracy z prawodawcami i kontynuowania współpracy z interesariuszami AI „w celu stworzenia bezpiecznego ekosystemu AI”.
OpenAI przyznał w połowie deklaracji bezpieczeństwa, że stworzenie bezpiecznego LLM wymaga informacji zwrotnych z rzeczywistego świata. Twierdzi, że uczenie się na podstawie opinii publicznej zwiększy bezpieczeństwo modeli i umożliwi OpenAI monitorowanie nadużyć.
„Rzeczywiste użytkowanie skłoniło nas również do opracowania coraz bardziej zniuansowanych zasad dotyczących zachowań, które stanowią rzeczywiste zagrożenie dla ludzi, jednocześnie umożliwiając wiele korzystnych zastosowań naszej technologii”.
Oferowane OpenAI „szczegóły dotyczące podejścia do bezpieczeństwa”, ale oprócz obietnicy zbadania weryfikacji wieku, większość oświadczenia brzmi jak standardowe frazesy. Niewiele było informacji o tym, jak zamierza zmniejszyć ryzyko, wdrożyć politykę lub współpracować z władzami.
OpenAI czerpie przyjemność z tworzenia produktów AI w przejrzysty sposób, ale ogłoszenie zawiera niewiele szczegółów na temat tego, co planuje zrobić teraz, gdy jego sztuczna inteligencja jest na wolności.
Jaka jest logika OpenAI?
Według OpenAI ich model ChatGPT, który był nauczany przy użyciu Reinforcement Learning from Human Feedback (RLHF) metoda uczenia maszynowego, może symulować dialog, odpowiadać na zapytania uzupełniające, przyznawać się do błędów, kwestionować błędne przesłanki i odrzucać nieodpowiednie prośby.
Początkowo nauczyciele AI dostarczyli modelowi interakcje, w których działali zarówno jako klient, jak i asystent AI. Publiczna wersja testowa bota próbuje zrozumieć zapytania i odpowiedzi użytkowników za pomocą dogłębnych odpowiedzi, które przypominają tekst napisany przez człowieka w formacie konwersacyjnym.
Jeśli jeszcze nie doświadczyłeś ChatGPT, możesz to zrobić teraz klikając to.
Source: Odpowiedź OpenAI na sprzeciw: środki bezpieczeństwa i współpraca z decydentami