Program Bug Bounty firmy OpenAI, który wystartował we wtorek, będzie nagradzał użytkowników na podstawie wagi ujawnionych przez nich błędów, z nagrodami zaczynającymi się o godz. 200 $ na lukę.
- OpenAI uruchomiło program nagród za błędy, aby zachęcić etycznych hakerów, badaczy bezpieczeństwa i entuzjastów technologii do identyfikowania i zgłaszania luk w swoich usługach AI.
- Program bug bounty jest realizowany we współpracy z Bugcrowd i obejmuje nagrody od 200 $ Do 20 000 $ w zależności od wagi problemu.
- Uczestnicy muszą przestrzegać określonych zasad i wytycznych, w tym powstrzymywać się od naruszania prywatności, zakłócania działania systemów lub niszczenia danych.
- Program nagród za błędy ma kluczowe znaczenie dla misji OpenAI polegającej na tworzeniu bezpiecznej i zaawansowanej sztucznej inteligencji, a także oferuje bezpieczną przystań, współpracę, środki zaradcze i uznanie za badania podatności na zagrożenia prowadzone zgodnie z ich polityką i zasadami zaangażowania.
Czym jest program nagród za błędy OpenAI?
Aby odkryć błędy w ChatGPT, OpenAI apeluje do opinii publicznej, ustanawiając „Program nagród za błędy”, aby zrekompensować tym, którzy zgłaszają jakiekolwiek luki w zabezpieczeniach, luki w zabezpieczeniach lub inne problemy w systemie sztucznej inteligencji.
Nagroda jest dostępna dla każdego, od prawdziwych badaczy po zwykłych ludzi, którzy lubią eksperymentować z technologią. Nagrody obejmują gotówkę, z „odkrycia o niskiej wadze” od 200 USD i „wyjątkowe odkrycia” sięgające nawet 20 000 USD. Zgłoszenia i nagrody są obsługiwane przez Tłum błędówplatforma nagród za błędy.
Usterki nękają ChatGPT; w zeszłym miesiącu cała witryna upadła po tym, jak użytkownicy zgłosili, że widzieli nazwy czatów, w których nie byli uczestnikami. Kilka dni później użytkownik Twittera powiedział, że odkrył więcej niż 80 ukryte wtyczki podczas hakowania ChatGPT.
Dziś rano hakowałem nowe API ChatGPT i znalazłem coś bardzo interesującego: istnieje ponad 80 tajnych wtyczek, które można ujawnić, usuwając określony parametr z wywołania API.
Tajne wtyczki obejmują a "Wtyczka DAN", "Wtyczka ceny kryptowalut"i wiele więcej. pic.twitter.com/Q6JO1VLz5x
— 𝚛𝚎𝚣𝟶 (@rez0__) 24 marca 2023 r
Nie wszystkie usterki zgłoszone do OpenAI będą skutkowały nagrodą pieniężną, np łamanie więzienia lub przekonać modelkę do mówienia lub sprawiania wrażenia, że mówi coś paskudnego.
Jakie są wytyczne dotyczące programu nagród za błędy OpenAI?
Aby przystąpić do programu, należy przestrzegać pewnych zasad i wytycznych:
- Zasady obejmują niezwłoczne zgłaszanie luk w zabezpieczeniach, nie naruszając prywatności ani nie zakłócając działania systemówużywając programu Bugcrowd do komunikacji, zachowując poufność szczegółów luk w zabezpieczeniach i testując tylko systemy objęte zakresem.
- Firma odmawia również bezpiecznej przystani w przypadku ujawniania luk w zabezpieczeniach pod przymusem.
Program nagród za błędy OpenAI nie zapewnia zachęt za wady modeli
— poinformowała korporacja w kompleksowych wytycznych dotyczących uczestnictwa, że problemy związane z treścią wzorcowych monitów i odpowiedzi są „ściśle poza zakresem” i nie zostanie nagrodzony. Ucieczki z więzienia i zmuszanie modeli do mówienia lub robienia okropnych rzeczy to przykłady pomijanych trudności.
Jailbreaking to proces zmiany systemu w celu obejścia jego ograniczeń, co może skutkować niefiltrowanym materiałem na ChatGPT. Jailbreakers sprawili, że GPT-3.5 wyrzucał wulgaryzmy i paskudne słowa na początku tego roku, przydzielając mu zadanie innego modelu AI z frazą Do Anything Now lub DAN.
„Chociaż ciężko pracujemy, aby zapobiegać zagrożeniom, nie możemy przewidzieć, w jaki sposób ludzie będą codziennie używać lub nadużywać naszej technologii w prawdziwym świecie”, napisano na stronie, zalecając klientom wypełnienie osobnego formularza opinii w celu wyrażenia swoich problemów.
W odpowiedzi na post opublikowany przez Alexa Alberta, 22-letniego entuzjastę szybkiej ucieczki z więzienia, Greg Brockman, współzałożyciel i CEO OpenAIzasugerował na Twitterze w marcu, że planuje uruchomić program nagród za błędy OpenAI lub sieć czerwonych drużyn.
Zdemokratyzowane czerwone zespoły to jeden z powodów, dla których wdrażamy te modele. Przewidywanie, że z biegiem czasu stawka *znacznie* wzrośnie, a posiadanie modeli odpornych na wielką presję przeciwnika będzie miało kluczowe znaczenie. Rozważam również uruchomienie programu nagród/sieci czerwonych drużyn! https://t.co/9QfmXQi9iM
— Greg Brockman (@gdb) 16 marca 2023 r
Powód
Akcja miała miejsce zaledwie kilka dni po tym, jak ChatGPT został zakazany we Włoszech za rzekome naruszenie standardów prywatności, zmuszając władze w innych krajach europejskich do przeprowadzenia dalszych badań nad generatywnymi usługami AI.
ChatGPT z pewnością podbił świat w ostatnich miesiącach, zdając egzamin na poziomie MBA na poziomie Whartonapisząc post dla Techbriefly, a nawet udając niewidomego, aby przekonać człowieka do rozwiązania captcha.
Szybki postęp i skuteczność sztucznej inteligencji zaniepokoiły niektórych ekspertów do tego stopnia, że 500 czołowych inżynierów (w tym Elon Musk) wezwało sztuczną inteligencję do zatrzymania mocniejszych systemów, powołując się na możliwe zagrożenia w niejasnej przyszłości technologii.
Chcesz dowiedzieć się, jak ChatGPT zdało egzamin MBA? Aby dowiedzieć się więcej, przejdź do:
Source: Program Bug Bounty OpenAI oferuje nagrody do 20 000 $