Twórcy ChatGPT opracowali narzędzie pamięci, aby poprawić doświadczenie użytkownika poprzez zachowywanie danych osobowych z konwersacji do konwersacji. Jednak, jak wiele możliwości, wiązało się to z ryzykiem. Specjaliści ds. bezpieczeństwa niedawno odkryli technikę, której hakerzy mogą użyć, aby wstrzykiwać fałszywe wspomnienia do ChatGPT, narażając użytkowników na kradzież danych.
Problem dotyczy aplikacji ChatGPT MacOS, w której strony przeciwne mogą wstrzykiwać monity, aby zmienić to, co AI pamięta o swoich użytkownikach. W rezultacie informacje są przechowywane, a następnie przesyłane na serwer hakera. Mimo że problem wydaje się poważny, może nie być tak przerażający, jak się wydaje na pierwszy rzut oka, dzięki kilku krokom podjętym przez OpenAI w celu ochrony użytkowników.
Główną słabością systemu pamięci ChatGPT
Badacz Johann Rehberger z Embrace The Red szczegółowo opisał lukę w szczegółowym raporcie. Rehberger pokazał, jak atakujący mogą wstrzykiwać monity, aby zapisać złośliwe instrukcje w Pamięć ChatGPTKrótko mówiąc, haker może oszukać aplikację, aby zapamiętała nieprawidłowe informacje, narażając wrażliwe dane na ryzyko przyszłych wymian.
Exploit staje się niebezpieczny, ponieważ pozwala atakującemu zarządzać pamięcią ChatGPT podczas wielu zaangażowań. Haker może wyodrębnić dowolne dane użytkownika — od preferencji po nazwy i ustawienia regionalne — pod warunkiem, że fałszywa pamięć pozostanie osadzona w systemie.
Na szczęście ten typ ataku nie jest powszechny. Po zajęciu się luką, OpenAI znacznie utrudniło hakerom wykorzystanie funkcji pamięci. Nadal istnieją luki, szczególnie w narzędziach i aplikacjach innych firm, które odsłaniają nowe obszary potencjalnej manipulacji.
Poprawki i pozostałe luki w zabezpieczeniach
OpenAI wprowadziło aktualizację API dla wariantu internetowego ChatGPT w odpowiedzi na rozpoznany problem z pamięcią, uniemożliwiając w ten sposób wykorzystanie exploita prompt injection za pośrednictwem interfejsu przeglądarki. Ponadto wydali aktualizację dla narzędzia memory, która zapobiega jego przekształcaniu się w wektor eksfiltracji. Te ulepszenia są niezbędne, aby system mógł utrzymać wysoki poziom bezpieczeństwa, mimo że potencjalne zagrożenia nadal istnieją.
Aplikacje innych firm pozostają największym powodem do niepokoju. Chociaż modyfikacje OpenAI zakończyły problem nadużywania pamięci w jego podstawowych systemach, badacze ds. bezpieczeństwa ostrzegają, że niezaufana zawartość nadal może sterować pamięcią ChatGPT za pośrednictwem podłączonych aplikacji, przesyłania plików i narzędzi przeglądania. Stanowi to arenę, na której natychmiastowe wstrzyknięcia mogą dalej prosperować.
Jak się chronić
Chociaż modyfikacje OpenAI zmniejszyły zagrożenie powszechnymi atakami, użytkownicy powinni zachować czujność. Oto kilka sposobów na ochronę przed potencjalnymi atakami na pamięć:
- Regularnie przeglądaj swoje wspomnienia ChatGPT: Użytkownicy powinni często sprawdzać powiadomienia „nowa pamięć dodana” w aplikacji ChatGPT. Ta funkcja pozwala sprawdzić, jakie informacje są archiwizowane, co daje możliwość wyeliminowania wątpliwych wpisów.
- Wyłącz pamięć, jeśli nie jest potrzebna:ChatGPT automatycznie włącza funkcję pamięci, ale możesz wybrać opcję dezaktywacjiTo podejście jest proste, ale wystarczająco skuteczne, aby wyeliminować ryzyko ataków opartych na pamięci.
- Zachowaj ostrożność w przypadku interakcji z osobami trzecimi: Jeśli używasz połączonych aplikacji lub przesyłasz pliki do ChatGPT, powinieneś zachować wyjątkową ostrożność. Te strefy są nadal bardziej narażone na ataki typu swift injection.
Mimo że żaden system nie jest całkowicie odporny na zagrożenia, zachowanie ostrożności i regularne sprawdzanie zapisanych danych w pamięci może zmniejszyć ryzyko stania się celem tego ataku.
Zaawansowane zabezpieczenia pamięci ChatGPT
Przechowywanie danych użytkownika przez ChatGPT w celu zapewnienia spersonalizowanej obsługi stanowi silne narzędzie. Korzystając z tej metody, system może zapamiętać preferencje, przywołać poprzednie rozmowy, a nawet uznać konkretne polubienia lub niechęci, aby tworzyć lepsze odpowiedzi. Ta moc jednak stwarza ryzyko. ChatGPT naraża się na potencjalną manipulację poprzez szybkie wstrzykiwanie informacji, przechowując je na dłuższą metę.
Rehberger poinformował, że hakerzy mogą generować wiele fałszywych wspomnień w jednej akcji. Po dostarczeniu wspomnienia te pozostają w ChatGPT, co może mieć wpływ na całą przyszłą komunikację z AI. Założenie o ciągłym zaufaniu do chatbota może być ryzykowne, ponieważ użytkownicy mogą przypadkowo udostępnić więcej informacji osobistych, nie zdając sobie z tego sprawy.
Chociaż OpenAI poczyniło duże postępy w rozwiązywaniu tych wyzwań, nadal pozostają pewne niekompletne pytania. Na przykład kilka segmentów w ramach platformy nadal jest narażonych na ataki typu prompt injection, szczególnie gdy niezweryfikowana treść od osób trzecich wchodzi do dyskusji. Decyzja firmy, aby nie klasyfikować tego jako „luki w zabezpieczeniach”, ale raczej jako „problem bezpieczeństwa modelu”, wzbudziła wątpliwości ekspertów.
Regularny monitoring: Twoja najlepsza obrona
Użytkownicy muszą podjąć dodatkowe środki w celu ochrony swoich informacji pomimo ukrytych luk w pamięci. Oto kilka dostępnych opcji:
- Sprawdź wszystkie powiadomienia o „aktualizacji pamięci”: Kiedy ChatGPT powiadomi Cię o aktualizacji pamięci, zatrzymaj się, aby przejrzeć zapisaną zawartość. Ta funkcja pomaga zidentyfikować wszelkie niepotrzebne informacje, które są przechowywane.
- Usuń niechciane wspomnienia: Użytkownicy mają pełną władzę nad pamięcią ChatGPT. Jeśli zauważysz coś nietypowego, usuń to, aby zapobiec potencjalnym uszkodzeniom.
- Zachowaj czujność korzystając z narzędzi innych firm: Monitoruj wszelkie połączenia między ChatGPT a aplikacjami innych firm. Te narzędzia są nadal podatne na manipulację, ponieważ działania OpenAI nie wyeliminowały możliwości natychmiastowych wstrzyknięć w tych obszarach.
Sztuczki pamięciowe: coś więcej niż tylko błąd?
Luka w pamięci odkryta w ChatGPT ujawniła, że narzędzia AI zaprojektowane w celu ulepszenia doświadczeń użytkownika mogą wprowadzać dodatkowe zagrożenia bezpieczeństwa. Charakterystyki oparte na pamięci umożliwiają spersonalizowane interakcje, ale pozwalają hakerom na niewłaściwe wykorzystywanie tych interakcji w złośliwych celach.
W miarę rozwoju ChatGPT użytkownicy powinni zachować czujność, stale sprawdzać zapisane wspomnienia i być ostrożnym podczas korzystania z treści zewnętrznych. Mimo że OpenAI znacznie poprawiło bezpieczeństwo, konieczne są dodatkowe wysiłki, aby rozwiązać istniejące luki w zabezpieczeniach. Będąc świadomym potencjalnych zagrożeń i działając proaktywnie, nadal możesz mieć spersonalizowane interakcje z ChatGPT, zapewniając jednocześnie bezpieczeństwo swoich danych.
Źródło wyróżnionego obrazu: wolnypik
Source: Hack pamięci ChatGPT: Słabość zabezpieczeń AI sprawia, że ponownie oceniasz swój poziom zaufania