W tym tygodniu firma OpenAI stanęła w obliczu dwóch poważnych problemów bezpieczeństwa, które wzbudziły poważne obawy co do sposobu, w jaki firma radzi sobie z cyberbezpieczeństwem:
Pierwszy problem: luka w zabezpieczeniach aplikacji ChatGPT Mac
Pedro José Pereira Vieito znalazł poważną lukę w aplikacji ChatGPT Mac. Odkrył, że aplikacja przechowywała rozmowy użytkowników w postaci zwykłego tekstu na komputerze bez żadnego szyfrowania. To duży problem, ponieważ aplikacja jest dostępna tylko na stronie internetowej OpenAI i nie spełnia wymogów bezpieczeństwa Apple. Te wymogi, znane jako sandboxing, pomagają zapobiegać problemom aplikacji w reszcie systemu.
Aplikacja OpenAI ChatGPT na macOS nie jest piaskownicą i przechowuje wszystkie konwersacje w **zwykłym tekście** w niezabezpieczonej lokalizacji:
~/Biblioteka/Wsparcie aplikacji/com.openai.chat/conversations-{uuid}/
Zasadniczo każda inna aplikacja/złośliwe oprogramowanie może odczytać wszystkie Twoje konwersacje ChatGPT: fot.twitter.com/IqtNUOSql7
— Pedro José Pereira Vieito (@pvieito) 2 lipca 2024 r.
Przechowywanie zwykłego tekstu oznacza, że każdy, kto ma dostęp do komputera, może łatwo odczytać te konwersacje, co czyni je podatnymi na inne aplikacje lub złośliwe oprogramowanie. Po tym, jak odkrycia Vieito zostały zgłoszone przez SkrajFirma OpenAI szybko wydała aktualizację umożliwiającą szyfrowanie przechowywanych rozmów.
Drugi problem: szersze obawy dotyczące cyberbezpieczeństwa
Drugi problem pochodzi z 2023 r., ale w tym tygodniu znów znalazł się w centrum uwagi. Wiosną ubiegłego roku haker uzyskał dostęp do wewnętrznych systemów wiadomości OpenAI i ukradł poufne informacje firmy. Leopold Aschenbrenner, kierownik ds. programów technicznych w OpenAI, podniósł alarm w związku z tym atakiem hakerskim, twierdząc, że wykazał on poważne luki w zabezpieczeniach, które mogą zostać wykorzystane przez zagranicznych wrogów.
Aschenbrenner zgłoszono te obawy do zarządu OpenAI. Później twierdził, że został zwolniony za ujawnienie tych problemów. OpenAI jednak zaprzeczyło temu, stwierdzając, że jego odejście nie było spowodowane jego ujawnieniem nieprawidłowości, chociaż uznali jego zaangażowanie w bezpieczeństwo AI.
Implikacje dla OpenAI
Problemy z bezpieczeństwem zdarzają się wielu firmom technologicznym, ale te incydenty są szczególnie niepokojące dla OpenAI ze względu na to, jak szeroko używany jest ChatGPT. Te problemy rodzą pytania o to, czy OpenAI może utrzymać swoje dane w bezpieczeństwie, zwłaszcza że ChatGPT staje się coraz bardziej zintegrowany z głównymi usługami.
Odpowiedź OpenAI na te problemy jest kluczowa dla utrzymania zaufania publicznego. Ich praktyki bezpieczeństwa i przejrzystość są obecnie pod lupą, a sposób, w jaki radzą sobie z tymi problemami, określi ich przyszłą reputację.
OpenAI stoi w obliczu poważnych wyzwań w zakresie bezpieczeństwa. Ostatnie problemy z aplikacją ChatGPT Mac i szersze luki w cyberbezpieczeństwie podkreślają potrzebę lepszych środków bezpieczeństwa i jasnej komunikacji. W miarę jak OpenAI będzie się rozwijać, zajęcie się tymi problemami bezpieczeństwa będzie miało zasadnicze znaczenie dla utrzymania zaufania i zapewnienia bezpiecznego rozwoju AI.
Źródło wyróżnionego obrazu: Eray Eliaçık/Bing
Source: Podwójna dawka problemów z bezpieczeństwem OpenAI w ciągu jednego tygodnia