OpenAI, potęga sztucznej inteligencji znana z przełomowych innowacji, po raz kolejny znalazła się na pierwszych stronach gazet, choć nie z powodów, które by wolała. Tym razem firma jest pod lupą z powodu pary poważnych naruszeń bezpieczeństwa, które wzbudziły obawy dotyczące jej praktyk ochrony danych i ogólnych ram cyberbezpieczeństwa.
ChatGPT dla komputerów Mac nie jest tak bezpieczny, jak myślałeś
Pierwszy incydent dotyczy aplikacji ChatGPT firmy OpenAI przeznaczonej dla użytkowników komputerów Mac, która – jak niedawno odkryto – przechowuje rozmowy użytkowników w niezaszyfrowanym formacie bezpośrednio na urządzeniach lokalnych. SkrajRaport ‘a.
Oznaczało to, że poufne informacje udostępniane podczas czatów mogły być potencjalnie ujawnione i dostępne dla innych aplikacji lub złośliwego oprogramowania.
Szybki programista Pedro José Pereira Vieito ujawniło tę lukę, co skłoniło OpenAI do szybkiego wydania aktualizacji, która implementowała szyfrowanie przechowywanych konwersacji. Jednak incydent podkreślił znaczenie solidnych środków bezpieczeństwa nawet w pozornie niegroźnych aplikacjach.
Aplikacja OpenAI ChatGPT na macOS nie jest piaskownicą i przechowuje wszystkie konwersacje w **zwykłym tekście** w niezabezpieczonej lokalizacji:
~/Biblioteka/Wsparcie aplikacji/com.openai.chat/conversations-{uuid}/
Zasadniczo każda inna aplikacja/złośliwe oprogramowanie może odczytać wszystkie Twoje konwersacje ChatGPT: fot.twitter.com/IqtNUOSql7
— Pedro José Pereira Vieito (@pvieito) 2 lipca 2024 r.
Incydent z ubiegłego roku nie daje spokoju gigantowi technologicznemu
Do pogłębienia problemów z bezpieczeństwem, OpenAI znów nawiedziło osobne naruszenie z zeszłej wiosny. Hakerowi udało się zinfiltrować wewnętrzne systemy wiadomości firmy, uzyskując dostęp do poufnych informacji o jej działalności i technologiach AI.
Choć kierownictwo OpenAI postanowiło nie ujawniać publicznie informacji o naruszeniu, gdyż uważało, że nie zagraża ono danym klientów ani partnerów, incydent ten wywołał wewnętrzny konflikt.
Niektórzy pracownicy, w tym były kierownik programu technicznego OpenAI Leopold Aschenbrenner, wyrazili obawy, że środki bezpieczeństwa firmy są niewystarczające, aby zapewnić ochronę przed potencjalnymi zagrożeniami, w szczególności ze strony zagranicznych przeciwników, którzy chcą ukraść cenną technologię sztucznej inteligencji.
Bezpieczeństwo? Nie, dziękuję!
Te dwa incydenty wysuwają na pierwszy plan szerszą debatę na temat zaangażowania OpenAI w bezpieczeństwo i przejrzystość. Podczas gdy firma podjęła kroki w celu rozwiązania bezpośrednich luk, pozostają pytania dotyczące jej wewnętrznych procesów i zakresu, w jakim priorytetowo traktuje bezpieczeństwo w swoim rozwoju i wdrażaniu aplikacji AI. Potencjalne ryzyko geopolityczne związane z zaawansowanymi technologiami AI dodatkowo komplikuje problem, ponieważ strach przed kradzieżą własności intelektualnej przez państwa obce jest ogromny.
Odpowiedź OpenAI na te wyzwania była dwojaka.
Po pierwsze, ustanowiono Komitet ds. Bezpieczeństwa i Ochrony aby ocenić i złagodzić ryzyko związane z przyszłymi technologiami. W skład tego komitetu wchodzą wybitne postacie, takie jak Paul Nakasone, były generał armii i ekspert ds. cyberbezpieczeństwa. Po drugie, firma potwierdziła swoje zaangażowanie w inwestowanie w ochronę swoich technologii, podkreślając, że działania te poprzedzają ostatnie incydenty i są stale rozwijane.
Reputacja OpenAI i zaufanie jego użytkowników opierają się na umiejętności wyciągania wniosków z tych doświadczeń i dbaniu o to, aby bezpieczeństwo pozostało najwyższym priorytetem. Jednocześnie firma wciąż zaskakuje nas kolejnymi innowacjami w zakresie rozwoju technologii sztucznej inteligencji.
Źródło wyróżnionego obrazu: Jonathan Kemper/Odsłoń
Source: Reputacja OpenAI i zaufanie użytkowników zostały zachwiane przez incydenty bezpieczeństwa