Wyciek Samsung ChatGPT to najnowsze ujawnienie danych za pomocą chatbota, które ma miejsce w delikatnym momencie, jeśli chodzi o obawy dotyczące prywatności dotyczące modelu językowego: Fałszywe rozszerzenie ChatGPT przejmuje kontrolę nad kontami na Facebooku
Korzystając z ChatGPT do pomocy w wykonywaniu zadań, pracownicy Samsunga nieumyślnie ujawnili poufne informacje o firmie. Firma zapewniła inżynierom z działu półprzewodników dostęp do narzędzia AI, aby pomóc w rozwiązywaniu problemów z kodem źródłowym. Jednak pracownicy wprowadzali prywatne informacje, w tym kod źródłowy nowego oprogramowania i protokoły ze spotkań, a także informacje o swoim sprzęcie.

W wyniku wycieku Samsung ChatGPT w ciągu mniej niż miesiąca odnotowano trzy udokumentowane przypadki wycieku krytycznych informacji przez pracowników za pośrednictwem ChatGPT. Te tajemnice handlowe Samsunga są teraz zasadniczo w rękach OpenAI, firmy, która stworzyła ChatGPT, ponieważ przechowuje ona dane wprowadzane przez użytkowników w celu dalszego szkolenia.
Środki ostrożności po wycieku Samsung ChatGPT
Według zarzutów w lokalnych mediach koreańskich, pracownik Samsunga wprowadził kod źródłowy z nieprawidłowo działającej bazy danych półprzewodników do ChatGPT i poprosił o pomoc w zlokalizowaniu rozwiązania. W innym przypadku pracownik ujawnił tajny kod, próbując naprawić wadliwy sprzęt. Według doniesień inny pracownik przekazał chatbotowi kontrolę nad całym spotkaniem i polecił mu nagrywać przebieg spotkania.
W odpowiedzi Samsung Semiconductor tworzy obecnie własną wewnętrzną sztuczną inteligencję do użytku przez pracowników, chociaż mogą oni używać tylko monitów, które nie są większe niż 1024 bajty.

Jednak uczynienie tego procesu tak efektywnym, jak to tylko możliwe, może potencjalnie zaoszczędzić producentom układów scalonych znaczną ilość czasu na testowaniu i weryfikacji procesorów, co również prowadzi do redukcji kosztów. W jednym z wyżej wymienionych przypadków pracownik poprosił ChatGPT o zoptymalizowanie sekwencji testowych w celu identyfikacji usterek w chipach.
Za mało, za późno
Problem z ujawnianiem tajemnic handlowych w ChatGPT polega na tym, że wpisane pytania nie zawsze znikają po wylogowaniu się pracownika z komputera. Według OpenAI, może wykorzystywać informacje dostarczane przez ChatGPT lub inne usługi użytkownika w celu ulepszenia swoich modeli sztucznej inteligencji. Innymi słowy, o ile użytkownicy wyraźnie nie zrezygnują, OpenAI zachowuje te dane. Ponieważ „nie jest w stanie usunąć określonych monitów”, OpenAI wyraźnie ostrzega użytkowników przed ujawnianiem krytycznych informacji.
W następstwie incydentów firma Samsung Electronics ostrzegła swoich pracowników przed potencjalnym ryzykiem ujawnienia prywatnych informacji, stwierdzając, że takie dane są obecnie przechowywane na serwerach należących do OpenAI i nie można ich odzyskać. Każdy wyciek danych może mieć katastrofalne skutki dla korporacji działającej w niezwykle konkurencyjnej branży półprzewodników.
Ale użytkownicy ChatGPT w Samsungu nie są jedynymi, którzy udostępniają więcej. Cyberhaven, firma zajmująca się cyberbezpieczeństwem, przeprowadziła niedawno badania i odkryła, że 3,1% użytkowników jej sztucznej inteligencji kiedykolwiek wprowadziło poufne informacje firmowe. Według Cyberhaven korporacja zatrudniająca około 100 000 pracowników może wysyłać prywatne informacje OpenAI setki razy w tygodniu.

Wydaje się, że firma nie ma żadnych możliwości prawnych w obliczu wycieku Samsung ChatGPT, aby poprosić OpenAI o odzyskanie lub usunięcie prywatnych informacji, które obecnie przechowuje. Niektórzy sugerowali, że ponieważ jest to jedna z podstawowych zasad prawa regulujących sposób, w jaki firmy gromadzą i wykorzystują dane, ChatGPT narusza RODO UE właśnie z tego powodu. Jest to również jedno z wyjaśnień, dlaczego ChatGPT został zakazany we Włoszech.





