W zaskakującym posunięciu OpenAI po cichu zrewidowała swoją politykę użytkowania, eliminując wulgarny język, który zabraniał wykorzystania jego technologii do celów wojskowych. Zmiana wprowadzona 10 stycznia 2024 r. usuwa z polityki poprzedni zakaz dotyczący „rozwoju broni” oraz „wojskości i działań wojennych”. Ta istotna zmiana wzbudziła obawy dotyczące potencjalnych konsekwencji wykorzystania potężnego narzędzia OpenAI, ChatGPT, w zastosowaniach wojskowych.
Redakcja polityczna
Modyfikacja, będąca częścią szerszej zmiany polityki mającej na celu zapewnienie przejrzystości i czytelności, zwróciła na siebie uwagę ze względu na jej wpływ na dopuszczalne wykorzystanie technologii OpenAI. W nowej polityce zachowano ogólny zakaz korzystania z usługi w celu wyrządzenia krzywdy sobie lub innym, podając przykłady takie jak opracowywanie lub używanie broni. Zniknął jednak konkretny zakaz zastosowań wojskowych.
Perspektywa OpenAI
Rzecznik OpenAI Niko Felix wyjaśnił, że celem było ustalenie uniwersalnych zasad, które będą łatwe do zapamiętania i zastosowania na całym świecie. Firma uważa, że wytyczne te, kładąc nacisk na zasady takie jak „Nie krzywdź innych”, są szerokie, a jednocześnie łatwe do zrozumienia. Felix powstrzymał się od jednoznacznego stwierdzenia, czy niejasny zakaz „szkody” obejmuje wszystkie zastosowania wojskowe, ale podkreślił zakaz wykorzystywania technologii do opracowywania, używania broni, wyrządzania krzywdy innym lub angażowania się w nieuprawnione działania naruszające bezpieczeństwo.
Wątpliwości ekspertów
Heidy Khlaaf, dyrektor techniczny w Trail of Bits, wyraziła zaniepokojenie faktem, że nowa polityka wydaje się przedkładać legalność nad bezpieczeństwo. Podkreśliła potencjalne ryzyko związane z wykorzystaniem sztucznej inteligencji w zastosowaniach wojskowych, powołując się na przypadki uprzedzeń i halucynacji w modelach wielkojęzykowych (LLM). Obawa polega na tym, że nieprecyzyjne i stronnicze operacje mogą prowadzić do zwiększonych szkód i ofiar wśród ludności cywilnej.
Egzekucja i konsekwencje w świecie rzeczywistym:
Konsekwencje zmiany polityki OpenAI w świecie rzeczywistym pozostają niejasne. OpenAI wcześniej nie była zaangażowana w egzekwowanie zakazu w zastosowaniach wojskowych. Pomimo obecnej niezdolności ChatGPT do bezpośredniego wyrządzania szkód, eksperci twierdzą, że jego zastosowanie w kontekstach wojskowych, nawet tych pokojowych, może pośrednio przyczynić się do powstania instytucji skupiającej się na śmiercionośności.
Możliwe motywacje i partnerstwa
Część ekspertów sugeruje, że OpenAI może po cichu łagodzić swoje stanowisko wobec zaangażowania wojskowego. Przejście od wyraźnego zakazu „wojskowych i wojennych” do skupienia się na „broni” mogłoby stworzyć przestrzeń do wspierania infrastruktury operacyjnej bez bezpośredniego angażowania się w rozwój broni. Bliska współpraca OpenAI z Microsoftem, głównym wykonawcą branży obronnej, rodzi pytania o wpływ takich relacji na politykę firmy.
Zainteresowanie wojskowe sztuczną inteligencją
Zmiany w polityce pojawiają się w czasie, gdy siły zbrojne na całym świecie chętnie wykorzystują techniki uczenia maszynowego. Amerykański Pentagon wstępnie bada wykorzystanie ChatGPT i innych modeli wielojęzycznych w celu uzyskania strategicznej przewagi. Uznając obawy dotyczące dokładności i zagrożeń bezpieczeństwa, wojsko pozostaje entuzjastycznie nastawione do przyjmowania narzędzi sztucznej inteligencji.
Rewizja polityki użytkowania OpenAI, w szczególności usunięcie wyraźnych zakazów dotyczących zastosowań wojskowych, rodzi ważne pytania dotyczące etycznego wykorzystania zaawansowanych modeli językowych. W miarę ewolucji powiązań sztucznej inteligencji i interesów wojskowych niezwykle istotne staje się znalezienie równowagi między innowacjami technologicznymi a względami etycznymi, aby zapobiec potencjalnym szkodom i nadużyciom. Konsekwencje tych zmian politycznych niewątpliwie zaostrzą trwające dyskusje na temat odpowiedzialnego wdrażania potężnych technologii sztucznej inteligencji w różnych dziedzinach.
Autor wyróżnionego obrazu: Specna Arms/Unsplash