Świat przyzwyczaja się do Deepfake’ów, fałszywych filmów stworzonych przez sztuczną inteligencję, a najnowsze doniesienia pokazują, że ta technologia może być również wykorzystywana do zdjęć satelitarnych, a ta sytuacja stwarza duże ryzyko według geografów. Mapy generowane przez sztuczną inteligencję mogą być teraz wykorzystywane jako narzędzia dezinformacyjne.
Grupa naukowców z University of Washington stworzyła sposób generowania szczegółowych zdjęć satelitarnych w celu wykrywania zmanipulowanych obrazów. Ten eksperyment zapewnia wgląd w to, jak powstają fałszywe miasta.
Tak powstają obrazy satelitarne Deepfake
Weźmy na przykład miasto, Nowy Jork. Nakładamy na nią budynki z Waszyngtonu lub Chicago, generując zupełnie inne miasto. Wykonanie nie jest idealne, ale wystarczy, aby ludzie pomyśleli, że są to błędy generowane przez niską jakość obrazu.
Po stworzeniu oprogramowania do generowania obrazów satelitarnych Deepfake, przygotowali kolejne, zdolne do wykrywania podróbek na podstawie tekstury, kontrastu i koloru.
Badaniami kieruje Bo Zhao, profesor geografii na Uniwersytecie Waszyngtońskim.
„Chcemy zdemistyfikować funkcję absolutnej wiarygodności zdjęć satelitarnych i podnieść świadomość społeczną na temat potencjalnego wpływu głębokiej fałszywej geografii” – powiedział Zhao.
„Chociaż wiele GIS [geographic information system] praktycy celebrują techniczne zalety głębokiego uczenia się i innych rodzajów sztucznej inteligencji w rozwiązywaniu problemów geograficznych, niewielu publicznie rozpoznało lub skrytykowało potencjalne zagrożenia głębokiego fałszerstwa w dziedzinie geografii lub poza nią ”- dodaje Zhao.
Łatwiej jest tworzyć fałszywe zdjęcia satelitarne niż fałszywe filmy przedstawiające ludzi. Niższe rozdzielczości, wyjaśnia Zhao, mogą być bardzo przekonujące.