Nowa metoda cyberataku o nazwie Grokking wykorzystuje asystent AI X, Grok, do dystrybucji złośliwego oprogramowania za pomocą złośliwych linków. Naukowcy z Guardio Labs ujawnili technikę 4 września, pokazując, w jaki sposób cyberprzestępcy zamieniają zaufany system AI w narzędzie do dostarczania złośliwego oprogramowania. Miliony użytkowników mogły być już narażone na niebezpieczne strony internetowe za pomocą tej metody.
Jak działają ataki złośliwego oprogramowania Grok
Atak ukrywa się złośliwe adresy URL W metadanych „od:” promowanych postów kart wideo. Reklamy często wykorzystują treści rewelacyjne lub dorosłe, aby przyciągnąć uwagę, jednocześnie ukrywając złośliwe oprogramowanie. Atakerzy odpowiadają na własne posty, oznaczając Grok pytań „skąd jest ten film?” Grok, zaufany jako konto systemowe, odczytuje ukryte metadane i ujawnia złośliwe ogniwo w swojej publicznej odpowiedzi. Płacona wzmocnienie reklam dodatkowo zwiększa ekspozycję, generując setki tysięcy do milionów wrażeń.
Zagrożenie aktorzy broni Grok i Mixtral dla złośliwego oprogramowania
Groking jest częścią rosnącego trendu, w którym przestępcy przetwarzają główne modele AI, takie jak Grok i Mistral’s Mixtral. Ci aktorzy zagrożeń owijają modele w interfejsach jailbreak, aby ominąć filtry bezpieczeństwa, tworząc narzędzia, które mogą generować e -maile phishingowe, kod złośliwego oprogramowania i samouczki dla początkujących hakerów. Według sieci Cato dostęp do tych nielegalnych narzędzi AI kosztuje tylko kilkaset euro. Wcześniejsze przykłady obejmują „nieocenzurowanego asystenta” napędzanego przez GROK i wariant oparty na mieszance.
Dlaczego ataki Grok są niebezpieczne
Główne ryzyko nie pochodzi z samych modeli AI, ale z tego, jak napastnicy wykorzystają system systemu i zaufane konta. Groking pokazuje, że nawet szeroko zaufane narzędzia sztucznej inteligencji mogą być uzbrojeni w połączeniu z inżynierią społeczną i lukami platformami. Eksperci ds. Bezpieczeństwa ostrzegają, że miliony użytkowników mogły być narażone na złośliwe strony internetowe, podkreślając pilną potrzebę lepszych zabezpieczeń i świadomości zagrożeń dla AI.
Jak zachować bezpieczeństwo przed złośliwym oprogramowaniem Grok
Użytkownicy powinni być ostrożni podczas klikania linków, nawet jeśli wydają się weryfikowane lub generowane AI. Platformy takie jak X potrzebują surowszych weryfikacji metadanych i lepszych kontroli, aby zapobiec dostarczaniu złośliwego oprogramowania wspomaganego przez AI. Uznanie tego Zaufane systemy AI można wykorzystać jest niezbędne do ochrony zarówno indywidualnych użytkowników, jak i sieci organizacyjnych przed powstającym cyberprzestępczością opartą na AI.
Source: AIS Assistant Grok używany do rozpowszechniania złośliwego oprogramowania na x
