Firma Microsoft wydała narzędzie typu open source, które ma pomóc programistom w ocenie bezpieczeństwa systemów sztucznej inteligencji, nad którymi pracują. Nazywa się projekt Counterfit i jest teraz dostępny na GitHub.
Sama firma z Redmond wykorzystała już Counterfit do testowania własnych modeli AI w czerwonej drużynie firmy. Ponadto inne działy firmy Microsoft również badają wykorzystanie tego narzędzia w rozwoju sztucznej inteligencji.
Microsoft symuluje cyberataki za pomocą Counterfit
Zgodnie z ujawnieniami Microsoftu na Github, Counterfit ma narzędzie wiersza poleceń i ogólną warstwę automatyzacji do oceny bezpieczeństwa systemów uczenia maszynowego.
Pozwala to programistom na symulowanie cyberataków na systemy sztucznej inteligencji w celu testowania bezpieczeństwa. Każdy może pobrać narzędzie i wdrożyć je za pośrednictwem Azure Shell, aby uruchomić w przeglądarce lub lokalnie w środowisku Anaconda Python.
„Nasze narzędzie udostępnia opublikowane algorytmy ataków społeczności zajmującej się bezpieczeństwem i pomaga zapewnić rozszerzalny interfejs, za pomocą którego można budować, zarządzać i przeprowadzać ataki na modele sztucznej inteligencji” – powiedział Microsoft.
Narzędzie ma fabrycznie załadowane przykładowe algorytmy ataku. Ponadto specjaliści ds. Bezpieczeństwa mogą również użyć wbudowanego silnika skryptowego cmd2, aby podłączyć się do Counterfit z innych istniejących ofensywnych narzędzi do celów testowych.
Według ITPro, Microsoft opracował narzędzie z potrzeby oceny swoich systemów pod kątem luk w zabezpieczeniach. Counterfit rozpoczął się jako skrypty ataku napisane w celu ataku na poszczególne modele sztucznej inteligencji i stopniowo ewoluował w narzędzie do automatyzacji ataków na wiele systemów.
Firma twierdzi, że współpracowała z kilkoma swoimi partnerami, klientami i podmiotami rządowymi, aby przetestować narzędzie z modelami sztucznej inteligencji w ich środowiskach.