W znacznym rozwoju organów ścigania sztuczna inteligencja (AI) jest coraz częściej przyjmowana przez departamenty policji w Stanach Zjednoczonych w celu usprawnienia procesu opracowywania raportów policyjnych. Oficer Scott Brittingham z Fort Collins w Kolorado, Departament Policji, początkowo sceptyczny wobec nowych technologii, stwierdził, że jego raport był dramatycznie skrócony z 45 minut do zaledwie 10 minut, wykorzystując oprogramowanie zasilane AI o nazwie Draft One. Ta wydajność pozwala funkcjonariuszom poświęcić więcej czasu na reagowanie na wezwania do służby i proaktywnie zapobiegania przestępczości.
Projekt One, opracowany przez firmę zajmującą się technologią organów ścigania Axon, która produkuje również tasery i kamery ciała, ma na celu stworzenie wstępnych projektów raportów policyjnych. Axon donosi, że Draft One stał się swoim najszybciej rozwijającym się produktem od momentu uruchomienia w 2024 r. Koncepcja projektu wyłonięła się bezpośrednio z niedoborów personelu, przed którymi stoi departamenty policji w całym kraju. Ankieta w 2024 r. Przeprowadzona przez Międzynarodowe Stowarzyszenie Szefów Policji wykazała, że agencje działały średnio co najmniej 10% poniżej ich upoważnionych poziomów personelu. Josh Isner, prezes Axon, stwierdził: „Największym problemem w zakresie bezpieczeństwa publicznego jest zatrudnienie. Nie można zatrudnić wystarczającej liczby funkcjonariuszy policji. Wszystko, co Departament Policji może przyjąć, aby zwiększyć ich wydajność, jest teraz rodzajem nazwy gry”.
Powstanie sztucznej inteligencji w generowaniu raportów policyjnych nie jest pozbawione krytyków. Eksperci prawni i zwolennicy praw obywatelskich wyrazili poważne obawy dotyczące potencjalnych uprzedzeń, niedokładności i kwestii przejrzystości związanych z raportami opartymi na AI. Obawy te są szczególnie istotne, biorąc pod uwagę kluczową rolę raportów policyjnych w procesie wymiaru sprawiedliwości w sprawach karnych, wpływając na decyzje podejmowane przez prokuratorów, obrońców i sędziów. Andrew Guthrie Ferguson, amerykański profesor prawa uniwersyteckiego specjalizujący się w technologii i policji, podkreślił, że „raporty policyjne są tak naprawdę mechanizmem odpowiedzialności. Jest to uzasadnienie władzy państwowej, władzy policyjnej”.
Projekt One działa poprzez wykorzystanie transkryptów z materiału z kamery, aby wygenerować projekty raportów w ciągu kilku sekund od prośby oficera. Oprogramowanie następnie skłania funkcjonariusza do przeglądu i edytowania projektu, wypełniając przemyki w nawiasach zaprojektowanych w celu zapewnienia dokładnego przeglądu i korekty potencjalnych błędów lub dodawania brakujących informacji. Prezydent Axon Josh Isner potwierdził: „To naprawdę musi być własny raport oficera pod koniec dnia i muszą się podpisać, co się stało”. Model AI wykorzystywany przez Draft One to zmodyfikowana wersja Chatgpt Openai, którą Axon dalej przeszkolił do łagodzenia „halucynacji” – błędów faktycznych, które systemy AI mogą losowo wygenerować. Axon współpracuje również z grupą zewnętrznych naukowców, zwolenników sprawiedliwości naprawczej i liderami społeczności, aby uzyskać informacje zwrotne na temat odpowiedzialnego rozwoju technologii i łagodzenia stronniczości.
Poza Fort Collins, departamenty policji w Lafayette w stanie Indiana; Tampa na Florydzie; i Campbell w Kalifornii również przyjął jeden projekt. W Fort Collins sierżant technologii Bob Younger zainicjował program pilotażowy z około 70 oficerami po przekonującej demonstracji narzędzia. Zauważył: „Zostałem zaskoczony jakością raportu, dokładnością raportu i tego, jak to się stało. Pomyślałem sobie:„ Jest to okazja, której nie możemy odpuścić ”. Departament Policji Fort Collins rozszerzył dostęp do wszystkich funkcjonariuszy i szacuje, że projekt One skrócił czas pisania o prawie 70%, skutecznie oddając cenny czas.
Pomimo pozytywnych opinii niektórych prokuratorów, użycie AI w raportach policyjnych napotkało opór. We wrześniu 2024 r. Prokuratura w hrabstwie King w stanie Waszyngton postanowiła zaakceptować raporty policyjne w oparciu o AI. W e -mailu do szefów policji wyrazili zaniepokojenie, że korzystanie z narzędzia „prawdopodobnie spowodowałoby, że wielu twoich funkcjonariuszy zatwierdzi narracje aksonu z niezamierzonymi błędami”. Axon odpowiedział, potwierdzając swoje zaangażowanie w ciągłą współpracę z różnymi zainteresowanymi stronami w celu kierowania odpowiedzialną ewolucją projektu jednego i stwierdził, że jego model AI jest „skalibrowany… w celu zminimalizowania spekulacji lub ozdób”.
American Civil Liberties Union (ACLU) również publicznie zaleciło korzystanie z projektu. Jay Stanley, analityk ds. Polityki w projekcie prywatności i technologii ACLU, stwierdził: „Kiedy zobaczysz, że ta zupełnie nowa technologia jest w pewnym sensie wkładana do serca systemu wymiaru sprawiedliwości w sprawach karnych, który jest już pełen niesprawiedliwości i uprzedzeń i tak dalej, zdecydowanie jest to coś, co siedzimy w pionie i bliżej przyjrzeć się”. Obawy obejmują potencjał błędów w transkryptach materiału z kamery z powodu akcentów lub braku niewerbalnych wskazówek wpływających na dokładność raportów generowanych przez AI. Podczas gdy jeden z nich zawiera automatyczne puste pola w celu ponownego przeglądu oficera, możliwe jest złożenie raportu bez wprowadzania żadnych zmian w projekcie generowanym przez AI. Ponadto, po przedstawieniu raportu, oryginalny projekt generowany przez AI nie jest zapisany, co wyklucza możliwość przeglądu tego, co urzędnik zrobił lub nie zmienił, praktyka stwierdza, że akson stwierdza tradycyjne, ręcznie napisane procesy raportów.
Znacząca kwestia przejrzystości dotyczy tego, czy oskarżeni są poinformowani, że raport policyjny w ich przypadku został opracowany przez AI. Projekt ostatecznych raportów obejmuje domyślnie konfigurowalne zastrzeżenie, wskazujące na pomoc AI, ale działy mają opcję wyłączenia tej funkcji. Na przykład Departament Policji Fort Collins nie zawiera zrzeczeń w zakresie raportów generowanych przez AI. Jednak Ferguson opowiada się za „radykalną przejrzystością” jako najlepszą praktyką, sentymentem echem w Utah, w którym prawodawcy uchwalili ustawę na początku tego roku, wymagając od departamentów policji o włączenie takich zastrzeżeń do ostatecznych raportów z przerw w AI.
Ostatecznie narzędzia AI, takie jak Draft One, są postrzegane jako AIDS, a nie zamienniki dla ludzkich oficerów. Oficer Brittingham doszedł do wniosku: „Moje ogólne wrażenie jest takie, że jest to narzędzie jak wszystko inne. To nie jest poprawka. Nie zastępuje nam pisania raportów. To tylko narzędzie, które pomoże nam w pisaniu raportów”. Ponieważ AI nadal integruje się z różnymi aspektami społeczeństwa, jego zastosowanie w wrażliwych obszarach, takich jak organy ścigania, wymaga starannego rozważenia jego korzyści, ograniczeń i implikacji etycznych w celu zapewnienia odpowiedzialności i utrzymania zaufania publicznego.





