Londyńskie metro wykorzystuje sztuczną inteligencję do wykrywania intruzów w czasie rzeczywistym
Na jednej ze stacji londyńskiego metra kamery CCTV zostały połączone ze sztuczną inteligencją w celu śledzenia naruszeń zasad metra. Podczas procesu wydano ponad 44 000 powiadomień, z których większość dotyczyła uchylania się od płacenia za przejazd.
Zostało to zgłoszone przez Wired.
Od października 2022 r. do końca września 2023 r. TfL, firma transportowa obsługująca sieć londyńskiego metra, testowała algorytmy sztucznej inteligencji do rozpoznawania zdarzeń w materiałach wideo. Testy odbyły się na stacji Willesden Green w północno-zachodniej części miasta.
Oprogramowanie zostało połączone z transmisjami na żywo z kamer CCTV w celu wykrycia agresywnych zachowań i wymachiwania bronią lub nożami, a także w celu wykrycia osób upadających na tory metra lub unikających opłat za przejazd.
Jest to pierwszy przypadek w Wielkiej Brytanii, gdy władze transportowe połączyły sztuczną inteligencję i wideo w czasie rzeczywistym w celu tworzenia alertów dla personelu stacji. W okresie próbnym wydano ponad 44 000 ostrzeżeń, z czego 19 000 w czasie rzeczywistym.
Większość ostrzeżeń dotyczyła osób, które uchylały się od płacenia za przejazd – 26 000. Według TfL, straty wynikające z niepłacenia za przejazdy sięgają nawet 130 milionów funtów (ponad 150 milionów euro) rocznie.
Szefowa TfL ds. bezpieczeństwa publicznego Mandy McGregor twierdzi, że na stacji nie było żadnych znaków wspominających o próbach narzędzi śledzenia AI, aby pasażerowie zachowywali się naturalnie.
Znaczna część analizy miała na celu pomóc pracownikom zrozumieć, co dzieje się w zakładzie i szybko reagować na incydenty. System wysłał 2200 ostrzeżeń o osobach przekraczających żółte linie bezpieczeństwa, 39 ostrzeżeń o osobach wychylających się poza krawędź peronu i prawie 2000 ostrzeżeń o osobach siedzących na ławce przez długi czas.
W publikacji napisano, że sztuczna inteligencja popełniła błędy podczas testów. Na przykład oznaczał dzieci, które podążały za swoimi rodzicami przez bramki, jako potencjalnie niewywiązujące się ze zobowiązań. W konfiguracji systemu pomagali również funkcjonariusze policji. Policjanci trzymali maczetę i strzelbę na widoku kamer, aby pomóc systemowi lepiej rozpoznać broń.
Podczas wszystkich testów obrazy ludzkich twarzy były rozmyte, a dane były przechowywane przez maksymalnie 14 dni. Jednak sześć miesięcy po rozpoczęciu testów systemu zdecydowano się na dłuższe przechowywanie tych danych ze względu na dużą liczbę powiadomień, na które pracownicy nie mieli czasu odpowiedzieć.
Testy miały również na celu sprawdzenie, czy sztuczna inteligencja może wykrywać rowery i skutery. “Sztuczna inteligencja nie była w stanie odróżnić składanego roweru od zwykłego, ani hulajnogi elektrycznej od hulajnogi dziecięcej” – czytamy w artykule.