Brytyjskie Ministerstwo Pracy i Emerytur (DWP) przyznało, iż stosowany przez nie system AI mający wykrywać oszustwa w systemie świadczeń socjalnych może działać stronniczo. Dokumenty ujawnione na podstawie wniosków o dostęp do informacji publicznej wskazują, iż algorytm wykorzystywany przy weryfikacji wniosków o tzw. universal credit przejawia uprzedzenia ze względu na wiek, niepełnosprawność, stan cywilny oraz narodowość osób składających podania.
Na początku roku wewnętrzna „analiza sprawiedliwości” (fairness analysis) wykazała „statystycznie istotne” różnice w tym, kogo system rekomendował do kontroli z powodu podejrzeń o nadużycia. Tymczasem zaledwie kilka miesięcy wcześniej przedstawiciele resortu zapewniali, iż ich rozwiązania nie prowadzą do dyskryminacji ani do niesprawiedliwego traktowania obywateli. Wskazywano wówczas, iż decyzje finalnie i tak podejmuje człowiek, a wykorzystywanie AI jest „rozsądne i proporcjonalne” ze względu na skalę problemu – oszustwa i błędy miały kosztować brytyjski system świadczeń choćby 8 mld funtów rocznie.
Jednak udostępnione materiały ujawniają, iż DWP nie przeprowadziło równoległej analizy pod kątem potencjalnych uprzedzeń związanych z rasą, płcią, orientacją seksualną, religią czy ciążą i macierzyństwem. Krytycy, w tym eksperci Public Law Project, określają tę strategię jako podejście typu „najpierw skrzywdź, potem naprawiaj”, podkreślając brak pełnej oceny ryzyka przed wdrożeniem algorytmów. Caroline Selman, starsza badaczka w tej organizacji, podkreśla, iż ministerstwo nie zbadało, czy automatyzacja nie uderza przede wszystkim w grupy marginalizowane.
AI jest szeroko stosowana w sektorze publicznym Wielkiej Brytanii
Coraz szersze zastosowanie AI w sektorze publicznym Zjednoczonego Królestwa budzi obawy o przejrzystość działań oraz odpowiedzialność instytucji. Według niezależnych szacunków, co najmniej 55 narzędzi wykorzystujących uczenie maszynowe wpływa na decyzje dotyczące milionów obywateli, podczas gdy oficjalny rządowy rejestr obejmuje ich zaledwie dziewięć. Niedawne doniesienia prasowe ujawniły również, iż ani jeden spośród kluczowych resortów – mimo zapowiedzi obowiązkowej rejestracji – nie zgłosił stosowania AI do centralnego spisu.
Rosnąca liczba zamówień publicznych na oprogramowanie wykorzystujące algorytmy rozpoznawania twarzy, takie jak kontrakt o wartości do 20 mln funtów dla służb policyjnych, wzmaga niepokój o masowy nadzór biometryczny. Brytyjski sekretarz ds. nauki i technologii, Peter Kyle, przyznał wcześniej w rozmowie z „The Guardian”, iż sektor publiczny nie traktuje poważnie konieczności pełnej jawności w zakresie stosowania algorytmów.
Rzecznik DWP zapewnia, iż AI służy wyłącznie jako wsparcie, a ostateczny głos należy do urzędnika. Niemniej, ujawnione dane mogą zaostrzyć debatę na temat stosowania algorytmów w administracji publicznej i wymusić większą transparentność oraz bardziej rygorystyczne standardy oceny skutków dla obywateli.