
„`html
Sztuczna inteligencja w administracji publicznej niesie ze sobą zarówno korzyści, jak i zagrożenia – ostrzegają eksperci. Ryzyka te obejmują m.in. deep fake i stronniczość algorytmiczną, które mogą prowadzić do krzywdzących decyzji.
Stronniczość algorytmiczna
Paweł Urzenitzok, doktorant Akademii Leona Koźmińskiego, wskazuje, że jednym z głównych zagrożeń związanych z AI w administracji jest stronniczość algorytmiczna, czyli nierówne traktowanie niektórych grup przez systemy oparte na sztucznej inteligencji. „Algorytmy opierają się na dostarczonych danych, które mogą być neutralne, ale mimo to przyczyniać się do podtrzymywania uprzedzeń” – tłumaczy Urzenitzok. W administracji publicznej, takiej jak urzędy i ministerstwa, problemem są potencjalne błędy związane z danymi, które mogą wpływać na brak przejrzystości decyzji.
Black box i nierówności społeczne
Największym wyzwaniem jest tzw. black box – sytuacja, w której nawet twórcy algorytmów nie potrafią wyjaśnić, na jakiej podstawie AI podjęła daną decyzję. Brak transparentności stanowi poważne zagrożenie w obszarach takich jak dostęp do usług publicznych, zatrudnienie w administracji, czy przyznawanie świadczeń społecznych, gdzie dane mogą być niepełne lub nieodpowiednio zinterpretowane.
Minimalizowanie ryzyka
Aby zminimalizować ryzyko dyskryminacji w administracji, stosowane mogą być techniki takie jak narzędzia do wykrywania stronniczości, strategie urozmaicania danych przez lepszą reprezentację mniejszości, regularne testy oraz audyty algorytmów. Ważnym elementem są też środki organizacyjne, takie jak nadzór człowieka nad decyzjami AI czy regularne przeglądy systemów.
Zagrożenia związane z deep fake
Dr Dominika Kuźnicka-Błaszkowska z Uniwersytetu Wrocławskiego zwraca uwagę na zagrożenie, jakim są deep fake’i – materiały wygenerowane przez sztuczną inteligencję, które mogą wyglądać na autentyczne. Pomimo że unijny Akt o sztucznej inteligencji nie klasyfikuje ich jako systemów wysokiego ryzyka, mogą one prowadzić do ujawniania informacji, które nie powinny być publicznie dostępne, naruszenia zaufania społecznego i reputacji organów administracyjnych.
Zabezpieczenia przed atakami
Jednym z zagrożeń są ataki na systemy AI, takie jak ataki typu prompt injection, które pozwalają na obejście zabezpieczeń i ujawnienie chronionych danych. Eksperci wskazują, że systemy zagrożone takim atakiem to m.in. chatboty, obsługa głosowa czy agenci AI używani w administracji.
„`