Czy w JST warto przyjąć wewnętrzną politykę AI?

REKLAMA
REKLAMA
Coraz więcej samorządów w Polsce rozważa przyjęcie dokumentu określającego zasady korzystania ze sztucznej inteligencji – tzw. wewnętrznej polityki AI. Czy to dobre rozwiązanie? Co powinien zawierać taki dokument?
- Wewnętrzna polityka AI w JST
- Dlaczego warto przyjąć wewnętrzną politykę AI [PRZYKŁADY]
- Ograniczenie zjawiska „shadow AI”
- Ochrona danych osobowych (RODO)
Wewnętrzna polityka AI w JST
Wraz z dynamicznym rozwojem narzędzi opartych na sztucznej inteligencji, coraz więcej pracowników jednostek samorządu terytorialnego sięga po ogólnodostępne rozwiązania, takie jak ChatGPT czy Gemini, by przyspieszyć pracę nad pismami urzędowymi, interpretacjami przepisów czy analizami. Choć może się to wydawać korzystne z punktu widzenia efektywności, brak odpowiednich regulacji wewnętrznych stwarza poważne ryzyka prawne, organizacyjne i wizerunkowe.
REKLAMA
W odpowiedzi na te wyzwania coraz więcej samorządów w Polsce rozważa przyjęcie dokumentu określającego zasady korzystania ze sztucznej inteligencji – tzw. wewnętrznej polityki AI.
Dlaczego warto przyjąć wewnętrzną politykę AI [PRZYKŁADY]
Poniżej przedstawiamy trzy krótkie przykłady, które pokazują, jak nieodpowiedzialne lub nieświadome użycie narzędzi AI przez pracowników urzędu może wywołać poważne konsekwencje prawne i organizacyjne.
Wprowadzenie danych osobowych mieszkańców do publicznej wersji ChatGPT. Pracownik, tworząc projekt decyzji administracyjnej, nieświadomie przekazuje imię, nazwisko i numer PESEL obywatela do narzędzia AI działającego w chmurze poza UE. To naruszenie RODO, które może skutkować karą finansową.
Automatyczne wygenerowanie pisma urzędowego bez kontroli. Na polecenie pracownika AI przygotowuje pismo do mieszkańca z błędną podstawą prawną, które zostaje wysłane bez weryfikacji przez pracownika. Może to prowadzić do skargi, odwołania, a nawet odpowiedzialności dyscyplinarnej pracownika.
Stworzenie fałszywego lub mylącego komunikatu prasowego. Pracownik generuje za pomocą AI tekst o rzekomych inwestycjach JST i publikuje go bez sprawdzenia. AI ma „halucynacje” i taka publikacja ukazuje się na stronie urzędu gminy. Naraża urząd na utratę wiarygodności w oczach mieszkańców i mediów.
Ograniczenie zjawiska „shadow AI”
Shadow AI (tłumaczone jako „cicha” lub „nieautoryzowana” AI) odnosi się do sytuacji, w której pracownicy organizacji korzystają z narzędzi opartych na sztucznej inteligencji bez formalnej zgody, wiedzy lub nadzoru ze strony pracodawcy. Może to prowadzić do:
• wprowadzania do narzędzi AI danych wrażliwych (np. danych osobowych lub informacji niejawnych),
• naruszenia RODO i narażenia jednostki na odpowiedzialność administracyjną,
• utraty kontroli nad tworzonymi treściami i błędnych decyzji administracyjnych.
Przyjęcie polityki AI pozwala uregulować, kto, kiedy i w jakim celu może używać AI – zmniejszając ryzyko wystąpienia „dzikiego” użycia technologii.
Ochrona danych osobowych (RODO)
Zgodnie z art. 5 oraz art. 24 ust. 1 RODO administrator danych musi wykazać, że przetwarzanie odbywa się zgodnie z przepisami – m.in. w sposób bezpieczny i przejrzysty. Pracownik wprowadzający dane osobowe do publicznych narzędzi AI (np. wersji darmowej ChatGPT) może nieświadomie dopuścić się naruszenia tych zasad. Polityka AI powinna opisywać:
• jakie dane mogą być przetwarzane w narzędziach AI,
• jakie narzędzia są dopuszczalne i do jakich celów,
• jakie są procedury reagowania na incydenty naruszenia danych.
Fragment artykułu pochodzi z kompleksowej bazy wiedzy INFORLEX Administracja. Czytaj więcej w INFORLEX > > >
Sławomir Biliński
REKLAMA
REKLAMA