REKLAMA

REKLAMA

Kategorie
Zaloguj się

Zarejestruj się

Proszę podać poprawny adres e-mail Hasło musi zawierać min. 3 znaki i max. 12 znaków
* - pole obowiązkowe
Przypomnij hasło
Witaj
Usuń konto
Aktualizacja danych
  Informacja
Twoje dane będą wykorzystywane do certyfikatów.

Sztuczna inteligencja w medycynie. Kto odpowie za błędy?

Kwestie dotyczące sztucznej inteligencji w polskim prawie nie są uregulowane
shutterstock

REKLAMA

REKLAMA

Brak regulacji prawnych to jedno z wyzwań korzystania ze sztucznej inteligencji w medycynie. Może on spowodować szereg problemów – mówi prof. Justyna Król-Całkowska, Kierownik Katedry Prawa Międzynarodowego i Europejskiego Uczelni Łazarskiego w Warszawie, członek Rady Ekspertów przy Rzeczniku Praw Pacjenta.

Sztuczna inteligencja ma szerokie zastosowanie w medycynie. Może być efektywnym sposobem na przyspieszenie i usprawnienie procesu rozpoznania chorób oraz na podniesienie jakości opieki medycznej. Pojawia się jednak problem – „kwestie dotyczące sztucznej inteligencji w polskim prawie nie są w ogóle uregulowane” – powiedziała prof. Justyna Król-Całkowska. „To jest podstawowy problem, ponieważ my czerpiemy z „regulacji unijnych”, natomiast nie mamy regulacji, które bezpośrednio odnosiłyby się do sztucznej inteligencji i do błędów, jakie wyniknęły podczas jej działania” – zaznaczyła.

REKLAMA

REKLAMA

Sztuczna inteligencja w medycynie

W medycynie ze sztuczną inteligencją mamy do czynienia wtedy, kiedy złożony algorytm, podobny do sieci neuronowych człowieka, jest w stanie podjąć indywidualną decyzję w oparciu o zmienne, które mu dostarczono. Znajduje ona zastosowanie przede wszystkim w diagnostyce – zwłaszcza w diagnostyce obrazowej. „Program sztucznej inteligencji obrazuje np. zdjęcia RTG i w oparciu o dane, czyli to, czego się nauczył, stwierdza, czy obraz jest prawidłowy czy patologiczny” – wyjaśnia profesor. Ponadto AI stosowana jest także w radiologii, psychiatrii, dermatologii czy diagnostyce nowotworów.

Kto odpowiada za sztuczną inteligencję

Zawód lekarza jest obarczony dużą odpowiedzialnością, ale co, jeśli to sztuczna inteligencja popełni błąd? „Możemy przyjąć, że musimy obarczyć odpowiedzialnością osobę, która programuje tę sztuczną inteligencję i nie przewidziała, że w oparciu o zmienne, których będzie się jej dostarczać, będzie ona mogła podjąć złą decyzję” – stwierdziła ekspertka. Z drugiej strony, odpowiedzialność operatora, który dokonał zaprogramowania, wydaje się jej nad wyraz szeroka. AI jest tworzona po to, aby podejmować autonomiczne decyzje, co w oczywisty sposób wiąże się pewnym z ryzykiem. Drugą koncepcją jest przypisywanie odpowiedzialności za błędy użytkownikowi AI, ale to z kolei ograniczy poziom zaufania i chęć korzystania ze sztucznej inteligencji w opiece zdrowotnej.

„Trudno jest dzisiaj powiedzieć, kto ostatecznie ponosi odpowiedzialność i która z tych koncepcji jest optymalna” – stwierdziła Król-Całkowska. Wiadomo natomiast, że prawo jest jednym z narzędzi, które zapewni, że odpowiedzialność istnieje. Dodatkowo może ograniczyć lęk, zarówno lekarzy jak i pacjentów, przed używaniem AI.

REKLAMA

Polska nie jest jedynym krajem, który nie ma indywidualnych regulacji prawnych w zakresie sztucznej inteligencji. Kraje członkowskie Unii Europejskiej mierzą się z tym samym problemem. Proponowane są rozwiązania, szczególnie w rozporządzeniu parlamentu europejskiego, „ale co z tego, że są one proponowane i niektóre są naprawdę całkiem dobre, skoro nie są implementowane do porządków prawnych poszczególnych państw” – zauważyła profesor.

Dalszy ciąg materiału pod wideo

Ograniczone zaufanie

Zaufanie do sztucznej inteligencji jest jeszcze ograniczone, „ponieważ z jednej strony bardzo dużo się mówi o AI, a z drugiej – kompletnie nie wiadomo, co i jak ją reguluje” – zaznaczyła ekspertka. Dodatkowo ludzie obawiają się braku udziału człowieka w leczeniu, gdyż to jego uważają za mniej omylnego. Zdaniem Król-Całkowskiej jest to złudne przekonanie. Przeprowadzone badania pokazały, że przeciętny, młody radiolog myli się trzykrotnie częściej, niż algorytm sztucznej inteligencji, który uczył się tylko przez dwa miesiące. 

„Regulacje prawne dadzą poczucie stabilności ludziom, którzy będą korzystać z AI” – dodała. „Po stronie pacjentów ten lęk nie powinien istnieć, ale lekarze czy personel medyczny powinien tę obawę mieć, ponieważ jeśli sztuczna inteligencja popełni błąd, a jednocześnie nie dojdzie do ostatecznego zweryfikowania przez człowieka – można mówić o niedołożeniu należytej staranności, a to jest podstawa odpowiedzialności w prawie medycznym” – podsumowała.

Kiedy prawo ureguluje sztuczną inteligencję

Kiedy więc można spodziewać się zmian w prawie? Zdaniem prof. Justyny Król-Całkowskiej dopiero wtedy, kiedy błędy staną się zauważalne i problematyczne. „Ludzie najczęściej reagują, gdy coś się wydarzy. Wprowadzają regulacje wtedy, kiedy już z czymś jest problem i – niestety – myślę, że tak będzie w przypadku sztucznej inteligencji” – stwierdziła. Sposobem, aby nie doszło do tragedii jest zaproponowanie jednoznacznych, krajowych regulacji, które będą dotyczyły odpowiedzialności za działania AI. „Bez tego może dojść do sytuacji, w której zareagujemy zbyt późno” – zaznaczyła.

„My już wiemy, co może się może stać i odwlekanie w czasie wprowadzenia regulacji jest ogromnym błędem” – ostrzegła ekspertka. (PAP)

Autorka: Delfina Al Shehabi

Oprac. Piotr T. Szymański
Źródło: PAP

Oceń jakość naszego artykułu

Dziękujemy za Twoją ocenę!

Twoja opinia jest dla nas bardzo ważna

Powiedz nam, jak możemy poprawić artykuł.
Zaznacz określenie, które dotyczy przeczytanej treści:
Autopromocja

REKLAMA

QR Code

REKLAMA

Sektor publiczny
Co ze świadczeniami dla osób niepełnosprawnych w przyszłości? Nędznie jak z zasiłkiem pielęgnacyjnym 215,84 zł? Czy na bogato jak ze świadczeniem wspierającym?

Z analizy wydarzeń w 2024 r. i 2025 r. wynika niepewna przyszłość dla świadczeń dla lekkiego i umiarkowanego stopnia niepełnosprawności. Dwa ostatnie lata pokazały przekierowanie środków finansowych na osoby niepełnosprawne z wysokim stopniem niesamodzielności. Nie wystarczy posiadanie orzeczenia (nawet stałe stopień znaczny nic nie gwarantuje). Orzeczenia wydawane przez lekarzy są w praktyce wypierane przez ustalenia dotyczące rzeczywistej niesamodzielności osoby niepełnosprawnej wydawane przez. I niesamodzielności nie sprawdza już lekarz, a pedagog, pracownik socjalny, doradca zawodowy po socjologii, pielęgniarka, pielęgniarz, fizjoterapeuta, psycholog. Te osoby mają prawo do określania punktów potrzebnych przy świadczeniu wspierającym.

Jak pomóc psu w sylwestrową noc? Rady zwierzęcej behawiorystki

Huk fajerwerków to dla wielu psów źródło silnego stresu, a nawet paniki. Choć najlepiej przygotować zwierzę z wyprzedzeniem, także tuż przed Sylwestrem można podjąć działania, które poprawią jego komfort i bezpieczeństwo – podkreśliła w rozmowie z PAP behawiorystka zwierząt Edyta Ossowska.

Co z zakazem odpalania fajerwerków w stolicy?

Radni Lewica, Miasto Jest Nasze chcieliby wprowadzić w stolicy zakaz odpalania fajerwerków w sylwestra,. Samorządowcy KO chcą zobaczyć, jaki skutek taki zakaz będzie miał w Krakowie. Działacze PiS są przeciwni temu pomysłowi. Na razie takie ograniczenie nie zostanie wprowadzone.

Urzędnicy odmówili córce świadczenia pielęgnacyjnego przez .... dojazd rowerem 11 km do niepełnosprawnego ojca

Tak argumentowali urzędnicy odmawiając przyznania świadczenia pielęgnacyjnego córce, która chciała się opiekować niepełnosprawnym ojcem po udarze i w prawie niewidomym. Odmówili świadczenia bo po przeprowadzeniu "śledztwa" uznali, że córka kłamie - rzekomo nie mogła dojeżdżać do ojca na rowerze 11 km, aby się nim opiekować. Urzędnicy dowodzili to, że 11 km rowerem to 1 godzina, a więc nie zgadzają się godziny opieki podawane przez nią w GOPS. Do tych "ustaleń" urzędników sąd nawet się nie odniósł stosując litościwe milczenie. Bo to, czy kobieta jeździła do ojca 11 km rowerem (w jedną stronę), czy kłamała nie jest żadną przesłanką przyznawania świadczeń - przepisy nie znają takiego "śledztwa" i na bazie jego "ustaleń" przyznawania albo nie świadczeń z GOPS.

REKLAMA

290 linii autobusowych dofinansowanych z Funduszu Rozwoju Przewozów Autobusowych w 2026 r. 55 samorządów otrzyma wsparcie [Podlaskie]

Aż 290 linii autobusowych, których łączna długość to ok. 11 tys. km, zostanie dofinansowanych w 2026 r. w województwie podlaskim. Pieniądze na ten cel trafią z Funduszu Rozwoju Przewozów Autobusowych do 55 samorządów. Chodzi o kwotę 22,5 mln zł.

W 13 województwach oblodzone drogi. IMGW ostrzega

W poniedziałek rano Instytut Meteorologii i Gospodarki Wodnej wydał dla 13 województw ostrzeżenia I stopnia przed oblodzeniem na drogach i chodnikach. Potrwają one do wtorku do godzin porannych. Ujemna temperatura może tam utrzymywać się do środy.

Prezydent Nawrocki podpisał postanowienie - 350 żołnierzy Wojska Polskiego w misji za granicą

Prezydent Karol Nawrocki wyznacza na kolejne pół roku misję Polskiego Kontyngentu Wojskowego poza granicami Polski. Do 350 żołnierzy i pracowników wojska będzie służyć na mocy postanowienia w pierwszej połowie 2026 roku. Ich zadaniem pozostaje walka z terroryzmem w ramach operacji międzynarodowych.

Karp prosto z wody czy filety? Połowa nabywców chce żywego

Coraz trudniej kupić żywego karpia, mimo że formalnie nie ma zakazu sprzedaży żywych ryb. Rybę prosto z wody można nabyć jedynie w stawach hodowlanych i specjalnych stoiskach na bazarach i targowiskach - powiedział prezes Towarzystwa Promocji Ryb "Pan Karp" Zbigniew Szczepański.

REKLAMA

Uwaga na oblodzenie. IMGW ostrzega

Instytut Meteorologii i Gospodarki Wodnej wydał ostrzeżenia I stopnia przed oblodzeniem dla części woj. dolnośląskiego, opolskiego, śląskiego, małopolskiego i podkarpackiego.

Święta to jedno z bardziej stresujących wydarzeń. "Nie zaglądajmy ludziom do talerzy, do portfeli ani do łóżka"

Święta to jedno z bardziej stresujących wydarzeń. Dlaczego tak się dzieje i co możemy zrobić, żeby zneutralizować negatywne emocje, wyjaśniła w rozmowie z PAP dr Marta Kucharska-Hauk, adiunktka w Instytucie Psychologii Uniwersytetu Łódzkiego.

Zapisz się na newsletter
Śledź na bieżąco nowe inicjatywy, projekty i ważne decyzje, które wpływają na Twoje życie codzienne. Zapisz się na nasz newsletter samorządowy.
Zaznacz wymagane zgody
loading
Zapisując się na newsletter wyrażasz zgodę na otrzymywanie treści reklam również podmiotów trzecich
Administratorem danych osobowych jest INFOR PL S.A. Dane są przetwarzane w celu wysyłki newslettera. Po więcej informacji kliknij tutaj.
success

Potwierdź zapis

Sprawdź maila, żeby potwierdzić swój zapis na newsletter. Jeśli nie widzisz wiadomości, sprawdź folder SPAM w swojej skrzynce.

failure

Coś poszło nie tak

REKLAMA