Sztuczna inteligencja weszła z przytupem w nasze życie pod koniec 2022 roku. Wówczas hitem okazał się ChatGPT, który szybko stał się bardzo powszechnym narzędziem.
Dzięki niemu i dzięki sztucznej inteligencji uczniowie piszą wypracowania, studenci przygotowują się na egzaminy, pracownicy rozwiązują problemy zawodowe. Dlatego na rynku zaczęły się masowo pojawiać kolejne aplikacje korzystające z AI (artificial intelligence), sztucznej inteligencji – do grafiki, filmów, kopiujące głosy i... stawiające diagnozy medyczne.
AI może się niestety mylić
Szybko jednak okazało się, że AI popełnia błędy. Nie może odpowiedzieć „nie wiem” i dlatego zmyśla. Poza tym bazuje na informacjach znalezionych w internecie, a to sprawia, że może natknąć się na błędne informacje. O ile pomyłka w wypracowaniu nie przyniesie kolosalnej szkody, to już błąd w diagnozie medycznej – tak.
Zgodnie z tym, co podało czasopismo „Radiology”, używanie AI zwiększa dokładność diagnozy, proponując właściwie sugestie w 92,8 proc. przypadków.
Z drugiej jednak strony te wskazówki prowadzą do błędów lekarzy – w 23,6 proc. takich przypadków.
Dlatego właśnie polscy lekarze starają się unormować sprawę używania AI.
Konieczna będzie zgoda pacjenta
„Od 1 stycznia 2025 r. medycy wykorzystujący w swojej praktyce nowoczesne narzędzia będą musieli stosować się do zasad, jakie wytyczy im nowy kodeks etyki” – donosi Rynek Zdrowia.
Zgodnie z zaleceniami Komisji Etyki Lekarskiej, doprecyzowany przepis nakazuje, aby medyk poinformował pacjenta, że przy stawianiu diagnozy lub procesie terapeutycznym będzie wykorzystana AI.
„Lekarz musi też uzyskać „świadomą zgodę” na to działanie. Wolno wykorzystywać tylko algorytmy dopuszczone do użytku medycznego i posiadające odpowiednie certyfikaty (będące np. wyrobem medycznym). Ostateczną decyzję w zakresie zastosowania bądź wstrzymania się od stosowania AI „zawsze podejmuje lekarz” – czytamy.
Napisz komentarz
Komentarze