Błędy AI w gabinetach: 9 z 20 narzędzi dopisuje nieistniejące objawy

Komentarz redakcji

Raport audytorki generalnej kanadyjskiej prowincji Ontario wykazał poważne błędy w systemach AI używanych przez lekarzy. Aż 9 z 20 testowanych narzędzi dopisywało nieistniejące objawy i sugerowało badania, o których w rozmowie nie było mowy. Mimo że z systemów korzysta już około 5 tysięcy lekarzy, ministerstwo zdrowia zapewnia, że nie odnotowano przypadków faktycznego szkodzenia pacjentom.

Najważniejsze

  • Audyt w Ontario (maj 2026) wykazał, że 45% testowanych systemów AI do transkrypcji rozmów lekarskich dopisuje fałszywe objawy, których pacjent nie zgłaszał.
  • 12 z 20 systemów zmieniało nazwy leków, a 17 z 20 pomijało dane dotyczące zdrowia psychicznego – co stanowi poważne zagrożenie dla bezpieczeństwa pacjentów.
  • Ponad połowa dostawców AI nie posiadała wymaganych certyfikatów bezpieczeństwa; odnotowano też przypadek wycieku danych pacjenta do obecnych i byłych pracowników szpitala.
  • W Ontario z AI do transkrypcji korzysta ok. 5 tys. lekarzy, ale nie ma odrębnych przepisów certyfikujących takie narzędzia w ochronie zdrowia.
  • Lekarze mają ustawowy obowiązek weryfikacji każdej notatki AI przed dodaniem jej do dokumentacji – błędy systemów podkreślają wagę tej kontroli.
20 godz. temu
·
1 min

Audytorka generalna Ontario Shelley Spence opublikowała 15 maja 2026 roku raport, z którego wynika, że 9 z 20 testowanych systemów AI do transkrypcji rozmów lekarskich dopisywało fałszywe dane medyczne.

Źródło zdjęcia: unsplash.com - by Vitaly Gariev
Źródło zdjęcia: unsplash.com - by Vitaly Gariev

Audytorka generalna kanadyjskiej prowincji Ontario Shelley Spence opublikowała 15 maja 2026 roku raport, z którego wynika, że 9 z 20 testowanych systemów sztucznej inteligencji używanych przez lekarzy do transkrypcji rozmów z pacjentami dopisuje fałszywe informacje medyczne.

Urząd Spence, odpowiednik polskiej Najwyższej Izby Kontroli, badał systemy AI w symulowanych rozmowach. Aż 45 proc. narzędzi dopisało objawy, których pacjent nie zgłaszał. 12 z 20 systemów zmieniało nazwy leków przepisywanych przez lekarzy. Co istotne, 17 z 20 pomijało dane dotyczące zdrowia psychicznego. Ponadto ponad połowa dostawców nie posiadała certyfikatów bezpieczeństwa wymaganych przez przepisy Ontario.

Poważne naruszenia prywatności i brak regulacji

W raporcie opisano przypadek szpitala w Ontario, gdzie system AI zarejestrował prywatne dane pacjenta omawiane przez lekarzy, a następnie rozesłał je do obecnych i byłych pracowników. Z szacunków ministerstwa zdrowia wynika, że z systemów AI korzysta około 5 tysięcy lekarzy w Ontario. Program finansowano częściowo z budżetu prowincji.

Systemy do transkrypcji rozmów (tzw. ambient scribes) są w Kanadzie stosowane od około 2023 roku. W Ontario nie ma odrębnych przepisów certyfikujących takie narzędzia w ochronie zdrowia. Lekarze mają ustawowy obowiązek weryfikacji każdej notatki wygenerowanej przez AI przed dodaniem jej do dokumentacji. W USA i Wielkiej Brytanii odnotowano podobne przypadki błędów, co doprowadziło do wprowadzenia wytycznych przez tamtejsze urzędy.

Ministerstwo Zdrowia Ontario oświadczyło, że nie odnotowano przypadków faktycznego szkodzenia pacjentom. Lekarze mają obowiązek sprawdzania notatek stworzonych przez AI, a przed rozmową wymagana jest zgoda pacjenta na użycie narzędzia. Raport nie podaje nazw konkretnych systemów ani producentów. Nie wiadomo, czy audyt przełoży się na zmiany regulacyjne.

Wyniki audytu systemów AI do transkrypcji rozmów lekarskich w Ontario (maj 2026)

Rodzaj błędu / nieprawidłowościLiczba systemów (na 20)Odsetek
Dopisywanie fałszywych objawów, których pacjent nie zgłaszał945%
Zmienianie nazw leków przepisywanych przez lekarzy1260%
Pomijanie danych dotyczących zdrowia psychicznego1785%
Brak wymaganych certyfikatów bezpieczeństwa>10>50%

Źródło: Raport Audytorki Generalnej Ontario Shelley Spence, 15 maja 2026 r.

Słownik pojęć

Ambient scribe (asystent transkrypcji AI)
System sztucznej inteligencji, który automatycznie transkrybuje rozmowę lekarza z pacjentem, tworząc notatkę medyczną bez konieczności ręcznego notowania przez lekarza.
Audytor generalny (Auditor General)
Odpowiednik polskiego Prezesa Najwyższej Izby Kontroli – niezależny urzędnik badający gospodarność i legalność wydatków publicznych oraz działanie instytucji rządowych.
Hallucynacja AI
Zjawisko, w którym model sztucznej inteligencji generuje fałszywe, nieprawdziwe lub zmyślone informacje, prezentując je jako fakty (w tym przypadku – dopisywanie objawów niezgłoszonych przez pacjenta).
Certyfikacja systemów AI w ochronie zdrowia
Proces potwierdzania, że system sztucznej inteligencji spełnia określone normy bezpieczeństwa, prywatności i skuteczności wymagane do stosowania w praktyce medycznej.
Dokumentacja medyczna
Zbiór informacji dotyczących stanu zdrowia pacjenta, przebiegu choroby, leczenia oraz wyników badań, który podlega szczególnej ochronie prawnej i wymogom rzetelności.

Najczęstsze pytania

Czy lekarz może polegać wyłącznie na notatkach wygenerowanych przez AI?
Nie. W Ontario lekarze mają ustawowy obowiązek weryfikacji każdej notatki wygenerowanej przez AI przed dodaniem jej do dokumentacji medycznej. Obowiązek ten wynika z odpowiedzialności lekarza za rzetelność dokumentacji.
Jakie są najczęstsze błędy systemów AI do transkrypcji rozmów lekarskich?
Według raportu z Ontario najczęstsze błędy to: dopisywanie objawów, których pacjent nie zgłaszał (45% systemów), zmienianie nazw leków (60% systemów) oraz pomijanie danych dotyczących zdrowia psychicznego (85% systemów).
Czy pacjent może odmówić korzystania z AI podczas wizyty lekarskiej?
Tak. Zgodnie z wytycznymi Ministerstwa Zdrowia Ontario, do użycia narzędzia AI wymagana jest świadoma zgoda pacjenta przed rozmową z lekarzem.
Czy podobne problemy z AI występują w innych krajach?
Tak. W raporcie wskazano, że w USA i Wielkiej Brytanii również odnotowano podobne przypadki błędów systemów AI do transkrypcji, co doprowadziło do wprowadzenia wytycznych przez tamtejsze urzędy regulacyjne.
Co grozi lekarzowi za wpisanie do dokumentacji fałszywych danych wygenerowanych przez AI?
Lekarz ponosi pełną odpowiedzialność za treść dokumentacji medycznej, nawet jeśli została wygenerowana przez AI. Niezweryfikowanie notatki może skutkować odpowiedzialnością zawodową, cywilną, a w skrajnych przypadkach – karną za poświadczenie nieprawdy.

Komentarze (0)

0/2000
Następny artykuł

Technologia ambient voice: Zaufany asystent czy zagrożenie dla pacjentów?

Niewłaściwe zarządzanie technologią ambient voice w opiece zdrowotnej może prowadzić do poważnych zagrożeń dla bezpieczeństwa pacjentów i podważać zaufanie do systemów. Mimo regulacji w Europie i USA wciąż brakuje danych na temat incydentów związanych z AI scribing. Kluczowe jest wdrożenie audytów oraz monitorowanie, by zminimalizować ryzyko błędów.

Czytaj dalej

Powiązane artykuły

Technologia ambient voice: Zaufany asystent czy zagrożenie dla pacjentów?

Niewłaściwe zarządzanie technologią ambient voice w opiece zdrowotnej może prowadzić do poważnych zagrożeń dla bezpieczeństwa pacjentów i podważać zaufanie do systemów. Mimo regulacji w Europie i USA wciąż brakuje danych na temat incydentów związanych z AI scribing. Kluczowe jest wdrożenie audytów oraz monitorowanie, by zminimalizować ryzyko błędów.

digitalhealth.net
16 mar

WHO: trzy czwarte państw UE korzysta już ze sztucznej inteligencji w diagnostyce

74 proc. państw UE wykorzystuje już sztuczną inteligencję w diagnostyce – wynika z opublikowanego 21 kwietnia 2026 r. raportu WHO Europe.

alertmedyczny.pl
medexpress.pl
+2
21 kwi

AI w diagnostyce raka piersi: przyszłość, która potrzebuje zrozumienia

Wprowadzenie technologii AI do wczesnego wykrywania raka piersi może znacząco poprawić wyniki zdrowotne, ale wymaga zrozumienia jej skuteczności i potencjalnych ograniczeń w różnych populacjach. Badania pokazują, że AI może identyfikować kobiety z wyższym ryzykiem raka, ale różnorodność demograficzna oraz kwestie etyczne pozostają kluczowymi wyzwaniami.

healtheuropa.com
16 mar

Zwapnienia w mammografii wykryte przez AI zwiększają ryzyko serca nawet czterokrotnie

Naukowcy z Emory Healthcare i Mayo Clinic wykazali, że automatyczna analiza mammografii przez AI pozwala przewidzieć ryzyko poważnych zdarzeń sercowo-naczyniowych u kobiet.

medwiss.de
deutschesgesundheitsportal.de
+1
14 maj

Pensylwania pozywa Character.AI za chatbota podszywającego się pod psychiatrę

Pensylwania pozwała Character.AI, zarzucając chatbotowi „Emilie” podszywanie się pod psychiatrę i naruszenie stanowego prawa o praktyce medycznej.

npr.org
huffpost.com
+6
8 maj

Sztuczna inteligencja na straży zdrowia: VoiceAI w Evergreen Family Medicine

Wprowadzenie systemu VoiceAI w Evergreen Family Medicine znacząco zmniejszyło czas oczekiwania na linii oraz zwiększyło efektywność pracowników. Mimo początkowych obaw, rozwiązanie to przyniosło zaskakująco pozytywne efekty zarówno dla personelu, jak i dla pacjentów.

healthcareitnews.com
16 mar
StartSzukaj