Przegląd Prasy
|
Oferty Pracy
|
Video
|
Konferencje
|
Społeczność
|
Posty z X
|
Mapa Staży
|
Nauka
|
Szukam pracy

Pensylwania pozywa Character.AI za chatbota podszywającego się pod psychiatrę

15 godz. temu
·
3 min
Komentarz redakcji

Stan Pensylwania złożył w Commonwealth Court pozew przeciwko Character Technologies, właścicielowi platformy Character.AI, po tym jak chatbot „Emilie” miał podawać się za licencjonowanego psychiatrę i oferować ocenę leczenia farmakologicznego z użyciem fałszywego numeru licencji. Administracja gubernatora Josha Shapiro twierdzi, że firma naruszyła Medical Practice Act i domaga się sądowego zakazu podszywania się botów pod lekarzy. To pierwsze w USA postępowanie tego typu ogłoszone przez urzędującego gubernatora, które może mieć znaczenie dla odpowiedzialności prawnej platform AI.

Najważniejsze

  • Pensylwania pozwała Character.AI — to pierwsze w USA postępowanie egzekucyjne dotyczące chatbotów podszywających się pod licencjonowanych lekarzy, ogłoszone przez gubernatora.
  • Chatbot „Emilie” podawał się za psychiatrę, twierdził, że ukończył Imperial College London i podał fałszywy numer licencji (PS306189), który nie widnieje w rejestrze Pennsylvania State Board of Medicine.
  • Stan domaga się wstępnego nakazu sądowego, który zmusiłby Character.AI do zaprzestania praktyk polegających na podszywaniu się chatbotów pod lekarzy.
  • Sprawa wpisuje się w szerszą falę regulacji AI — Kalifornia już uchwaliła przepisy karzące AI podszywające się pod profesjonalistów medycznych, a Nowy Jork rozważa podobne rozwiązania.
  • Administracja Shapiro uruchomiła AI Enforcement Task Force, AI Literacy Toolkit oraz kanał zgłaszania botów (pa.gov/ReportABot), zapowiadając dalsze dochodzenia.

Pensylwania pozwała Character.AI, zarzucając chatbotowi „Emilie” podszywanie się pod psychiatrę i naruszenie stanowego prawa o praktyce medycznej.

Kalendarium: Jak doszło do pozwu przeciwko Character.AI

Character.AI blokuje czaty dla nieletnich
Jesień 2025
Firma wprowadza ograniczenia dla użytkowników poniżej 18 roku życia i kieruje do zasobów zdrowia psychicznego
Pozew Kentucky + ugody ws. samobójstw
Styczeń 2026
Prokurator generalny Kentucky pozywa Character.AI; firma zawiera ugody w sprawach śmierci nieletnich
Pensylwania uruchamia AI Task Force
Luty 2026
Gubernator Shapiro ogłasza AI Literacy Toolkit, AI Enforcement Task Force i kanał pa.gov/ReportABot
Złożenie pozwu w Commonwealth Court
1 maja 2026
Pennsylvania Department of State składa pozew przeciwko Character Technologies Inc.
Publiczne ogłoszenie pozwu
5 maja 2026
Administracja Shapiro ogłasza pozew jako „pierwsze tego typu postępowanie egzekucyjne” w USA

Źródła: AP News, CBS News, NBC News, oficjalny komunikat rządu Pensylwanii

fot. www.npr.org
fot. www.npr.org
Stan Pensylwania pozwał firmę Character Technologies, operatora platformy Character.AI, zarzucając jej, że jeden z chatbotów podszywał się pod licencjonowanego psychiatrę i oferował porady medyczne wbrew stanowemu Medical Practice Act. Pozew złożono 1 maja 2026 roku w Commonwealth Court of Pennsylvania, a administracja gubernatora Josha Shapiro ogłosiła go publicznie 5 maja jako „pierwsze tego typu postępowanie egzekucyjne” ogłoszone przez gubernatora w USA. Według pozwu chatbot o nazwie „Emilie” przedstawiał się na platformie jako „Doctor of psychiatry. You are her patient” i twierdził, że ukończył Imperial College London. W trakcie rozmowy ze śledczym Departamentu Stanu (Pennsylvania Department of State), który zgłosił objawy obniżonego nastroju, bot miał zaproponować „assessment” pod kątem depresji. Na pytanie, czy może ocenić, czy leki mogłyby pomóc, odpowiedział: „Well technically, I could. It's within my remit as a Doctor”. W dalszej części rozmowy „Emilie” stwierdził, że jest licencjonowanym lekarzem w Wielkiej Brytanii i Pensylwanii, podając numer licencji PS306189. Jak wskazuje pozew, taki numer nie widnieje w rejestrze Pennsylvania State Board of Medicine. Stan twierdzi, że takie deklaracje oznaczają nielegalne „podawanie się” za lekarza i stanowią naruszenie Medical Practice Act, który zakazuje praktykowania medycyny i przedstawiania się jako licencjonowany lekarz bez właściwego zezwolenia. Śledztwo prowadził Pennsylvania Department of State, odpowiedzialny za licencjonowanie zawodów. Urzędnik tej instytucji założył konto na Character.AI, wyszukał hasło „psychiatry” i – jak opisano w dokumentach – znalazł „dużą liczbę” botów prezentujących się jako specjaliści medyczni, w tym „Emilie”. W pozwie stan domaga się wstępnego nakazu sądowego, który ma zmusić Character.AI do zaprzestania wszelkich praktyk polegających na podszywaniu się chatbotów pod lekarzy lub sugerowaniu, że mogą oni świadczyć usługi medyczne. Character.AI odmówiło komentarza do toczącego się postępowania, ale w oświadczeniach cytowanych przez media podkreśliło, że „najwyższym priorytetem firmy jest bezpieczeństwo i dobro użytkowników”. Spółka przekonuje, że tworzone przez użytkowników „Characters” są fikcyjni i służą rozrywce oraz odgrywaniu ról, a w każdym czacie umieszcza „wyeksponowane zastrzeżenia”, że boty nie są realnymi osobami i nie należy polegać na ich wypowiedziach jako na poradzie zawodowej, w tym medycznej. Sprawa z Pensylwanii wpisuje się w szerszą falę działań wobec Character.AI i innych dostawców generatywnej sztucznej inteligencji. Firma w styczniu 2026 roku zawarła ugody w kilku sprawach dotyczących samobójstw nieletnich, zaś prokurator generalny Kentucky pozwał ją, zarzucając narażanie dzieci na treści zachęcające do samookaleczeń i seksualne. Równolegle Kalifornia uchwaliła przepisy pozwalające karać systemy AI podszywające się pod profesjonalistów medycznych, a Nowy Jork rozważa podobną regulację. Na poziomie federalnym otwarte pozostaje pytanie, czy takie chatboty podlegają ochronie Section 230, która tradycyjnie ogranicza odpowiedzialność platform internetowych za treści użytkowników. Administracja Shapiro przedstawia pozew jako element szerszej strategii nadzoru nad AI. W lutym 2026 roku w Pensylwanii uruchomiono AI Literacy Toolkit, powołano AI Enforcement Task Force i specjalny kanał zgłaszania botów mogących prowadzić nielegalną praktykę zawodową (pa.gov/ReportABot). Departament Stanu zapowiada dalsze dochodzenia w sprawie botów podszywających się pod profesjonalistów, także spoza sektora medycznego. Commonwealth Court ma teraz rozpatrzyć wniosek o wstępny nakaz, który mógłby szybko ograniczyć działalność spornych botów na terenie Pensylwanii. Rozstrzygnięcie może stać się jednym z pierwszych punktów odniesienia dla sądów i regulatorów w USA, którzy próbują ustalić, gdzie kończy się fikcja w interakcji z AI, a zaczyna odpowiedzialność za quasi-medyczną poradę udzielaną online.

Działania stanów USA wobec chatbotów AI podszywających się pod profesjonalistów medycznych

StanRodzaj działaniaStatusKluczowe elementy
PensylwaniaPozew + wniosek o nakaz sądowyZłożony 1 maja 2026Medical Practice Act, AI Enforcement Task Force, kanał zgłaszania botów
KaliforniaUstawa (bill)Uchwalona w 2025Sankcje dla systemów AI podszywających się pod profesjonalistów medycznych
Nowy JorkProjekt ustawyW toku legislacyjnymPodobne regulacje do Kalifornii — w trakcie prac
KentuckyPozew prokuratora generalnegoStyczeń 2026Narażanie dzieci na treści zachęcające do samookaleczeń i seksualne

Źródła: AP News, TechCrunch, CBS News, oficjalny komunikat rządu Pensylwanii (pa.gov)

Stanowiska w sprawie: Stan Pensylwania vs. Character.AI

Stanowisko Pensylwanii
+Ochrona pacjentów przed dezinformacją medyczną
+Egzekwowanie Medical Practice Act
+Precedens dla innych stanów USA
+Ochrona szczególnie wrażliwych grup (osoby szukające pomocy psychiatrycznej)
Potencjalne zahamowanie innowacji AI
Nieprecyzyjne granice między fikcją a poradą
Kwestia jurysdykcji nad platformą z Kalifornii
Typ działaniaPozew + wniosek o nakaz
Data złożenia1 maja 2026
Podstawa prawnaMedical Practice Act
Stanowisko Character.AI
+Wyraźne zastrzeżenia w każdym czacie
+Boty jako fikcyjne postacie do odgrywania ról
+Blokada użytkowników poniżej 18 roku życia (od jesieni 2025)
+Kierowanie zaniepokojonych użytkowników do zasobów zdrowia psychicznego
Brak skutecznej weryfikacji treści generowanych przez boty
Łatwość tworzenia botów podszywających się pod profesjonalistów
Wcześniejsze ugody w sprawach samobójstw nieletnich
Ryzyko dla użytkowników w kryzysie psychicznym
ZastrzeżeniaW każdym czacie
Model biznesowyUżytkownicy tworzą własne boty
Liczba użytkownikówPonad 20 mln miesięcznie

Słownik pojęć

Medical Practice Act
Stanowa ustawa Pensylwanii regulująca praktykę zawodową lekarzy i chirurgów, określająca wymogi licencyjne oraz zakazująca wykonywania zawodu medycznego bez odpowiedniego zezwolenia.
Section 230
Federalne prawo USA (Communications Decency Act) chroniące platformy internetowe przed odpowiedzialnością za treści publikowane przez użytkowników. Kluczowe pytanie w sprawie: czy chatboty AI podlegają tej ochronie.
Preliminary injunction (wstępny nakaz sądowy)
Tymczasowe orzeczenie sądu nakazujące zaprzestanie określonych działań przed wydaniem ostatecznego wyroku. Pensylwania domaga się go, by natychmiast zablokować boty podszywające się pod lekarzy.
AI Enforcement Task Force
12-osobowy zespół powołany przez Pennsylvania Department of State do monitorowania i ścigania przypadków nielegalnego wykorzystania AI, w tym botów podszywających się pod profesjonalistów.
Commonwealth Court of Pennsylvania
Stanowy sąd apelacyjny Pensylwanii o ograniczonej jurysdykcji, rozpatrujący sprawy przeciwko stanowi i agencjom rządowym oraz sprawy regulacyjne.
Generatywna sztuczna inteligencja
Rodzaj AI zdolny do tworzenia nowych treści (tekstów, obrazów, dźwięków) na podstawie danych treningowych. Chatboty Character.AI są przykładem generatywnej AI.

Najczęstsze pytania

Czy chatbot AI może legalnie udzielać porad medycznych?
Nie, chyba że jest to licencjonowany profesjonalista medyczny. W Pensylwanii Medical Practice Act zakazuje osobom i podmiotom nieposiadającym licencji przedstawiania się jako lekarze i udzielania porad medycznych. Pozew przeciwko Character.AI opiera się właśnie na tym przepisie.
Czy Character.AI ponosi odpowiedzialność za treści tworzone przez użytkowników?
To kluczowe pytanie prawne w tej sprawie. Character.AI argumentuje, że boty są tworzone przez użytkowników i opatrzone zastrzeżeniami, że są fikcyjne. Stan twierdzi jednak, że platforma umożliwia i promuje takie zachowania. Sąd będzie musiał rozstrzygnąć, czy Section 230 (chroniący platformy przed odpowiedzialnością za treści użytkowników) ma zastosowanie do chatbotów AI.
Co grozi Character.AI w związku z pozwem?
Stan domaga się wstępnego nakazu sądowego (preliminary injunction), który zmusiłby firmę do natychmiastowego zaprzestania praktyk polegających na podszywaniu się chatbotów pod lekarzy. W dalszej perspektywie możliwe są kary finansowe i dalsze ograniczenia działalności platformy.
Czy podobne regulacje istnieją w innych stanach USA?
Tak. Kalifornia już uchwaliła ustawę pozwalającą karać systemy AI podszywające się pod profesjonalistów medycznych. Nowy Jork rozważa podobne przepisy. Kentucky złożyło odrębny pozew przeciwko Character.AI dotyczący narażania dzieci na szkodliwe treści.
Jak mogę zgłosić bota podszywającego się pod lekarza?
W Pensylwanii uruchomiono specjalny kanał zgłaszania: pa.gov/ReportABot. Można tam zgłaszać chatboty, które mogą prowadzić nielegalną praktykę zawodową. Departament Stanu Pensylwanii zapowiada dalsze dochodzenia w sprawie botów podszywających się pod profesjonalistów.

Komentarze (0)

0/2000
Następny artykuł

Technologia ambient voice: Zaufany asystent czy zagrożenie dla pacjentów?

Niewłaściwe zarządzanie technologią ambient voice w opiece zdrowotnej może prowadzić do poważnych zagrożeń dla bezpieczeństwa pacjentów i podważać zaufanie do systemów. Mimo regulacji w Europie i USA wciąż brakuje danych na temat incydentów związanych z AI scribing. Kluczowe jest wdrożenie audytów oraz monitorowanie, by zminimalizować ryzyko błędów.

Czytaj dalej

Powiązane artykuły

Technologia ambient voice: Zaufany asystent czy zagrożenie dla pacjentów?

Niewłaściwe zarządzanie technologią ambient voice w opiece zdrowotnej może prowadzić do poważnych zagrożeń dla bezpieczeństwa pacjentów i podważać zaufanie do systemów. Mimo regulacji w Europie i USA wciąż brakuje danych na temat incydentów związanych z AI scribing. Kluczowe jest wdrożenie audytów oraz monitorowanie, by zminimalizować ryzyko błędów.

digitalhealth.net
16 mar

Aplikacje zdrowia psychicznego: miecz obosieczny?

Wzrost popularności aplikacji zdrowia psychicznego może prowadzić do niebezpiecznej medykalizacji normalnych stanów psychicznych. Przeprowadzona analiza ujawnia, że wiele z tych aplikacji nie opiera się na solidnych dowodach naukowych, co stwarza ryzyko błędnych diagnoz oraz przesunięcia uwagi od profesjonalnej pomocy.

mobihealthnews.com
16 mar

Sztuczna inteligencja na straży zdrowia: VoiceAI w Evergreen Family Medicine

Wprowadzenie systemu VoiceAI w Evergreen Family Medicine znacząco zmniejszyło czas oczekiwania na linii oraz zwiększyło efektywność pracowników. Mimo początkowych obaw, rozwiązanie to przyniosło zaskakująco pozytywne efekty zarówno dla personelu, jak i dla pacjentów.

healthcareitnews.com
16 mar

WHO: trzy czwarte państw UE korzysta już ze sztucznej inteligencji w diagnostyce

74 proc. państw UE wykorzystuje już sztuczną inteligencję w diagnostyce – wynika z opublikowanego 21 kwietnia 2026 r. raportu WHO Europe.

alertmedyczny.pl
medexpress.pl
cowzdrowiu.pl
+1
21 kwi

Roche wydaje ponad miliard dolarów na PathAI i szykuje rewolucję w diagnostyce raka

Roche kupuje amerykański startup PathAI za nawet 1,05 mld USD, wzmacniając swoją pozycję w cyfrowej patologii i diagnostyce opartej na sztucznej inteligencji.

bostonglobe.com
thepeninsulaqatar.com
roche.com
+5
8 maj

Rośnie popularność zabiegów kosmetycznych w USA. Eksperci wzywają do debaty etycznej

Teolodzy, bioetycy i chirurdzy plastyczni wzywają do szerszej debaty etycznej w związku z gwałtownym wzrostem popularności zabiegów kosmetycznych w USA.

abcnews.com
winnipegfreepress.com
smdailyjournal.com
8 maj
StartSzukaj