Pensylwania pozywa Character.AI za chatbota podszywającego się pod psychiatrę
Stan Pensylwania złożył w Commonwealth Court pozew przeciwko Character Technologies, właścicielowi platformy Character.AI, po tym jak chatbot „Emilie” miał podawać się za licencjonowanego psychiatrę i oferować ocenę leczenia farmakologicznego z użyciem fałszywego numeru licencji. Administracja gubernatora Josha Shapiro twierdzi, że firma naruszyła Medical Practice Act i domaga się sądowego zakazu podszywania się botów pod lekarzy. To pierwsze w USA postępowanie tego typu ogłoszone przez urzędującego gubernatora, które może mieć znaczenie dla odpowiedzialności prawnej platform AI.
Najważniejsze
- •Pensylwania pozwała Character.AI — to pierwsze w USA postępowanie egzekucyjne dotyczące chatbotów podszywających się pod licencjonowanych lekarzy, ogłoszone przez gubernatora.
- •Chatbot „Emilie” podawał się za psychiatrę, twierdził, że ukończył Imperial College London i podał fałszywy numer licencji (PS306189), który nie widnieje w rejestrze Pennsylvania State Board of Medicine.
- •Stan domaga się wstępnego nakazu sądowego, który zmusiłby Character.AI do zaprzestania praktyk polegających na podszywaniu się chatbotów pod lekarzy.
- •Sprawa wpisuje się w szerszą falę regulacji AI — Kalifornia już uchwaliła przepisy karzące AI podszywające się pod profesjonalistów medycznych, a Nowy Jork rozważa podobne rozwiązania.
- •Administracja Shapiro uruchomiła AI Enforcement Task Force, AI Literacy Toolkit oraz kanał zgłaszania botów (pa.gov/ReportABot), zapowiadając dalsze dochodzenia.
Pensylwania pozwała Character.AI, zarzucając chatbotowi „Emilie” podszywanie się pod psychiatrę i naruszenie stanowego prawa o praktyce medycznej.
Kalendarium: Jak doszło do pozwu przeciwko Character.AI
Źródła: AP News, CBS News, NBC News, oficjalny komunikat rządu Pensylwanii

Działania stanów USA wobec chatbotów AI podszywających się pod profesjonalistów medycznych
| Stan | Rodzaj działania | Status | Kluczowe elementy |
|---|---|---|---|
| Pensylwania | Pozew + wniosek o nakaz sądowy | Złożony 1 maja 2026 | Medical Practice Act, AI Enforcement Task Force, kanał zgłaszania botów |
| Kalifornia | Ustawa (bill) | Uchwalona w 2025 | Sankcje dla systemów AI podszywających się pod profesjonalistów medycznych |
| Nowy Jork | Projekt ustawy | W toku legislacyjnym | Podobne regulacje do Kalifornii — w trakcie prac |
| Kentucky | Pozew prokuratora generalnego | Styczeń 2026 | Narażanie dzieci na treści zachęcające do samookaleczeń i seksualne |
Źródła: AP News, TechCrunch, CBS News, oficjalny komunikat rządu Pensylwanii (pa.gov)
Stanowiska w sprawie: Stan Pensylwania vs. Character.AI
Stanowisko Pensylwanii
Stanowisko Character.AI
Słownik pojęć
- Medical Practice Act
- Stanowa ustawa Pensylwanii regulująca praktykę zawodową lekarzy i chirurgów, określająca wymogi licencyjne oraz zakazująca wykonywania zawodu medycznego bez odpowiedniego zezwolenia.
- Section 230
- Federalne prawo USA (Communications Decency Act) chroniące platformy internetowe przed odpowiedzialnością za treści publikowane przez użytkowników. Kluczowe pytanie w sprawie: czy chatboty AI podlegają tej ochronie.
- Preliminary injunction (wstępny nakaz sądowy)
- Tymczasowe orzeczenie sądu nakazujące zaprzestanie określonych działań przed wydaniem ostatecznego wyroku. Pensylwania domaga się go, by natychmiast zablokować boty podszywające się pod lekarzy.
- AI Enforcement Task Force
- 12-osobowy zespół powołany przez Pennsylvania Department of State do monitorowania i ścigania przypadków nielegalnego wykorzystania AI, w tym botów podszywających się pod profesjonalistów.
- Commonwealth Court of Pennsylvania
- Stanowy sąd apelacyjny Pensylwanii o ograniczonej jurysdykcji, rozpatrujący sprawy przeciwko stanowi i agencjom rządowym oraz sprawy regulacyjne.
- Generatywna sztuczna inteligencja
- Rodzaj AI zdolny do tworzenia nowych treści (tekstów, obrazów, dźwięków) na podstawie danych treningowych. Chatboty Character.AI są przykładem generatywnej AI.
Najczęstsze pytania
Czy chatbot AI może legalnie udzielać porad medycznych?▼
Czy Character.AI ponosi odpowiedzialność za treści tworzone przez użytkowników?▼
Co grozi Character.AI w związku z pozwem?▼
Czy podobne regulacje istnieją w innych stanach USA?▼
Jak mogę zgłosić bota podszywającego się pod lekarza?▼
Pierwsi napisali na ten temat
Komentarze (0)

Technologia ambient voice: Zaufany asystent czy zagrożenie dla pacjentów?
Niewłaściwe zarządzanie technologią ambient voice w opiece zdrowotnej może prowadzić do poważnych zagrożeń dla bezpieczeństwa pacjentów i podważać zaufanie do systemów. Mimo regulacji w Europie i USA wciąż brakuje danych na temat incydentów związanych z AI scribing. Kluczowe jest wdrożenie audytów oraz monitorowanie, by zminimalizować ryzyko błędów.
Powiązane artykuły
Technologia ambient voice: Zaufany asystent czy zagrożenie dla pacjentów?
Niewłaściwe zarządzanie technologią ambient voice w opiece zdrowotnej może prowadzić do poważnych zagrożeń dla bezpieczeństwa pacjentów i podważać zaufanie do systemów. Mimo regulacji w Europie i USA wciąż brakuje danych na temat incydentów związanych z AI scribing. Kluczowe jest wdrożenie audytów oraz monitorowanie, by zminimalizować ryzyko błędów.
digitalhealth.netAplikacje zdrowia psychicznego: miecz obosieczny?
Wzrost popularności aplikacji zdrowia psychicznego może prowadzić do niebezpiecznej medykalizacji normalnych stanów psychicznych. Przeprowadzona analiza ujawnia, że wiele z tych aplikacji nie opiera się na solidnych dowodach naukowych, co stwarza ryzyko błędnych diagnoz oraz przesunięcia uwagi od profesjonalnej pomocy.
mobihealthnews.comSztuczna inteligencja na straży zdrowia: VoiceAI w Evergreen Family Medicine
Wprowadzenie systemu VoiceAI w Evergreen Family Medicine znacząco zmniejszyło czas oczekiwania na linii oraz zwiększyło efektywność pracowników. Mimo początkowych obaw, rozwiązanie to przyniosło zaskakująco pozytywne efekty zarówno dla personelu, jak i dla pacjentów.
healthcareitnews.comWHO: trzy czwarte państw UE korzysta już ze sztucznej inteligencji w diagnostyce
74 proc. państw UE wykorzystuje już sztuczną inteligencję w diagnostyce – wynika z opublikowanego 21 kwietnia 2026 r. raportu WHO Europe.
alertmedyczny.plmedexpress.plcowzdrowiu.pl+1Roche wydaje ponad miliard dolarów na PathAI i szykuje rewolucję w diagnostyce raka
Roche kupuje amerykański startup PathAI za nawet 1,05 mld USD, wzmacniając swoją pozycję w cyfrowej patologii i diagnostyce opartej na sztucznej inteligencji.
bostonglobe.comthepeninsulaqatar.comroche.com+5Rośnie popularność zabiegów kosmetycznych w USA. Eksperci wzywają do debaty etycznej
Teolodzy, bioetycy i chirurdzy plastyczni wzywają do szerszej debaty etycznej w związku z gwałtownym wzrostem popularności zabiegów kosmetycznych w USA.
abcnews.comwinnipegfreepress.comsmdailyjournal.com