Utah erlaubt einem KI-System, Psychopharmaka ohne Arzt zu verschreiben. Es ist erst das zweite Mal, dass der Staat – und das Land – delegiert diese Art der klinischen Autorität gegenüber KI. Staatsbeamte sagen, es könne die Kosten senken und Pflegeengpässe lindern, doch Ärzte warnen, das System sei undurchsichtig und riskant und werde die psychische Gesundheitsversorgung wahrscheinlich nicht auf diejenigen ausweiten, die sie benötigen.

Der einjährige Pilot, letzte Woche angekündigtwird es dem KI-Chatbot von Legion Health ermöglichen, in einigen Fällen bestimmte Rezepte für Psychopharmaka zu erneuern. Das Startup aus San Francisco verspricht Patienten mit Sitz in Utah „schnelle, einfache Nachfüllungen“ durch ein Abonnement für 19 US-Dollar pro Monat. Das Programm startet irgendwann im April, das Unternehmen führt derzeit jedoch nur eine Warteliste.

Der KI-Chatbot verlängert in einigen Fällen bestimmte Rezepte für Psychopharmaka.

Der Umfang des Programms ist bewusst eng gefasst und sowohl hinsichtlich der abgedeckten Medikamente als auch hinsichtlich der Bedingungen, die Patienten erfüllen müssen, um sich zu qualifizieren, begrenzt. Laut Legion Vereinbarung Gemäß den Richtlinien des Office of Artificial Intelligence in Utah kann der Chatbot nur 15 risikoärmere Erhaltungsmedikamente verlängern, die bereits von einem Arzt verschrieben wurden. Dazu gehören Fluoxetin (Prozac), Sertralin (Zoloft), Bupropion (Wellbutrin), Mirtazapin und Hydroxyzin, die häufig zur Behandlung von Angstzuständen und Depressionen eingesetzt werden. Patienten müssen ebenfalls als stabil gelten: Personen, bei denen kürzlich eine Dosis- oder Medikamentenänderung oder ein psychiatrischer Krankenhausaufenthalt im letzten Jahr vorgenommen wurde, sind ausgeschlossen, und Patienten müssen sich alle zehn Nachfüllungen oder nach sechs Monaten, je nachdem, was zuerst eintritt, bei einem Gesundheitsdienstleister melden.

Das System kann keine neuen Rezepte ausstellen oder Medikamente verwalten, die einer genaueren klinischen Überwachung bedürfen, einschließlich Medikamenten, die eine Bluttestüberwachung erfordern. Auch kontrollierte Substanzen sind verboten, was viele ADHS-Medikamente ausschließt. Der Ausschluss von Benzodiazepinen, die gegen Angstzustände eingesetzt werden; Antipsychotika, die bei Erkrankungen wie Schizophrenie und bipolarer Störung eingesetzt werden; und Lithium – weithin als Goldstandard-Behandlung für bipolare Störungen angesehen – lässt viele komplexere psychiatrische Fälle außerhalb des Anwendungsbereichs des Pilotprojekts.

Um das System nutzen zu können, müssen sich Patienten anmelden, ihre Identität bestätigen und nachweisen, dass sie bereits ein Rezept haben, beispielsweise durch die Bereitstellung eines Fotos des Etiketts oder der Tablettenfläschchen. Anschließend werden sie zu ihren Symptomen sowie zu Nebenwirkungen und Wirksamkeit der Medikamente befragt. Ihnen werden Fragen zu Selbstmordgedanken, Selbstverletzung, schweren Reaktionen und Schwangerschaft gestellt, um Warnsignale zu protokollieren. Wenn irgendwelche Antworten außerhalb der Niedrigrisikokriterien des Piloten liegen, sollen die Fälle an einen Kliniker weitergeleitet werden, bevor eine Nacherfüllung erfolgt. Patienten und Apotheker können auch eine menschliche Überprüfung beantragen.

„Durch die sichere Automatisierung des Erneuerungsprozesses für Erhaltungsmedikamente ermöglichen wir den Patienten, die benötigte Pflege viel schneller und kostengünstiger zu erhalten“, so die Staatsbeamten sagte bei der Ankündigung des Piloten. Im Laufe der Zeit, so sagten sie, könnte das Programm Gesundheitsdienstleistern die Möglichkeit geben, „ihre Zeit auf komplexere, risikoreichere Patientenbedürfnisse zu konzentrieren“ und dazu beitragen, Engpässe zu beheben, die dazu geführt haben, dass 500.000 Einwohner Utahs keinen Zugang zu psychiatrischer Versorgung haben. Legion-Mitbegründer und CEO Yash Patel hat das Programm noch großartiger formuliert: beschreibend Es handelt sich um eine weltweite Premiere, die den Zugang zur Gesundheitsversorgung dramatisch erweitern und „den Beginn von etwas viel Größerem als Nachfüllungen“ markieren wird.

Psychiater sind weniger überzeugt. Brent Kious, Psychiater und Professor an der University of Utah School of Medicine, erzählte Der Rand Er ist der Meinung, dass „die Vorteile eines KI-basierten Nachfüllsystems möglicherweise überbewertet werden“. Er vermutet, dass das Tool „den Zugang für diejenigen, die am meisten auf Pflege angewiesen sind, nicht verbessern wird“. Der Zielpatient müsste bereits einen Behandlungsplan mit seinem Psychiater haben, um den Service nutzen zu können.

„Es wäre besser, wenn es mehr Transparenz, mehr Wissenschaft und strengere Tests gäbe, bevor die Leute aufgefordert werden, dies zu nutzen.“

Kious vermutet, dass die Automatisierung zu einer, wie er es nannte, „Epidemie der Überbehandlung“ in der Psychiatrie beitragen könnte, bei der einige Patienten ihre Medikamente länger als nötig einnehmen würden. John Torous, Direktor für digitale Psychiatrie am Beth Israel Deaconess Medical Center und Professor für Psychiatrie an der Harvard Medical School, äußerte ähnliche Bedenken und stellte fest, dass einige Menschen von einer langfristigen Einnahme von Psychopharmaka profitieren, während andere davon profitieren könnten, wenn sie diese reduzieren oder absetzen. „Sie erfordern ein aktiveres Management, Veränderungen und sorgfältige Überlegungen“, sagte er. Das ist schwieriger zu bewerkstelligen, wenn Sie die Nachfüll-Check-ins an einen Chatbot auslagern.

Eine größere Sorge besteht darin, ob ein Chatbot selbst die routinemäßigsten Teile der psychiatrischen Versorgung sicher automatisieren kann. Torous sagte, bei der Verschreibung gehe es um mehr als nur um die Prüfung auf Wechselwirkungen mit Medikamenten, und stellte die Frage, ob heutzutage ein KI-System „den einzigartigen Kontext und die Faktoren verstehen kann, die in den Medikamentenplan einer Person einfließen“. Kious machte einen ähnlichen Punkt: „Das ist etwas, das im Prinzip sicher sein könnte, aber es hängt alles von den Details ab.“ Diese Bedenken werden dadurch verschärft, wie neu diese Systeme sind – und wie undurchsichtig sie für Außenstehende bleiben. „Im Moment fühlt es sich ein bisschen wie Alchemie an“, sagte er. „Es wäre besser, wenn es mehr Transparenz, mehr Wissenschaft und strengere Tests gäbe, bevor die Leute aufgefordert werden, dies zu nutzen.“

Es gibt auch unmittelbarere Sicherheitsbedenken. Kious sagte, der Chatbot könnte während des Screenings etwas übersehen: Er stellt möglicherweise nicht die richtigen Fragen, ein Patient erkennt möglicherweise eine Nebenwirkung nicht oder er antwortet möglicherweise ungenau. Manche sagen dem System vielleicht einfach, was es hören möchte, um die Pflege zu beschleunigen. Er betonte, dass dies nicht nur bei Chatbots der Fall sei; Ein Großteil der Psychiatrie beruht auf Selbstberichten. Aber menschliche Kliniker hätten in der Regel auch Zugang zu anderen Informationen, sagte er und fügte hinzu, dass er bei Patientenbesuchen nicht nur darauf achtet, was sie sagen, sondern auch darauf, was sie nicht sagen und wie sie sich präsentieren. Und obwohl Patienten auch menschliche Anbieter in die Irre führen können, könnte ein Chatbot-System es laut Kious für Patienten einfacher machen, ihre Antworten anzupassen, bis sie das gewünschte Ergebnis erzielen.

Torous sagte, dass es auch offensichtlichere Sicherheitsrisiken gebe, die jedem bekannt seien, der verfolgt, wie Chatbots in der realen Welt abschneiden. Der Chatbot von Legion ist Utahs zweites Experiment mit KI-Verschreibungen und schließt sich einem laufenden, umfassenderen Pilotprojekt mit Schwerpunkt auf der Primärversorgung mit Doctronic an gestartet letzten Dezember. Innerhalb weniger Wochen nach der Live-Schaltung Sicherheitsforscher hatte es geschafft, das System von Doctronic dazu zu bringen, Impfverschwörungstheorien zu verbreiten, Anweisungen zum Kochen von Meth zu erstellen und die Opioiddosis eines Patienten zu verdreifachen. Staatsbeamte sagen, das gezieltere Programm mit Legion sei speziell darauf ausgelegt, „den Mangel an psychischer Gesundheit im Staat“ anzugehen.

Legion sagt, der Pilot operiere unter strengen Leitplanken. Zusätzlich zu den sogenannten „konservativen Zulassungsvoraussetzungen“ sieht die Vereinbarung mit Utah vor, dass das Unternehmen detaillierte monatliche Berichte vorlegt und die ersten 1.250 Anträge von menschlichen Ärzten genau prüfen lässt, wobei danach regelmäßig etwa 5 bis 10 Prozent der Anträge beprobt werden.

Der Mitbegründer und Präsident der Legion, Arthur MacWaters, erzählte Der Rand dass „bei jedem Fernversorgungsmodell Risiken bestehen, sei es KI-unterstützt oder vollständig von Menschen geleitet“, und betonte, dass „der Arbeitsablauf des Unternehmens nicht auf einer einzigen selbst gemeldeten Antwort beruht, um die Behandlung freizuschalten“. Er sagte, dass zu den wichtigsten Schutzmaßnahmen die engen Grenzwerte des Piloten für Medikamente und Patientenberechtigung, integrierte KI-Sicherheitsbildschirme, die Einbeziehung des Apothekers und die Möglichkeit zur Eskalation an einen Kliniker gehören. „Wir halten dies für entscheidend, um den Zugang zu Hunderttausenden Menschen in Utah zu erweitern, die in Gebieten mit Mangel an psychischer Gesundheit leben, und als wichtiges Testgelände für KI in der Medizin.“

MacWaters äußerte sich nicht zu weiteren Anwendungsfällen, Medikamenten oder Expansionen in andere Bundesstaaten, sagte aber, das Unternehmen sei „gespannt auf die Zukunft.“ Er würde auch keinen Zeitplan für die Expansionspläne von Legion nennen, obwohl sowohl MacWaters als auch Legion öffentlich größere Ambitionen über Utah hinaus signalisiert haben: Auf der Nachfüllseite von Legion heißt es, dass der Dienst „landesweit 2026“ verfügbar sein wird, und MacWaters hat dies getan empfohlen es „wird sehr, sehr schnell in jedem Bundesstaat verfügbar sein.“

Für die Psychiater, mit denen ich gesprochen habe, scheint das alles eine ziemlich grundlegende Frage aufzuwerfen: Welches Problem löst Legion wirklich? Kious sagte, dass die meisten Psychiater ihre Rezepte wahrscheinlich gerne „kostenlos und ohne Termin nachfüllen“, es sei denn, sie machen sich Sorgen um den Patienten oder das Medikament birgt ein erhebliches Risiko. Das sind genau die Fälle, die die KI von Legion nicht bearbeiten darf.

„Ich persönlich würde es vorerst vermeiden“, sagte Torous und fügte hinzu, wenn Sie einen guten Behandlungsplan gefunden haben, der für Sie funktioniert, ist es wahrscheinlich am besten, bei diesem Arzt zu bleiben.

Verfolgen Sie Themen und Autoren aus dieser Geschichte, um mehr davon in Ihrem personalisierten Homepage-Feed zu sehen und E-Mail-Updates zu erhalten.