Künstliche Intelligenz im Gesundheitswesen: Gut oder Schlecht? Nun, Beides.

Künstliche Intelligenz im Gesundheitswesen: Gut oder Schlecht? Nun, Beides.

Ich habe mehrere Artikel über die Implementierung von Technologie im Gesundheitswesen geschrieben, sei es elektronische Patientendaten (EMRs), Datenanalyse, Entscheidungshilfen am Point-of-Care oder künstliche Intelligenz (KI) und maschinelles Lernen (ML). Jede technologische Innovation, oder vielleicht alle technologischen Innovationen, kann eine Rolle im Gesundheitswesen spielen. Warum? Weil es so viele Bereiche gibt, die verbessert werden können, um den Klinikern zu helfen, kosteneffiziente, aber qualitätsorientierte Gesundheitsversorgung zu bieten.

Mein erster Artikel über Technologie im Gesundheitswesen für Forbes.com war mein Artikel vom März 2019 mit dem Titel Blockchain-Technologie könnte (irgendwann) das Gesundheitswesen reparieren: Halten Sie nicht den Atem an. In meinen 35 Jahren im Gesundheitswesen habe ich festgestellt: Das nächste beste Technikding wird “alles reparieren” (und doch …). Dies ist mein dritter Artikel über KI und er fühlt sich etwas aktuell an.

Ausgangspunkt: KI ist keine amorphe Sache, kein fühlendes Wesen, kein Meisterentscheider irgendwo knapp unter Gott; stattdessen handelt es sich um einen Computeralgorithmus (Programmierung), der von Menschen erstellt und eingesetzt wurde, um Computer zu befähigen, auf der Grundlage dieses “Lernens” fortgeschrittene Ergebnisse zu erzielen. Während KI eine erweiterte Rolle im Gesundheitswesen und bei der Gesundheitsversorgung haben kann, sollten können (ob das optimierte Patientenbesuche, schnellere, bessere Datenverwendung/analyse, Revenue Cycle Management oder reduzierte vorherige Autorisierungen sind), erfordern all diese entscheidungsbasierten Werkzeuge anfängliche Eingaben und menschliches Eingreifen als Basis und Kerncode. Während dies in Zukunft wunderbare Ergebnisse haben kann, müssen wir uns der Bausteine in der Codierung von KI-Modellen bewusst sein, insbesondere im Hinblick auf die Versorgungserbringung.

Ein kürzlich erlebte und lehrreiche Lektion war das epische Scheitern des viel gepriesenen Starts eines KI-Produkts (nicht auf den Gesundheitsbereich bezogen) einer großen internationalen Technologieplattform. Nach seinem unglücklichen Start und einem rigorosen (nennen wir es “brutalen”) sozialen Medien-“Vetting” und Test wurde festgestellt, dass das Produkt rassische Vorurteile in Kombination mit historisch belegten Fehlern enthielt, was zwangsläufig zu erwiesenermaßen falschen Ergebnissen führte. Das Programm wurde sofort mit einer Art blumiger Sprache zur weiteren erforderlichen Produktentwicklung heruntergefahren. Während diese Episode sowohl komisch als auch vorhersehbar war, ist sie auch beängstigend, wenn wir in eine Zukunft blicken, in der wir uns stärker auf KI und ML verlassen, um uns bei der Berechnung und dem Verständnis von umfangreichen Daten zu helfen. Man hofft, dass die zugrunde liegende Programmierung neutral ist und keine Vorurteile enthält, um das Endprodukt/Ergebnis nicht zu beeinträchtigen. Dieses jüngste Großtechnik-“Produkt” ist jedoch ein klassisches Beispiel dafür, wie KI schiefgehen kann. Die rassischen Vorurteile sind nicht einfach “passiert”; wie erwähnt, ist KI kein Vat, in den Eingaben geladen werden und der Computer so klug ist, dass er qualitativ hochwertige Ergebnisse liefert. Nein, KI ist, wie ich zuvor gesagt habe, irgendwie wie eine Pyramide. Die Basis muss solide gebaut sein und ein solides Fundament für die restlichen Bausteine bieten, um den Belastungen der Zeit standzuhalten. Eine schlecht gebaute Basis führt zu schädlichen Ergebnissen (z.B. dem Zusammenbruch der Struktur). In gewisser Hinsicht kann dasselbe auch für KI zutreffen. Letztendlich basiert der Wert des Ergebnisses auf der zugrunde liegenden Struktur (der Basis der Pyramide). Eine schlechte Basis führt zu einem schlechten Produkt; schlechte Eingaben (Codierung/Konstruktion) erzeugen ungenaue, minderwertige und fragwürdige Ergebnisse, denen nicht vertraut werden kann.

Die KI wächst und das ist sowohl in Ordnung als auch gut. Wir sollten begrüßen, wie diese technologischen Fortschritte uns befähigen und unterstützen können. Dieses Wachstum zeigt sich durch den rasanten und vielleicht sogar irren aktuellen Geschäftsbericht und das Wachstum von Nvidia (fragen Sie einige Ihrer Kongressabgeordneten, wie profitabel Nvidia für ihre Portfolios war; sagen wir einfach, viele dieser Leute sind bessere Aktienpicker als Wall Street-Analysten. Aber ich schweife ab). Die Gesundheitsversorgung kann sicherlich von der Implementierung von KI-Modellen profitieren. Es gibt Kosteneinsparungen und potenzielle Verbesserungen der Versorgung, die auf ordnungsgemäßer Implementierung basieren können, und das ist eine gute Sache. Jemand hat mich neulich gefragt: “…machst du KI?” Die Antwort lautet sicherlich: “…wie definierst du ‘KI’?” Ich meine, ich habe ein grundlegendes Verständnis, kenne die Grundlagen, die großen Sprachmodelle (LLM) und ML-Stücke und habe ein wenig programmiert. Ich weiß, dass ich dabei eine Rolle spiele, die Lücke zwischen den Datenspezialisten, ihren Ausgaben und den Klinikern/Betreibern zu überbrücken. Ich weiß, dass KI im Gesundheitswesen irgendwann einen Wert haben kann und wird. Aber ich weiß auch, dass es sehr reale Gefahren gibt, die von Codierern/Programmierern definiert und aufgebaut werden können, die Vorurteile einbauen, was gefährlich ist. Wie ich schon gesagt habe: Müll rein, Müll raus.

Während sich die Leute in Richtung oder weg von KI und deren Anwendungen im Gesundheitswesen bewegen, könnte meine Warnung folgende sein: Hassen Sie nicht Frankenstein; hassen Sie Dr. Frankenstein. Anders ausgedrückt: Das Ergebnis ist nicht das Monster. Stattdessen ist der Schöpfer das Monster.