Künstliche Intelligenz (KI) ist nicht neu, aber das Aufkommen von generativer KI hat neues Potenzial – und ethische Überlegungen – für die Technologie freigesetzt. Kliniker, Informatiker und Ethiker arbeiten an der University of Rochester zusammen, um verlässliche und ethische KI in die medizinische Diagnose und Behandlung zu integrieren. Caroline Easton, Professorin für Psychiatrie am University of Rochester Medical Center (URMC), hat KI eingesetzt, um eine App zu optimieren, die Avatar-Coaches verwendet, um Patienten durch kognitive Verhaltenstherapie zu führen. Als Ergänzung zur therapeutisch angeleiteten Therapie ermöglicht es die App den Benutzern, ihre Avatar-Coaches anzupassen, um auf ihre speziellen Bedürfnisse einzugehen.
AI-Tools können auch als zweites Paar Augen für Radiologen fungieren, aber URMC Imaging Sciences Chair Jennifer Harvey, MD, sagt, dass KI Radiologen nicht ersetzen kann. „Radiologen sind immer noch viel besser darin, die Befunde auf eine Weise zu synthetisieren, die KI-Tools nicht können“, sagte Harvey. „Beispielsweise kann eine Brust-CT eine oder zwei vom KI markierte Befunde haben, aber der Radiologe muss alle Befunde zusammenführen, um wahrscheinliche Diagnosen zu erstellen.“ Um sich auf Algorithmen zur Krankheitserkennung und -behandlung zu verlassen, müssen Kliniker ein hohes Vertrauen in deren Genauigkeit haben.
Generative KI kann jedoch manchmal „falsch liegen“, so Michael Hasselberg, NP, MS, PhD, Associate Professor für Psychiatrie, Klinische Krankenpflege und Datenwissenschaft, und erster Chief Digital Health Officer der Universität. KI ist nur so verlässlich wie die Daten, auf denen sie trainiert wird. Der national anerkannte KI-Ethikexperte Jonathan Herington, PhD, warnt davor, dass KI soziale und kulturelle Vorurteile verfestigen kann. Ein Weg, Vorurteile zu bekämpfen, ist, bewusster bei den zur Schulung des Systems verwendeten Daten zu sein. Eine weitere Möglichkeit besteht darin, “immer einen Menschen im Kreislauf zu haben” – sei es ein Radiologe, der die Ergebnisse der KI bei einem CT-Scan synthetisiert, oder ein FDA-Regulierungsbehörde, die überprüft, ob ein KI-Tool sicher und wirksam ist.
Obwohl die FDA-Zertifizierung derzeit nicht für KI-Tools erforderlich ist, kann Chris Kanan, PhD, Associate Professor für Informatik, die Vorteile dieses zusätzlichen Schritts bestätigen. Kanan arbeitete mit Paige.AI zusammen, um Paige Prostata zu entwickeln – das erste von der FDA zugelassene, KI-unterstützte Pathologie-Tool. Laut Kanan erhöht die FDA-Zertifizierung das Vertrauen, das Krankenhäuser und Kliniken in ein Produkt haben, sowie die Wahrscheinlichkeit, dass ein Produkt von Versicherungen abgedeckt wird. Möchten Sie mehr erfahren? Lesen Sie die vollständige Geschichte im University News Center.
Hinterlasse eine Antwort