Das Team hat zwei generative KI-Tools – GPT-4 und Google Gemini – getestet, um zu sehen, wie gut sie radiologiebezogene Materialien anpassen können, um sie verständlicher für Patienten zu machen. Sie wählten sieben aktuelle Broschüren einer großen radiologischen Praxis aus, um zu sehen, wie die großen Sprachmodelle sie umformulieren, und bewerteten ihre Leseniveaus vor und nach der Anpassung. Drei Radiologen überprüften die umformulierten Materialien auf Angemessenheit, Relevanz und Klarheit.
Die originalen Broschüren hatten im Durchschnitt ein Leseniveau von 11,72. ChatGPT reduzierte die Wortzahl um etwa 15%, wobei 95% der Papiere 75% ihrer wichtigen Informationen behielten; Gemini verringerte die Anzahl um 33%, wobei 68% der Broschüren 75% des erforderlichen Inhalts beibehielten. Beide großen Sprachmodelle konnten die Materialien anpassen, um ein durchschnittliches Leseniveau von sechster und siebter Klasse zu erreichen. ChatGPT übertraf Gemini in Bezug auf Angemessenheit (95% vs. 57%), Klarheit (92% vs. 67%) und Relevanz (95% vs. 76%). Die Interrater-Übereinstimmung war auch signifikant besser für ChatGPT.
Die Autoren schlugen vor: “Im Gegensatz zu traditionellen Methoden, bei denen manuelles Umschreiben erforderlich ist, bietet unser KI-gesteuerter Ansatz potenziell eine effizientere und skalierbare Lösung.” Sie fügten hinzu, dass eine weitere Verfeinerung spezifisch für informative medizinische Materialien die Leistung der großen Sprachmodelle verbessern könnte. “Obwohl Einschränkungen bestehen, sind die potenziellen Vorteile für die Patientenaufklärung und Gesundheitsergebnisse erheblich und rechtfertigen weitere Untersuchungen und die Integration dieser KI-Tools in der Radiologie und möglicherweise in verschiedenen medizinischen Fachgebieten.”
Hinterlasse eine Antwort