Forscher berichten, dass ein KI-gestütztes Transkriptionstool in Krankenhäusern Dinge erfindet, die nie gesagt wurden.

Forscher berichten, dass ein KI-gestütztes Transkriptionstool in Krankenhäusern Dinge erfindet, die nie gesagt wurden.

Whispers of Concern: The Troubling Hallucinations in OpenAI’s AI Transcription Tool and Its Implications for Sensitive Industries

Whisper von OpenAI: Potenzial und Herausforderungen in der KI-Transkription

In den letzten Jahren hat OpenAI mit seinem KI-gestützten Transkriptionstool Whisper großes Aufsehen erregt. Das Unternehmen beschreibt Whisper als nahezu menschenähnlich robust und genau. Doch Experten warnen vor einem gravierenden Mangel: Whisper neigt dazu, Textpassagen oder sogar ganze Sätze zu erfinden – auch bekannt als "Halluzinationen". Diese Problematik ist besonders besorgniserregend, da Whisper in vielen Branchen weltweit eingesetzt wird, von der Übersetzung und Transkription von Interviews bis hin zur Erstellung von Untertiteln für Videos.

Was sind Halluzinationen?

Halluzinationen in der KI vermitteln den Eindruck, dass das System Inhalte generiert, die nicht in der Originalaufnahme vorhanden sind. Laut Interviews mit Software-Ingenieuren und akademischen Forschern zeigt Whisper in mindestens 40 % der Fälle problematische Inhalte, darunter rassistische Kommentare, gewalttätige Rhetorik und fiktive medizinische Behandlungen. Ein Forscher der Universität Michigan fand in acht von zehn Transkriptionen Halluzinationen, während ein anderer Entwickler in der Hälfte der über 100 Stunden, die er analysierte, mit ähnlichen Problemen konfrontiert wurde. Diese fehlerhaften Transkriptionen könnten schwerwiegende Konsequenzen haben, insbesondere im Gesundheitswesen.

Risiken im Gesundheitswesen

Trotz OpenAIs Warnungen, Whisper nicht in "hochriskanten Bereichen" zu verwenden, setzen viele medizinische Einrichtungen das Tool zur Transkription von Patientengesprächen ein. Über 30.000 Klinikmitarbeiter und 40 Gesundheitssysteme nutzen bereits Produkte, die auf Whisper basieren, um die Interaktionen zwischen Ärzten und Patienten zu transkribieren. Alondra Nelson, ehemalige Leiterin der White House Office of Science and Technology Policy, betont, dass "niemand eine Fehldiagnose will".

Fehlende Transparenz und Datenschutzbedenken

Ein weiteres ernstes Problem stellt die fehlende Möglichkeit dar, originale Aufnahmen mit den KI-generierten Transkripten zu vergleichen. Das Unternehmen Nabla, das Whisper-basierte Tools für die medizinische Transkription entwickelt hat, gibt an, dass aus Datenschutzgründen die Originalaufnahmen gelöscht werden. Dies könnte insbesondere bei fehlerhaften Transkriptionen problematisch sein, da Ärzte keine Möglichkeit haben, die Richtigkeit der notierten Informationen zu überprüfen.

Die Notwendigkeit von Regulierung

Die zunehmende Verbreitung von KI und insbesondere von Tools wie Whisper hat Experten und Befürworter dazu veranlasst, für staatliche Regulierungen zu plädieren. Sie fordern, dass OpenAI mit Nachdruck an der Behebung dieser Probleme arbeitet. William Saunders, ein ehemaliger OpenAI-Ingenieur, bringt es auf den Punkt: "Es ist problematisch, wenn man ein Produkt auf den Markt bringt, und die Leute übermäßig selbstsicher sind, was es kann."

Fazit

Whisper von OpenAI hat das Potenzial, die Art und Weise, wie wir Transkriptionen und Übersetzungen durchführen, zu revolutionieren. Doch die ernsthaften Bedenken hinsichtlich der Halluzinationen und der damit verbundenen Risiken, insbesondere im Gesundheitswesen, müssen angegangen werden. Offene und ehrliche Diskussionen über die Limitationen und Herausforderungen der KI sind unerlässlich, um sicherzustellen, dass diese Technologien verantwortungsvoll und effektiv eingesetzt werden. Während Entwickler und Forscher weiterhin an Lösungen arbeiten, bleibt es wichtig, dass Nutzer sich der Risiken bewusst sind und entsprechende Vorsichtsmaßnahmen treffen.