„Halluzinationen in KI-Transkriptionen: OpenAI’s Whisper gefährdet medizinische und gesellschaftliche Genauigkeit“
Die Herausforderungen von OpenAI’s Whisper: Wenn KI Halluzinationen erzeugt
San Francisco – OpenAI hat ihr KI-gestütztes Transkriptionstool Whisper als nahezu „menschlich robust und genau“ angepriesen. Doch hinter dieser beeindruckenden Fassade verbirgt sich ein erhebliches Problem: Whisper ist anfällig für die Erzeugung fiktiver Textteile oder sogar ganzer Sätze, ein Phänomen, das in der Branche als „Halluzinationen“ bezeichnet wird. Experten warnen vor den potenziellen Gefahren, die diese Fehler mit sich bringen, insbesondere in sensiblen Bereichen wie dem Gesundheitswesen.
Die Auswirkungen von Halluzinationen
Mehr als ein Dutzend Softwareingenieure, Entwickler und akademische Forscher haben Berichte über diese Halluzinationen zusammengestellt, die besorgniserregende Inhalte wie rassistische Äußerungen, gewalttätige Rhetorik und sogar fiktive medizinische Behandlungen umfassen können. Whispers Verwendung in einer Vielzahl von Branchen – von der Transkription von Interviews bis zur Erstellung von Untertiteln – wirft ernsthafte Fragen auf, insbesondere wenn man bedenkt, wie weit verbreitet das Tool mittlerweile ist.
Ein Forscher der University of Michigan entdeckte in einer Studie zu öffentlichen Sitzungen Halluzinationen in acht von zehn analysierten Audio-Transkriptionen. Ein Maschinenbauingenieur stellte fest, dass in etwa der Hälfte der über 100 Stunden, die er mit Whisper transkribiert hatte, Halluzinationen auftraten. Diese Probleme zeigen sich selbst in gut aufgenommenen, kurzen Audiodateien: In einer aktuellen Studie fanden Computerwissenschaftler 187 Halluzinationen in über 13.000 klaren Audiobeispielen.
Besondere Risiken im Gesundheitswesen
Die Problematik wird besonders alarmierend, wenn Whisper in medizinischen Einrichtungen eingesetzt wird, um Patientenbesprechungen zu transkribieren. Trotz der Warnungen von OpenAI, dass das Tool nicht in „hochriskanten Bereichen“ verwendet werden sollte, haben bereits über 30.000 Kliniker und 40 Gesundheitssysteme, darunter das Mankato Clinic in Minnesota und das Children’s Hospital Los Angeles, auf Whisper-basierte Tools umgeschaltet.
Alondra Nelson, ehemalige Leiterin des White House Office of Science and Technology Policy, merkte an: „Niemand möchte eine Fehldiagnose.“ Sie drängt auf einen höheren Standard für den Einsatz solcher Technologien. Auch die Übertragungen für gehörlose und schwerhörige Menschen geraten ins Kreuzfeuer, da diese keine Möglichkeit haben, Halluzinationen inmitten des transkribierten Textes zu identifizieren.
Aufruf nach Regulierung
Die Häufigkeit solcher Halluzinationen hat zu einem Aufruf von Experten, Befürwortern und ehemaligen OpenAI-Mitarbeitern geführt, dass der Bund über KI-Regulierungen nachdenken sollte. William Saunders, ein Forscher in San Francisco, der OpenAI verließ, äußerte: „Das scheint lösbar, wenn das Unternehmen bereit ist, es zu priorisieren.“
Technologischer Fortschritt und Herausforderungen
Whisper, das in verschiedenen Versionen des OpenAI-Flaggschiffs ChatGPT integriert ist, hat sich als das beliebteste Open-Source-Spracherkennungsmodell etabliert. Im vergangenen Monat wurde eine der Versionen über 4,2 Millionen Mal von der Open-Source-AI-Plattform HuggingFace heruntergeladen.
Dennoch bleibt die Herausforderung dieselbe: Die Halluzinationen sind nicht nur verwirrend, sondern können auch ernsthafte Konsequenzen haben, insbesondere in verzweigten Netzwerken wie dem Gesundheitswesen, wo medizinische Berichte und Aufzeichnungen von entscheidender Bedeutung sind.
Fazit
Die Probleme, die mit Transkriptionen mittels Whisper verbunden sind, erfordern dringende Aufmerksamkeit. Obwohl KI-Technologien in den letzten Jahren enorme Fortschritte gemacht haben, sind die Konsequenzen falscher Informationen in sensiblen Bereichen wie der Medizin nicht zu unterschätzen. Der Aufruf zur Regulierung und zur Verbesserung der Tools ist entscheidend, um sicherzustellen, dass Fortschritte in der KI nicht auf Kosten der Genauigkeit und Sicherheit gemacht werden. Es bleibt zu hoffen, dass OpenAI und andere Unternehmen den notwendigen Fokus und die Ressourcen aufbringen, um diese Herausforderungen zu bewältigen und das Vertrauen der Benutzer in diese Technologien zu stärken.
Hinterlasse eine Antwort