Die KI-Gesundheitsbots von Microsoft könnten einige besorgniserregende Sicherheitslücken haben.

Die KI-Gesundheitsbots von Microsoft könnten einige besorgniserregende Sicherheitslücken haben.

Microsofts KI-gesteuerte Bots für die Gesundheitsbranche wurden als verwundbar eingestuft, was es Bedrohungsakteuren ermöglichte, sich innerhalb der Zielt-IT-Infrastruktur zu bewegen und sogar sensiblen Daten zu stehlen. Tenable, ein Unternehmen für Cybersicherheitsforschung, entdeckte die Schwachstellen und meldete sie an Microsoft. Sie erläuterten, wie die Schwachstellen im Azure Health Bot Service laterale Bewegungen im Netzwerk ermöglichten und somit Zugriff auf sensible Patientendaten ermöglichten. Der Azure AI Health Bot Service ist ein Tool, das es Entwicklern ermöglicht, virtuelle Gesundheitsassistenten auf Basis künstlicher Intelligenz zu erstellen und bereitzustellen. Auf diese Weise können Gesundheitsorganisationen die Kosten senken und die Effizienz verbessern, ohne die Compliance zu gefährden.

Im Allgemeinen arbeiten digitale Assistenten mit einer Vielzahl sensibler Informationen, weshalb Sicherheit und Datenintegrität von entscheidender Bedeutung sind. Tenable analysierte, wie der Chatbot die Arbeitslast handhabt, und fand einige Probleme in einem Feature namens “Data Connections”, das dazu dient, Daten von anderen Diensten abzurufen. Die Forscher wiesen darauf hin, dass das Tool über eingebaute Sicherheitsvorkehrungen verfügt, die unbefugten Zugriff auf interne APIs blockieren, aber sie schafften es, diese zu umgehen, indem sie Weiterleitungsantworten abgaben, während sie eine Datenverbindung über ein kontrolliertes externes Host umkonfigurierten. Sie richteten das Host ein, um Anfragen mit einer 301-Weiterleitungsantwort an den Metadatendienst von Azure (IMDS) zu beantworten. Dadurch erhielten sie Zugriff auf eine gültige Metadatenantwort, die ihnen wiederum einen Zugriffstoken für management.azure.com gab. Mit dem Token konnten sie eine Liste aller gewährten Zugriffe abrufen.

Vor ein paar Monaten meldete Tenable seine Erkenntnisse an Microsoft, und bald darauf wurden alle Regionen gepatcht. Es gibt keine Beweise dafür, dass die Schwachstelle in freier Wildbahn ausgenutzt wurde. Die Forscher erklärten: “Die diskutierten Schwachstellen beziehen sich auf Mängel in der zugrunde liegenden Architektur des KI-Chatbot-Dienstes und nicht auf die KI-Modelle selbst”, und betonten damit die weiterhin wichtige Bedeutung traditioneller Webanwendungs- und Cloudsicherheitsmechanismen in diesem neuen Zeitalter von KI-gesteuerten Diensten.