Microsoft Azure KI Gesundheitsbot mit kritischen Sicherheitslücken infiziert.

Microsoft Azure KI Gesundheitsbot mit kritischen Sicherheitslücken infiziert.

Mehrere Privilege Escalation-Probleme im cloudbasierten Health Bot-Dienst von Microsoft Azure haben die Plattform für serverseitige Anfragefälschung (SSRF) geöffnet und hätten Zugriff auf Ressourcen zwischen verschiedenen Mandanten ermöglichen können. Die von Tenable Research identifizierten Sicherheitslücken wurden schnell von Microsoft gepatcht, aber Forscher warnten vor inhärenten Risiken bei Chatbots. Der Azure AI Health Bot-Dienst ermöglicht es Gesundheitsorganisationen, eigene virtuelle Gesundheitsassistenten zu erstellen, um mit Patienten zu interagieren und administrative Arbeitslasten zu verwalten. Sie können alle möglichen internen Prozesse und Informationen in diese Arbeitslasten integrieren, was bedeutet, dass die Chatbots potenziell privilegierten Zugriff auf äußerst sensible Gesundheitsinformationen haben.

Wenn ein bösartiger Akteur die Probleme ausgenutzt hätte, wären ihnen Verwaltungsmöglichkeiten für Hunderte von Ressourcen anderer Azure-Kunden gewährt worden, warnte Tenable. Die Ausnutzung der Fehler ermöglichte es den Forschern, auf den internen Metadatendienst des Dienstes zuzugreifen und anschließend Zugriffstoken zu erhalten, die die Verwaltung von Ressourcen zwischen verschiedenen Mandanten ermöglichten. Die Forscher fanden die Probleme, die Endpunkte innerhalb der Data Connections-Funktion betrafen, die Entwicklern die Integration externer APIs ermöglichen, einschließlich des Endpunkts, der das Datenaustauschformat von Fast Healthcare Interoperability Resources (FHIR) unterstützt.

Insgesamt bestand der Angriff darin, eine Datenverbindung mit einem bösartigen externen Host zu konfigurieren und einzurichten, um auf alle Abfragen von der Plattform mit 301- oder 302-Weiterleitungscode zu antworten, die anzeigen, dass die Webseite dauerhaft verschoben wurde. Diese Weiterleitungsantworten wurden an den IMDS zurückgesendet, der wiederum mit Metadaten antwortete, die die Zugriffstoken preisgaben. Die Ausnutzung dieser Probleme war trivial und es war kein Vorwissen jenseits der allgemeinen Nutzung des Health Bot-Dienstes für die Ausnutzung erforderlich.

Laut dem Tenable-Blogbeitrag “erhöhen die Sicherheitslücken Bedenken darüber, wie Chatbots ausgenutzt werden können, um sensitive Informationen preiszugeben. Insbesondere beinhalteten die Sicherheitslücken einen Fehler in der zugrunde liegenden Architektur des Chatbot-Dienstes, was die Bedeutung herkömmlicher Webanwendungs- und Cloudsicherheit im Zeitalter von KI-Chatbots hervorhebt”. Dies ist besonders wichtig, da die globale Gesundheitsbranche, die eine Welle der Digitalisierung sowie die Adoption und Integration von KI-gestützten Anwendungen erlebt, konsequent ein Ziel von Cyberkriminellen ist, aufgrund der äußerst wertvollen persönlichen Informationen, die Gesundheitsakten enthalten.

Glücklicherweise laufen Bemühungen, die Gesundheitssicherheit in der Cloud und im KI-Bereich zu stärken und darüber hinaus. Im Mai gab die Advanced Research Projects Agency for Health (ARPA-H) bekannt, dass sie 50 Millionen US-Dollar in ihr Upgrade-Programm investiert, um die Gesundheitssicherheit durch Automatisierung zu verbessern, sodass Anbieter sich stärker auf die Patientenversorgung konzentrieren können. Gesundheitsdienstleister und Medizingerätehersteller werden auch ermutigt, die Datensicherheit über medizinische Geräte hinweg durch eine engere Zusammenarbeit zu verbessern.