JFrog hat erstmals identifizierte Sicherheitslücken innerhalb von Machine-Learning-Modellen vorgestellt und damit auf die mit MLOps-Plattformen verbundenen Sicherheitsrisiken hingewiesen. Die Ergebnisse sind Teil eines neu veröffentlichten Forschungspapiers mit dem Titel “Von MLOps zu MLOops: Die Angriffsfläche von Machine-Learning-Plattformen aufdecken”. Shachar Menashe, Senior Director of Security bei JFrog und führender Forscher, beschrieb die inhärenten und umsetzbaren Schwachstellen, die sein Team über mehrere Plattformen hinweg aufgedeckt hat und einige davon als wahrscheinlich sehr hoch auf kritischen Schwereindizes bewertete.
In dem Bericht hat das Team von JFrog eine Reihe von Schwachstellen hervorgehoben, darunter wie mehrere häufig verwendete MLOps-Programme über “Remote Code Execution” (RCE) -Funktionen ohne angemessene Authentifizierung und Rollenzuweisung verfügen und damit die Sicherheit gefährden. Menashe stellte fest: “Unsere Forschung hat Schwachstellen in MLOps-Implementierungen aufgedeckt, die, wenn sie ausgenutzt werden, zu ernsthaften Sicherheitsverletzungen führen können, einschließlich der irreversible Ausführung von bösartigem Code.”
Darüber hinaus zeigt die Forschung, dass selbst scheinbar sichere Formate wie das beliebte MLFlow Recipe Träger für versteckten bösartigen Code sein können. Diese Entdeckung deutet darauf hin, dass diese Formate Umgebungen über verdeckte Codeausführung ausnutzen können und somit erhebliche Risiken für Entwickler darstellen, die diesen Frameworks blind vertrauen könnten. Menashe erklärte: “Es ist beunruhigend, wie einige dieser Formate auf den ersten Blick harmlos erscheinen, aber potenzielle Trojanische Pferde darstellen, indem sie bösartigen Code einbetten, der gesamte Systeme stören kann.”
Eine weitere Erkenntnis zeigt, dass automatische Standardeinstellungen innerhalb dieser Plattformen oft Systeme dazu veranlassen, optionale Remote-Codes zu vertrauen, die Ransomware enthalten könnten. Unerfahrene Entwickler erkennen diese Risiken möglicherweise nicht sofort und setzen so ihren gesamten Betrieb in Gefahr. Menashe verglich den aktuellen Stand der MLOps-Sicherheit mit dem von Python in seinen Anfangstagen und deutete darauf hin, dass diese weitgehend noch in einer exploratorischen Phase steckt und mit Schwachstellen behaftet ist, die einer detaillierten Analyse und Überwachung bedürfen. “Die MLOps-Sicherheit befindet sich noch in den Kinderschuhen, ähnlich wie Python in den Anfangstagen, als es begann Anklang zu finden; es gibt noch viel über diese Schwachstellen zu lernen”, fügte Menashe hinzu.
Menashe argumentierte, dass während Künstliche Intelligenz und maschinelles Lernen bedeutende Vorteile in moderne Softwarelösungen einbetten, auch ein gesteigertes Bewusstsein und verbesserte Sicherheitsmaßnahmen erforderlich sind. Er warnte davor, dass viele Entwickler, Datenwissenschaftler und Sicherheitsfachleute mit KI und ML in unerforschte Gewässer vorstoßen und oft nicht das volle Ausmaß potenzieller Schwachstellen kennen. “Die meisten in der Community, die an der Entwicklung von KI- und ML-Lösungen beteiligt sind, ‘wissen nicht, dass sie nicht wissen’, welche Sicherheitsbedrohungen in diesen Technologien stecken”, bemerkte Menashe.
Hinterlasse eine Antwort