Der wachsende Trend des “Prompt Hacking” bereitet Sorgen, da Hacker herausfinden, wie sie LLMs manipulieren können, um eingeschränkte Informationen abzurufen. In vielen Umgebungen ist es möglich, LLMs mit wenig oder keiner Hacking-Erfahrung zu überlisten. Neue Sicherheitsmaßnahmen müssen implementiert werden, und die LLMs selbst müssen sich anpassen. Das Trickbetrügen eines großen Sprachmodells (LLM) kann überraschend einfach sein. Die Manipulation der Eingabe, die einem LLM gegeben wird, um unerwünschte Reaktionen hervorzurufen, bekannt als “Prompt Hacking”, ist eine wachsende Bedrohung für Organisationen, da sie verstärkt künstliche Intelligenz (KI) implementieren.
Moderne LLMs und generative künstliche Intelligenz (GenAI) fehlen oft die Fähigkeit zur Vernunfterfassung, so der Chief Technologist von Red Hat, Fatih Nar. Das ist ein Problem. Eine Umfrage von Lakera.AI unter über 1.000 Sicherheitsfachleuten ergab, dass fast 90% der Organisationen aktiv LLM-Anwendungsfälle implementieren oder erkunden, aber nur etwa 5% ein hohes Vertrauen in ihre GenAI-Sicherheitsframeworks zum Ausdruck brachten.
Es gibt eine breite Palette von Umgebungen, die GenAI nutzen, einschließlich Kodierungshilfe, Datenanalyse, interner Wissensdatenbank und Suche, Kundenservice (Chatbots) und Inhaltsentwicklung (Schreiben, Übersetzung usw.). Da GenAI-Modelle selbst anfällig für Prompt-Angriffe sind, sind alle Anwendungsfälle gleichermaßen “gleich anfällig”, so Haber.
Überraschenderweise äußerten 62% der Befragten ein mäßiges bis geringes Bedenken hinsichtlich der GenAI/LLM-Schwachstellen, obwohl nur 5% Vertrauen in ihre Sicherheitskontrollen haben. Einer der größten Hindernisse für die Sicherung von KI-Systemen ist derzeit ein Mangel an Wissen sowohl bei Ingenieuren als auch bei Sicherheitsteams, so Nate Lee, CISO bei Cloudsec.ai.
Um das Risiko zu verringern, müssen sich auch die LLMs selbst anpassen. Mit dem Fortschreiten der KI hin zur Künstlichen Allgemeinen Intelligenz (AGI) – einer Form von KI, die jede geistige Aufgabe ausführen kann, die ein Mensch kann – und verbesserten Vernunftfähigkeiten wird es für diese Modelle viel schwieriger sein, getäuscht zu werden, wie Nar betont. Die KI-Entwicklung bewegt sich auch weg von fein abgestimmten KI-Modellen, die spezifisches Training für verschiedene Aufgaben erfordern, hin zu Zero-Shot-Modellen, die neue Aufgaben ohne vorheriges Training bewältigen können.
Hinterlasse eine Antwort