Sicherheitsfragen rund um LLMs


Große Sprachmodelle und die Frage der Data Security
Im Kontext der Datensicherheit sind LLMs als Menschen zu betrachten


Angesichts der rasanten KI-Entwicklung wird immer deutlicher, dass die grundlegenden Leitplanken, Plausibilitätsprüfungen und Prompt-basierten Sicherheitsmaßnahmen, die derzeit gelten, durchlässig und unzureichend sind. Bei der Entwicklung von Strategien zur Verbesserung der Datensicherheit in KI-Workloads ist es entscheidend, die Perspektive zu ändern und KI als eine Person zu betrachten, die anfällig für Social-Engineering-Angriffe ist. Diese Analogie kann Unternehmen helfen, die Schwachstellen und Bedrohungen, denen KI-Systeme ausgesetzt sind, besser zu verstehen und robustere Sicherheitsmaßnahmen zu entwickeln.

Vast Data, Anbieterin einer Data Plattform für KI-Workloads, erläutert Sicherheitsfragen rund um LLMs:

Moderne generative KI-Workflows verändern die Art und Weise, wie Daten gespeichert und abgerufen werden, grundlegend. Im Gegensatz zur herkömmlichen Datenspeicherung, bei der Metadaten und Zugriffskontrollen eng mit den Daten verknüpft bleiben, fragmentiert und verteilt die KI-Pipeline Daten auf mehrere Komponenten: das Sprachmodell selbst, Eingabeaufforderungen, eingebettete Datenbanken, Vektorspeicher und generierte Ausgaben.

Diese architektonische Verschiebung bedeutet, dass herkömmliche Sicherheitskontrollen wie Active Directory-Gruppen und Access Control Lists (ACLs), also Zugriffssteuerungslisten, unwirksam sind. Dies liegt daran, dass diese Kontrollen nicht durch den KI-Transformationsprozess weitergegeben werden. Es ist ein neues Sicherheitsparadigma erforderlich, um Daten in diesem verteilten KI-Ökosystem zu schützen.

Die Sicherheitsherausforderung der generativen KI
Chatbots, die auf Large Language Models (LLMs) basieren, sind darauf ausgelegt, hilfreich zu sein für Benutzer. Genau dies macht LLMs jedoch anfällig für Tricks und Lügen, die zur Offenlegung sensibler Informationen oder zur Umgehung von Sicherheitskontrollen führen können. Social-Engineering-KI hat sich als neuartiger und besorgniserregender Angriffsvektor herausgestellt. Im Gegensatz zu herkömmlichen Bedrohungen können KI-Systeme durch sorgfältig ausgearbeitete Eingabeaufforderungen für den Zugriff auf oder die Offenlegung geschützter Daten ausgenutzt werden.

Die Sicherheitsherausforderungen, die sich durch generative KI ergeben, sind vielfältig und komplex. Im Kern sind diese Systeme nicht von Natur aus sicher, denn die Modelle selbst können versehentlich sensible Trainingsdaten speichern und offenlegen. Dieses Risiko wird durch die Tatsache verschärft, dass herkömmliche Sicherheitsmaßnahmen und Zugriffskontrollen, auf die sich Unternehmen verlassen, nicht eindeutig auf KI-Interaktionen anwendbar sind.

Besonders besorgniserregend ist das Aufkommen von Prompt-Injection-Angriffen, bei denen sorgfältig gestaltete Eingaben KI-Systeme so manipulieren können, dass sie geschützte Informationen preisgeben. Bestehende Sicherheits-Tools und -rahmen wurden nicht mit Blick auf KI-spezifische Schwachstellen entwickelt, sodass gefährliche Lücken in unserer Verteidigung entstehen. Da sich die KI-Einführung beschleunigt, benötigen Unternehmen dringend neue Ansätze und Rahmenbedingungen für die Bewertung und das Management dieser einzigartigen Sicherheitsrisiken.

Obwohl Sicherheitsexperten versucht haben, Prompt-basierte Sicherheitsmaßnahmen zu implementieren, haben sich diese Lösungen als unzureichend erwiesen. Zu den gängigen Ansätzen gehören das Hinzufügen von Sicherheitsanweisungen zu Systemaufforderungen, die Implementierung von Schlüsselwortfiltern und Ausgabescans und die Verwendung von Eingabeaufforderungs-Templates und Validierung. Ebenso gängig sind die Überwachung auf verdächtige Interaktionsmuster sowie Ratenbegrenzung und Zugriffskontrollen.

Diese Maßnahmen können jedoch oft durch kreative Eingabeaufforderungsentwicklung, Kontextmanipulation oder durch Ausnutzung der Tendenz der KI, hilfreich zu sein, umgangen werden. So gibt es bereits einige Beispiele dafür, wie Menschen die Prompt-basierten Sicherheitsmaßnahmen von ChatGPT umgehen. Dies ist ein Problem, dass alle generativen KI-Workloads betrifft, ChatGPT ist derzeit das beliebteste und das größte Ziel. Folglich sind robustere, systematischere Ansätze für die KI-Sicherheit erforderlich, die KI-Systeme mit der gleichen Sicherheitsstrenge behandeln wie menschliche Benutzer.

Lösungsansätze und Beispielszenarien
Wenn es um den Schutz von Daten in generativen KI-Workloads geht, gilt es zu einer grundlegenden Wahrheit zurückkehren: Der einzige garantierte Weg, Daten vor KI-Systemen zu schützen, ist derselbe Ansatz, der dazu dient, Daten vor Menschen zu schützen. Genauso wie Unternehmen den menschlichen Zugriff auf sensible Informationen durch robuste Authentifizierungs- und Autorisierungsmechanismen sorgfältig kontrollieren, müssen sie nun entsprechende Schutzmaßnahmen auf die KI-Systeme anwenden, die mit ihren Daten interagieren. Dies bedeutet es, sicherzustellen, dass Benutzer gemäß den Zero-Trust-Prinzipien über den entsprechenden Zugriff auf Daten verfügen. Ebenso ist es erforderlich, Sicherheitskontrollen auf den Ebenen LLM, Einbettung, Vektorspeicher und Datenbank zu implementieren sowie alle Datenzugriffe zu protokollieren und zu prüfen.

Selbst wenn Unternehmen ein Allzweck-LLM verwenden, können die Daten, mit denen es interagiert, sensibel sein und denselben Schutz erfordern. Die folgenden fiktiven Beispiele verdeutlichen die Notwendigkeit von Sicherheitskontrollen auf jeder Ebene der KI-Pipeline: Ein Sicherheitsingenieur hat möglicherweise Zugriff auf ein LLM, das auf Sicherheitsdaten abgestimmt ist, und die generative KI-RAG-Pipeline hat Zugriff auf weitere Daten. Die Sicherheitskontrollen müssen auf jeder Ebene angewendet werden. Ein Marketingmanager wiederum hat vielleicht Zugriff auf ein LLM, das auf Marketingdaten abgestimmt ist, und die generative KI-RAG-Pipeline hat Zugriff auf weitere Daten. Die Sicherheitskontrollen müssen auch in diesem Fall auf jeder Ebene angewendet werden. Diese Personen haben möglicherweise gleichzeitig Zugriff auf zusätzliche Informationen wie Personalrichtlinien, Verfahren und andere Unternehmensdaten, was die Lösung nicht einfach macht.

Fazit von Vast Data: Umfassende Sicherheit für Generative-AI-Workloads
Die aktuellen Entwicklungen erfordern Lösungen, die eine umfassende Sicherheit für Generative-AI-Workloads im ExaScale-Maßstab bieten können, um das Problem der Datenausbreitung und die damit verbundenen Sicherheitsrisiken der Datenspeicherung an mehreren Standorten zu lösen. Ideal ist eine zentrale Instanz für die Verwaltung komplexer, mehrschichtiger Datei-Authentifizierung. Durch die Kombination sicherer Datenpipelines mit robusten Prüfmöglichkeiten gewährleistet solch eine Instanz Echtzeit-Transparenz bei Zugriffs- und Betriebsereignissen. Dieser doppelte Fokus auf Sicherheit und Verantwortlichkeit macht die InsightEngine zu einem Eckpfeiler für KI-gesteuerte Prozesse und erfüllt die Anforderungen moderner KI-Ökosysteme mit einem hohen Maß an Präzision, Skalierbarkeit und Compliance. (Vast Data: ra)

eingetragen: 19.01.25
Newsletterlauf: 21.03.25

Vast Data: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Meldungen: Fachbeiträge

  • Aufgaben einer DORA-Compliance lösen

    Der Digital Operational Resilience Act (DORA), welcher am 17. Januar 2025 in Kraft getreten ist, betrifft nicht nur Anbieter von Finanzdiensten, sondern auch deren IT-Dienstleister: Dazu gehören sowohl Partner und Distributoren, aber auch indirekte IT-Dienstanbieter, wie die Anbieter von IT-Sicherheitsplattformen. Der Kreis der Unternehmen, für die sich aus dem Gesetz neue Hausaufgaben ergeben, ist also größer als vermutet. Für alle ist DORA aber eine Chance, die Resilienz ihrer IT-Infrastruktur gegen Cyberangriffe jetzt zu erhöhen.

  • DSGVO und NIS2 gehen Hand in Hand

    Sieben Jahre ist es her, dass die DSGVO in Kraft getreten ist. Damit startete 2018 der Trend, IT-Prozesse strenger zu regulieren. Mit NIS2 führt die EU diesen Kurs resolut weiter, die Bundesregierung arbeitet an der Umsetzung und hat erst jüngst einen Referentenentwurf des BMI von Ende Juni 2025 bekanntgegeben. Auch wenn offen ist, wie NIS2 hierzulande ein Gesetz wird, das Ziel ist bereits klar: Die Infrastrukturen und digitalen Prozesse in Unternehmen sollen widerstandsfähiger sein. Ein langer Weg und Vorarbeit lohnen sich. Wer die Maßgaben der DSGVO schon jetzt entschlossen und zielstrebig verfolgt hat, um Datensicherheit und Datenschutz zu berücksichtigen, hat es leichter, wenn NIS2 auf die Agenda rückt.

  • Finanzieller Schaden und Reputationsverlust

    Die benutzerfreundliche Plattform von Instagram hat die Art und Weise stark verändert, wie Unternehmen mit ihren (potenziellen) Kunden in Kontakt treten. Diese Zugänglichkeit hat jedoch auch eine erhebliche Schwachstelle geschaffen: Instagram-Imitationen, eine wachsende Bedrohung, welche die Finanzen und den guten Ruf von Unternehmen ernsthaft gefährdet.

Wir verwenden Cookies um unsere Website zu optimieren und Ihnen das bestmögliche Online-Erlebnis zu bieten. Mit dem Klick auf "Alle akzeptieren" erklären Sie sich damit einverstanden. Erweiterte Einstellungen