Zum Inhalt springen
_CORE
KI & Agentensysteme Unternehmensinformationssysteme Cloud & Platform Engineering Datenplattform & Integration Sicherheit & Compliance QA, Testing & Observability IoT, Automatisierung & Robotik Mobile & Digitale Produkte Banken & Finanzen Versicherungen Öffentliche Verwaltung Verteidigung & Sicherheit Gesundheitswesen Energie & Versorgung Telko & Medien Industrie & Fertigung Logistik & E-Commerce Retail & Treueprogramme
Referenzen Technologien Blog Know-how Tools
Über uns Zusammenarbeit Karriere
CS EN DE
Lassen Sie uns sprechen

LLM-Sicherheit — Prompt Injection, Jailbreaks und Abwehr

12. 07. 2023 Aktualisiert: 27. 03. 2026 1 Min. Lesezeit CORE SYSTEMSai
Dieser Artikel wurde veröffentlicht im Jahr 2023. Einige Informationen können veraltet sein.
LLM-Sicherheit — Prompt Injection, Jailbreaks und Abwehr

Deployen Sie ein LLM in Produktion? Sie haben gerade eine neue Angriffsfläche eröffnet. Prompt Injection ist die SQL Injection der KI-Ära. Und die meisten Unternehmen sind darauf nicht vorbereitet.

Prompt Injection

Ein Angreifer bettet Anweisungen in die Eingabe ein, die den System Prompt überschreiben. Indirect Prompt Injection ist heimtückischer: Schädliche Anweisungen, die in Dokumenten versteckt sind, die das Modell über RAG verarbeitet.

Jailbreaking

DAN, Rollenspiel-Angriffe, Encoding-Tricks — Angreifer sind kreativ. Das Modell beginnt Inhalte zu generieren, die es normalerweise ablehnen würde.

Verteidigungsstrategien

  • Input-Sanitisierung: Bekannte Angriffsmuster filtern
  • Privilege Separation: Das LLM darf nicht auf alles Zugriff haben — Least Privilege
  • Output-Validierung: Prüfen, was das Modell zurückgibt — PII, System Prompt Leaks
  • Guardrails: NVIDIA NeMo Guardrails, Guardrails AI Frameworks
  • Red Teaming: Das eigene System regelmäßig testen

OWASP Top 10 für LLMs

OWASP hat eine Top 10 für LLM-Anwendungen veröffentlicht. Auf Platz eins: Prompt Injection. Wir empfehlen, sie als Grundlage für Ihr Security Review zu studieren.

LLM-Sicherheit ist Tag Null

Die Verteidigung gegen Prompt Injection ist kein gelöstes Problem. Mehrschichtige Verteidigung, Monitoring und schnelle Incident Response sind entscheidend.

llm securityprompt injectionai safetyappsec
Teilen:

CORE SYSTEMS

Wir bauen Kernsysteme und KI-Agenten, die den Betrieb am Laufen halten. 15 Jahre Erfahrung mit Enterprise-IT.

Brauchen Sie Hilfe bei der Implementierung?

Unsere Experten helfen Ihnen bei Design, Implementierung und Betrieb. Von der Architektur bis zur Produktion.

Kontaktieren Sie uns
Brauchen Sie Hilfe bei der Implementierung? Termin vereinbaren