Přeskočit na obsah
_CORE
AI & Agentic Systems Core Informační Systémy Cloud & Platform Engineering Data Platforma & Integrace Security & Compliance QA, Testing & Observability IoT, Automatizace & Robotika Mobile & Digital Banky & Finance Pojišťovnictví Veřejná správa Obrana & Bezpečnost Zdravotnictví Energetika & Utility Telco & Média Průmysl & Výroba Logistika & E-commerce Retail & Loyalty
Reference Technologie Blog Knowledge Base O nás Spolupráce Kariéra
Pojďme to probrat

LLM security — prompt injection, jailbreak a jak se bránit

12. 07. 2023 1 min čtení CORE SYSTEMSai

Nasazujete LLM do produkce? Právě jste otevřeli novou attack surface. Prompt injection je SQL injection éry AI. A většina firem na to není připravená.

Prompt injection

Útočník vloží do vstupu instrukce, které přepíší system prompt. Indirect prompt injection je zákeřnější: škodlivé instrukce ukryté v dokumentech, které model zpracovává přes RAG.

Jailbreak

DAN, roleplay attacks, encoding tricks — útočníci jsou kreativní. Model začne generovat obsah, který by normálně odmítl.

Obranné strategie

  • Input sanitization: Filtrujte known attack patterns
  • Privilege separation: LLM nesmí mít přístup ke všemu — least privilege
  • Output validation: Kontrolujte, co model vrací — PII, system prompt leak
  • Guardrails: Nvidia NeMo Guardrails, Guardrails AI frameworky
  • Red teaming: Pravidelně testujte vlastní systém

OWASP Top 10 pro LLM

OWASP vydal Top 10 pro LLM aplikace. Na prvním místě: prompt injection. Doporučujeme nastudovat jako základ pro security review.

LLM security je den nula

Obrana proti prompt injection není vyřešený problém. Vrstvená obrana, monitoring a rychlý incident response jsou klíčové.

llm securityprompt injectionai safetyappsec