Fortschritt1 / 6
1
Lektion 1: Prompt Injection — wie Angreifer AI-Agents kapern
⏱️ 20 Min
Prompt Injection ist der häufigste Angriff auf LLMs. Angreifer manipulieren den Prompt, um den Agent dazu zu bringen, unerwünschte Aktionen auszuführen. Schutz: Input-Validierung, Prompt-Template-Isolation, Output-Filtering, Sandboxing.
1
Lektion 1: Prompt Injection — wie Angreifer AI-Agents kapern
⏱️ 20 Min
2
Lektion 2: LLM Gateway Hardening
⏱️ 20 Min
3
Lektion 3: AI Agent Sandboxing
⏱️ 20 Min
4
Lektion 4: Threat Modeling für AI-Systeme
⏱️ 20 Min
5
Lektion 5: OWASP Top 10 für LLMs
⏱️ 25 Min
6
Lektion 6: Compliance (EU AI Act)
⏱️ 20 Min