Jailbreaks bei ChatGPT & Co – wie sicher ist KI wirklich? | INSIDE AI #18

Fraunhofer IEM April 18, 2025
Video Thumbnail
Fraunhofer IEM Logo

Fraunhofer IEM

@fraunhoferiem

About

KI, Systems Engineering und Digitale Transformation – praxisnah erklärt. Fraunhofer IEM macht Zukunft greifbar: Tech Talks, Inside AI und der OUTATIME-Podcast zeigen Use Cases, Best Practices und Strategien aus Forschung und Praxis – zu ChatGPT/GenAI, Robotik, nachhaltiger Innovation u. v. m. Für Entscheider:innen, Ingenieur:innen & Young Professionals. Wöchentlich neue Videos. Abonnieren und Technologie mitgestalten.

Video Description

Wie lassen sich KI-Modelle wie ChatGPT austricksen? In dieser Folge geht es um Jailbreaks, Prompt Injection und Sicherheitslücken in großen Sprachmodellen. Anhand realer Beispiele wird gezeigt, welche Risiken bestehen und wie sich Unternehmen schützen können. Hier geht’s zur Webseite mit einer ausführlichen Übersicht über Jailbreak-Methoden und Prompt-Injection-Angriffe bei LLMs: https://www.promptfoo.dev/blog/how-to-jailbreak-llms/#prompt-engineering-attacks 0:00 – Jailbreaks: Neue Bedrohung für KI-Systeme 0:30 – Was ist ein Jailbreak bei LLMs? 1:25 – Systemprompts und ihre Schwachstellen 3:55 – Trainingsphasen von LLMs: Pre vs. Post 5:15 – Sicherheitsmechanismen und Filter 6:12 – Das Katz-und-Maus-Spiel mit Jailbreaks 7:09 – Menschliche Manipulation und Social Hacking 9:09 – Prompt Injection in Webseiten & Texten 11:08 – Fallbeispiele: Grok & Chevrolet Bot 14:21 – Risiken für Unternehmen & Schutzstrategien 📢 Mehr erfahren & vernetzen: 🔗 LinkedIn: https://www.linkedin.com/company/fraunhofer-iem 📸 Instagram: https://www.instagram.com/fraunhofer.iem 📩 Newsletter: https://www.iem.fraunhofer.de/newsletter 📺 Abonniere unseren YouTube-Kanal: https://www.youtube.com/@FraunhoferIEM

You May Also Like