AI320: LLM Engineering Bootcamp: Von Daten bis Production NEU

Training: Künstliche Intelligenz

Der Kurs ist ein praxisorientierter Deep-Dive für Teams, die LLMs technisch verstehen, anpassen und produktiv betreiben wollen. Sie erstellen End-to-End-Artefakte von Transformer-Grundlagen über Datenstrategie, Tokenisierung, Training-Pipelines, Fine-Tuning, Evaluierung und RAG bis zu Serving, Monitoring, Sicherheit & Governance. USP: Arbeiten mit kleinen Modellen/Datenslices und Übertragung auf größere Setups (Skalierung, Kosten, Infrastruktur) mit Checklisten und Projekt-Blueprints.

Aktuell sind leider keine vorgelegten Termine verfügbar!
Sie möchten einen Termin anfragen ? Dann klicken Sie auf "Kein passender Termin?"

Wunschzeitraum für Termin anfragen:

* Alle Felder, die mit einem Sternchen versehen sind, sind Pflichtfelder.

Agenda:

  • Architektur verstehen & Datenstrategie aufsetzen
    • Transformer „unter der Haube“
      • Self Attention, Multi Head Attention, Position Information (Embeddings/Encodings)
      • Warum diese Bausteine entscheidend sind (Kontext, Skalierung, Parallelisierung)

    • Architekturvarianten im Vergleich
      • Encoder-only vs. Decoder only vs. Encoder Decoder
      • Welche Variante wofür: Generieren, Übersetzen, Zusammenfassen, Extraktion, Klassifikation

    • Datenauswahl & Datenaufbereitung
      • Öffentliche Korpora vs. interne Daten: Nutzen, Risiken, Qualitätskriterien
      • Lizenzierung/Copyright, PII/Datenschutz, Dubletten/Spam/Boilerplate, Datenprovenienz

    • Tokenisierung – Grundprinzipien
      • Subword Tokenisierung (BPE Familie / SentencePiece Logik), Vokabulargröße, Trade offs

    • Hands on Lab
      • Mini Korpus vorbereiten (Cleaning, Normalisierung, Splits)
      • Tokenizer Training auf einem Beispielkorpus + kurze Analyse der Token Statistiken
      • Ausblick: Wie Daten für größere Trainingsläufe strukturiert werden


  • Mini Transformer & Training Pipeline
    • Ein minimaler Transformer als Referenz
      • Kernlayer: Attention, Feed Forward, Residual/Norm
      • Konfigurationsparameter: Modellbreite, Tiefe, Heads, Kontextlänge

    • Training Setup & Hyperparameter Basics
      • Batch/Sequence Längen, Lernrate & Schedules, Optimizer Grundprinzipien
      • Stabilität & Performance: Mixed Precision, Gradient Clipping, Checkpointing

    • Experiment Tracking & Reproduzierbarkeit
      • Versionierung von Daten/Config/Code, Runs vergleichbar machen

    • Hands on Lab
      • Start eines Trainingslaufs auf einem kleinen Textdatensatz
      • Monitoring von Loss/Speed, einfache Sample Generierung, erste Diagnose Checks


  • Adaption, Evaluierung & RAG Grundlagen
    • Training from Scratch vs. Fine Tuning
      • Wann welches Vorgehen sinnvoll ist (Datenmenge, Domänenabstand, Kosten, Risiko)
      • Fine Tuning Muster

    • Evaluierung in der Praxis
      • Modellnahe Metriken (z. B. Perplexity/Token Güte) und task nahe Metriken
      • Evaluations Design: Baselines, Testsets, Robustheit

    • RAG (Retrieval Augmented Generation) - Design & Bausteine
      • Chunking/Embeddings/Retrieval/Re Ranking, Prompt Komposition
      • Wann RAG besser ist als weiteres Fine Tuning (und wann nicht)

    • Hands on Lab
      • Fine Tuning eines kleinen Modells auf einem Datensatz
      • Aufbau einer Mini RAG Demo: „Retrieve → Compose → Generate“ inkl. einfacher Qualitätschecks


  • Effizienz, Skalierungsmuster & multimodale Erweiterung
    • Effizienz Methoden
      • Parameter effiziente Adaption (PEFT Prinzipien), Speicher und Compute Sparen
      • Quantisierung, Checkpoint Strategien, Kosten /Latenz Trade offs

    • Skalierungsmuster (Übertrag auf größere Modelle)
      • Gradient Accumulation, verteiltes Training Prinzip, Engpässe & Failure Modes

    • Multimodale Einordnung
      • Grundidee: Vision Encoder + Language Decoder, typische Anwendungsfälle
      • Grenzen/Komplexität: Daten, Evaluation, Compute

    • Hands on Lab
      • Effizienz Experiment: Speicher sparen (z. B. PEFT oder Quantisierung) und Wirkung messen
      • Einfache Bild /Text Kopplung


  • Production Ready: Serving, Monitoring, Sicherheit & Abschlussprojekt
    • Deployment & Serving Optionen
      • Serving Patterns (Batch/Realtime), Latenz Treiber, Caching, Streaming Antworten
      • Skalierung: Concurrency, Queueing, Ressourcenprofile (GPU/CPU), Kostensteuerung

    • Observability
      • Monitoring Kernmetriken, Logging & Tracing Denke
      • Betrieb: Rollouts, A/B Vergleiche, Fallback Strategien, Incident Basics

    • Sicherheit & Governance
      • Prompt Injection Risiken, Guardrails Prinzipien, Content /Policy Checks
      • Datenschutz/On Prem Überlegungen, Umgang mit sensiblen Daten, Dokumentationspflichten

    • Abschlussprojekt
      • Wahlweise:
        • „Kleines eigenes LLM Setup“ (Train/Fine Tune + Evaluationsbericht)
        • „RAG System“ (Retriever + Prompting + Qualitätsmessung)
        • „Multimodaler Mini Prototyp“ (Text+Bild Baustein)
      • Präsentation: Ansatz, Ergebnisse, Grenzen, nächste Schritte als Projektplan

    • Ausblick
      • Open Source Modelle & Ökosystem (Einordnung), Infrastruktur /HPC Realitäten, Entscheidungsleitfaden „Build vs. Buy“

Ziele:

  • Transformer Mechaniken & Architekturvarianten erklären und für Use Cases auswählen
  • Datenstrategie & Tokenisierung fundiert entscheiden (
  • Eine reproduzierbare Trainings-/Fine Tuning Pipeline aufsetzen
  • Fine Tuning vs. RAG sinnvoll wählen und eine Mini RAG prototypisch umsetzen
  • Effizienz Hebel (PEFT/Quantisierung) einordnen und testen
  • LLM Systeme production ready denken: Serving, Monitoring, Security & Governance

Zielgruppe:

Das Training AI320 LLM Engineering Bootcamp: Von Daten bis Production richtet sich an:

  • ML-/AI Engineers, Data Scientists (Engineering Fokus)
  • Software Engineers/Tech Leads mit LLM Integrationsverantwortung
  • MLOps/Plattform/Architektur Rollen, die LLM Pipelines, Deployment und Betrieb gestalten

Voraussetzungen:

Für die Teilnahme am Kurs AI320 LLM Engineering Bootcamp: Von Daten bis Production sind folgende Vorkenntnisse erforderlich:
  • Grundkenntnisse Python
  • ML Grundverständnis (Train/Test, Overfitting, Loss/Metriken)

Beschreibung:

Der Kurs AI320 LLM Engineering Bootcamp: Von Daten bis Production ist ein durchgängiger, praxisorientierter Deep‑Dive für Teams, die Large Language Models (LLMs) nicht nur „nutzen“, sondern technisch verstehen, anpassen und produktiv betreiben wollen. Die Teilnehmer bauen entlang einer realistischen End‑to‑End‑Kette Wissen und Artefakte auf: von Transformer‑Grundlagen und Architekturvarianten über Datenstrategie, Tokenisierung und Training‑Pipelines bis hin zu Fine‑Tuning, Evaluierung, Retrieval‑Augmented Generation (RAG), Effizienz‑Optimierung und Production‑Readiness (Serving, Monitoring, Sicherheit & Governance).

Im Fokus steht Engineering‑Pragmatismus: Wir trainieren und experimentieren bewusst mit kleinen, gut beherrschbaren Modellen und Datenslices, um alle Bausteine nachvollziehbar zu machen – und übertragen anschließend die Muster auf größere Setups (Skalierung, Kosten, verteiltes Training, Infrastrukturentscheidungen). Der Kurs AI320 LLM Engineering Bootcamp: Von Daten bis Production liefert damit sowohl ein solides Architekturverständnis als auch konkrete Vorgehensweisen, Checklisten und Projekt‑Blueprints, die sich direkt in der eigenen Organisation anwenden lassen.
Check Icon

Durchführungsgarantie:

ab 2 Teilnehmer

Buchungsinformationen:

Kursdauer:

5 Tage

Preis:

2.950,00 € zzgl. MwSt.

(inklusive Mittagessen & Getränke bei Präsenzteilnahme vor Ort)

Autorisierter Trainingspartner

NetApp Partner Authorized Learning
Commvault Training Partner
CQI | IRCA Approved Training Partner
Veeam Authorized Education Center
Acronis Authorized Training Center
AWS Partner Select Tier Training
ISACA Accredited Partner
iSAQB
CompTIA Authorized Partner
EC-Council Accredited Training Center

Mitgliedschaften

Allianz für Cyber-Sicherheit
TeleTrust Pioneers in IT security
Bundesverband der IT-Sachverständigen und Gutachter e.V.
Bundesverband mittelständische Wirtschaft (BVMW)
Allianz für Sicherheit in der Wirtschaft
NIK - Netzwerk der Digitalwirtschaft
BVSW
Bayern Innovativ
KH-iT
CAST
IHK Nürnberg für Mittelfranken
eato e.V.
Sicherheitsnetzwerk München e.V.