Sie verlassen unserer Website
Verwendung eines externen Links:
Sie verlassen jetzt unsere Webseite. Die folgende Seite wird von einem Drittanbieter betrieben. Wir übernehmen keine Verantwortung für Inhalte, Datenschutz oder die Sicherheit auf der verlinkten Seite..
URL:
AI320: LLM Engineering Bootcamp: Von Daten bis Production NEU
Training: Künstliche Intelligenz
Der Kurs ist ein praxisorientierter Deep-Dive für Teams, die LLMs technisch verstehen, anpassen und produktiv betreiben wollen. Sie erstellen End-to-End-Artefakte von Transformer-Grundlagen über Datenstrategie, Tokenisierung, Training-Pipelines, Fine-Tuning, Evaluierung und RAG bis zu Serving, Monitoring, Sicherheit & Governance. USP: Arbeiten mit kleinen Modellen/Datenslices und Übertragung auf größere Setups (Skalierung, Kosten, Infrastruktur) mit Checklisten und Projekt-Blueprints.
Aktuell sind leider keine vorgelegten Termine verfügbar!
Sie möchten einen Termin anfragen ? Dann klicken Sie auf "Kein passender Termin?"
Agenda:
- Architektur verstehen & Datenstrategie aufsetzen
- Transformer „unter der Haube“
- Self Attention, Multi Head Attention, Position Information (Embeddings/Encodings)
- Warum diese Bausteine entscheidend sind (Kontext, Skalierung, Parallelisierung)
- Architekturvarianten im Vergleich
- Encoder-only vs. Decoder only vs. Encoder Decoder
- Welche Variante wofür: Generieren, Übersetzen, Zusammenfassen, Extraktion, Klassifikation
- Datenauswahl & Datenaufbereitung
- Öffentliche Korpora vs. interne Daten: Nutzen, Risiken, Qualitätskriterien
- Lizenzierung/Copyright, PII/Datenschutz, Dubletten/Spam/Boilerplate, Datenprovenienz
- Tokenisierung – Grundprinzipien
- Subword Tokenisierung (BPE Familie / SentencePiece Logik), Vokabulargröße, Trade offs
- Subword Tokenisierung (BPE Familie / SentencePiece Logik), Vokabulargröße, Trade offs
- Hands on Lab
- Mini Korpus vorbereiten (Cleaning, Normalisierung, Splits)
- Tokenizer Training auf einem Beispielkorpus + kurze Analyse der Token Statistiken
- Ausblick: Wie Daten für größere Trainingsläufe strukturiert werden
- Transformer „unter der Haube“
- Mini Transformer & Training Pipeline
- Ein minimaler Transformer als Referenz
- Kernlayer: Attention, Feed Forward, Residual/Norm
- Konfigurationsparameter: Modellbreite, Tiefe, Heads, Kontextlänge
- Training Setup & Hyperparameter Basics
- Batch/Sequence Längen, Lernrate & Schedules, Optimizer Grundprinzipien
- Stabilität & Performance: Mixed Precision, Gradient Clipping, Checkpointing
- Experiment Tracking & Reproduzierbarkeit
- Versionierung von Daten/Config/Code, Runs vergleichbar machen
- Versionierung von Daten/Config/Code, Runs vergleichbar machen
- Hands on Lab
- Start eines Trainingslaufs auf einem kleinen Textdatensatz
- Monitoring von Loss/Speed, einfache Sample Generierung, erste Diagnose Checks
- Ein minimaler Transformer als Referenz
- Adaption, Evaluierung & RAG Grundlagen
- Training from Scratch vs. Fine Tuning
- Wann welches Vorgehen sinnvoll ist (Datenmenge, Domänenabstand, Kosten, Risiko)
- Fine Tuning Muster
- Evaluierung in der Praxis
- Modellnahe Metriken (z. B. Perplexity/Token Güte) und task nahe Metriken
- Evaluations Design: Baselines, Testsets, Robustheit
- RAG (Retrieval Augmented Generation) - Design & Bausteine
- Chunking/Embeddings/Retrieval/Re Ranking, Prompt Komposition
- Wann RAG besser ist als weiteres Fine Tuning (und wann nicht)
- Hands on Lab
- Fine Tuning eines kleinen Modells auf einem Datensatz
- Aufbau einer Mini RAG Demo: „Retrieve → Compose → Generate“ inkl. einfacher Qualitätschecks
- Training from Scratch vs. Fine Tuning
- Effizienz, Skalierungsmuster & multimodale Erweiterung
- Effizienz Methoden
- Parameter effiziente Adaption (PEFT Prinzipien), Speicher und Compute Sparen
- Quantisierung, Checkpoint Strategien, Kosten /Latenz Trade offs
- Skalierungsmuster (Übertrag auf größere Modelle)
- Gradient Accumulation, verteiltes Training Prinzip, Engpässe & Failure Modes
- Gradient Accumulation, verteiltes Training Prinzip, Engpässe & Failure Modes
- Multimodale Einordnung
- Grundidee: Vision Encoder + Language Decoder, typische Anwendungsfälle
- Grenzen/Komplexität: Daten, Evaluation, Compute
- Hands on Lab
- Effizienz Experiment: Speicher sparen (z. B. PEFT oder Quantisierung) und Wirkung messen
- Einfache Bild /Text Kopplung
- Effizienz Methoden
- Production Ready: Serving, Monitoring, Sicherheit & Abschlussprojekt
- Deployment & Serving Optionen
- Serving Patterns (Batch/Realtime), Latenz Treiber, Caching, Streaming Antworten
- Skalierung: Concurrency, Queueing, Ressourcenprofile (GPU/CPU), Kostensteuerung
- Observability
- Monitoring Kernmetriken, Logging & Tracing Denke
- Betrieb: Rollouts, A/B Vergleiche, Fallback Strategien, Incident Basics
- Sicherheit & Governance
- Prompt Injection Risiken, Guardrails Prinzipien, Content /Policy Checks
- Datenschutz/On Prem Überlegungen, Umgang mit sensiblen Daten, Dokumentationspflichten
- Abschlussprojekt
- Wahlweise:
- „Kleines eigenes LLM Setup“ (Train/Fine Tune + Evaluationsbericht)
- „RAG System“ (Retriever + Prompting + Qualitätsmessung)
- „Multimodaler Mini Prototyp“ (Text+Bild Baustein)
- Präsentation: Ansatz, Ergebnisse, Grenzen, nächste Schritte als Projektplan
- Wahlweise:
- Ausblick
- Open Source Modelle & Ökosystem (Einordnung), Infrastruktur /HPC Realitäten, Entscheidungsleitfaden „Build vs. Buy“
- Deployment & Serving Optionen
Ziele:
- Transformer Mechaniken & Architekturvarianten erklären und für Use Cases auswählen
- Datenstrategie & Tokenisierung fundiert entscheiden (
- Eine reproduzierbare Trainings-/Fine Tuning Pipeline aufsetzen
- Fine Tuning vs. RAG sinnvoll wählen und eine Mini RAG prototypisch umsetzen
- Effizienz Hebel (PEFT/Quantisierung) einordnen und testen
- LLM Systeme production ready denken: Serving, Monitoring, Security & Governance
Zielgruppe:
Das Training AI320 LLM Engineering Bootcamp: Von Daten bis Production richtet sich an:- ML-/AI Engineers, Data Scientists (Engineering Fokus)
- Software Engineers/Tech Leads mit LLM Integrationsverantwortung
- MLOps/Plattform/Architektur Rollen, die LLM Pipelines, Deployment und Betrieb gestalten
Voraussetzungen:
Für die Teilnahme am Kurs AI320 LLM Engineering Bootcamp: Von Daten bis Production sind folgende Vorkenntnisse erforderlich:- Grundkenntnisse Python
- ML Grundverständnis (Train/Test, Overfitting, Loss/Metriken)
Beschreibung:
Der Kurs AI320 LLM Engineering Bootcamp: Von Daten bis Production ist ein durchgängiger, praxisorientierter Deep‑Dive für Teams, die Large Language Models (LLMs) nicht nur „nutzen“, sondern technisch verstehen, anpassen und produktiv betreiben wollen. Die Teilnehmer bauen entlang einer realistischen End‑to‑End‑Kette Wissen und Artefakte auf: von Transformer‑Grundlagen und Architekturvarianten über Datenstrategie, Tokenisierung und Training‑Pipelines bis hin zu Fine‑Tuning, Evaluierung, Retrieval‑Augmented Generation (RAG), Effizienz‑Optimierung und Production‑Readiness (Serving, Monitoring, Sicherheit & Governance).Im Fokus steht Engineering‑Pragmatismus: Wir trainieren und experimentieren bewusst mit kleinen, gut beherrschbaren Modellen und Datenslices, um alle Bausteine nachvollziehbar zu machen – und übertragen anschließend die Muster auf größere Setups (Skalierung, Kosten, verteiltes Training, Infrastrukturentscheidungen). Der Kurs AI320 LLM Engineering Bootcamp: Von Daten bis Production liefert damit sowohl ein solides Architekturverständnis als auch konkrete Vorgehensweisen, Checklisten und Projekt‑Blueprints, die sich direkt in der eigenen Organisation anwenden lassen.
Durchführungsgarantie:
ab 2 Teilnehmer
Buchungsinformationen:
Kursdauer:
5 Tage
Preis:
2.950,00 € zzgl. MwSt.
(inklusive Mittagessen & Getränke bei Präsenzteilnahme vor Ort)
Terminauswahl:
Keine Termine verfügbar
Autorisierter Trainingspartner
Autorisierter Trainingspartner
Mitgliedschaften
Mitgliedschaften
Warenkorb
AI320: LLM Engineering Bootcamp: Von Daten bis Production
wurde zum Warenkorb hinzugefügt.