PräsenzBerufsbegleitend

Reise ins Innere des LLM: ChatGPT & Co wirklich verstehen

infofeld GmbH

Beschreibung

Modul 01: Grundlagen neuronaler Netze und Sprachmodellierung - Kurze Einführung in KI, ML und neuronale Netze - Von N-Grammen zu neuronalen Sprachmodellen - Word Embeddings: One-Hot, Word2Vec, GloVe - Limitierungen klassischer Modelle Modul 02: Die Transformer-Architektur verstehen - Das 'Attention is All You Need'-Papier im Überblick - Self-Attention und seine Bedeutung - Multi-Head Attention: Struktur, Nutzen, Visualisierung - Positionale Encodings und warum sie nötig sind Modul 03: Training großer Sprachmodelle - Trainingsdaten: Umfang, Vielfalt, Vorverarbeitung - Phasen des Trainings: Pretraining vs. Finetuning - Loss-Funktion, Optimierung und Skalierungsstrategien - Rechenressourcen und Herausforderungen beim LLM-Training Modul 04: LLMs im Einsatz: ChatGPT und Anwendungen - Wie ChatGPT Texte verarbeitet: Pipeline von Prompt zu Output - Tokenisierung und Decoding-Strategien (Greedy, Beam, Sampling) - Anwendungsbeispiele: Chatbots, Texte, Code, Datenanalyse - Grenzen, Fehlerquellen und Halluzinationen Modul 05: Praktischer Teil: Prompts und Kontrolle - Einführung in Prompt Engineering - Systemprompts, Few-Shot, Zero-Shot und Chain-of-Thought - Best Practices: Klarheit, Zieldefinition, Iteration - Mini-Workshop: Eigene Prompts entwerfen und testen
Hinweis zum Ablauf
Trainer: Diplom-Informatiker (Univ.) mit Schwerpunkt KI, langjähriger Branchen- und Projekterfahrung
Zielgruppe
Alle, die sich für große Sprachmodelle begeistern, unabhängig vom beruflichen Hintergrund. Besonders geeignet für technisch affine Personen, die ein tiefes Verständnis der Funktionsweise von LLMs erlangen möchten.
Hinweise zur Prüfung und Zertifikat/Abschluss
Teilnahmezertifikat und digitales Badge
Teilnahmevorraussetzungen
Gute mathematische Grundkenntnisse (Sie erschrecken nicht, wenn jemand über Matrixmultiplikation redet)
Preishinweis
Durchführungskosten abhängig von der Anzahl der Teilnehmer
Top