LLM Ops Impulsvortrag
Ein umfassender Vortrag zum Bereitstellen, Überwachen und Optimieren großer Sprachmodelle in Produktionsumgebungen mit praktischen Beispielen und Anwendungsfällen.
Dauer
2 Stunden + Q&A
Niveau
Fortgeschritten
Audience
ML-Ingenieure, DevOps, Data Scientists
Dieser intensive Impulsvortrag richtet sich an ML-Ingenieure und DevOps-Fachleute, die große Sprachmodelle in Produktionsumgebungen einsetzen und verwalten müssen.
Die Teilnehmer lernen den gesamten Lebenszyklus der LLM-Operationen kennen, von der Modellauswahl und Feinabstimmung bis hin zur Bereitstellung, Überwachung und Optimierung.
Voraussetzungen
- Erfahrung mit Python-Programmierung
- Grundlegendes Verständnis von Machine-Learning-Konzepten
- Erste Erfahrungen mit On-Premise-Plattformen und APIs (z.B. HuggingFace, Ollama, etc.)
Zielgruppe
- ML-Ingenieure, die LLMs operationalisieren möchten
- DevOps-Ingenieure, die ML-Teams unterstützen
- Technische Führungskräfte, die die KI-Infrastruktur überwachen
Was Sie lernen werden
Bereit mitzumachen?
Melden Sie sich für diesen Workshop an oder fordern Sie weitere Informationen an.
Brauchen Sie einen maßgeschneiderten Workshop?
Wir können diesen Workshop an die spezifischen Bedürfnisse und Herausforderungen Ihres Teams anpassen.
Maßgeschneiderte Optionen besprechenBereit, Ihr Unternehmen zu transformieren?
Kommen wir ins Gespräch, wie meine KI- und Software-Lösungen Ihnen helfen können, Ihre Ziele zu erreichen.