AI & ML

LLM Ops Impulsvortrag

Ein umfassender Vortrag zum Bereitstellen, Überwachen und Optimieren großer Sprachmodelle in Produktionsumgebungen mit praktischen Beispielen und Anwendungsfällen.

Dauer

2 Stunden + Q&A

Niveau

Fortgeschritten

Audience

ML-Ingenieure, DevOps, Data Scientists

Dieser intensive Impulsvortrag richtet sich an ML-Ingenieure und DevOps-Fachleute, die große Sprachmodelle in Produktionsumgebungen einsetzen und verwalten müssen.

Die Teilnehmer lernen den gesamten Lebenszyklus der LLM-Operationen kennen, von der Modellauswahl und Feinabstimmung bis hin zur Bereitstellung, Überwachung und Optimierung.

Voraussetzungen

  • Erfahrung mit Python-Programmierung
  • Grundlegendes Verständnis von Machine-Learning-Konzepten
  • Erste Erfahrungen mit On-Premise-Plattformen und APIs (z.B. HuggingFace, Ollama, etc.)

Zielgruppe

  • ML-Ingenieure, die LLMs operationalisieren möchten
  • DevOps-Ingenieure, die ML-Teams unterstützen
  • Technische Führungskräfte, die die KI-Infrastruktur überwachen

Was Sie lernen werden

Effiziente Bereitstellung von LLMs in verschiedenen Produktionsumgebungen
Feinabstimmung von Modellen für spezifische Anwendungsfälle
Implementierung angemessener Überwachung und Beobachtbarkeit
Optimierung der Leistung und Reduzierung der Betriebskosten
Umgang mit Modellversionierung und Tests

Bereit mitzumachen?

Melden Sie sich für diesen Workshop an oder fordern Sie weitere Informationen an.

Brauchen Sie einen maßgeschneiderten Workshop?

Wir können diesen Workshop an die spezifischen Bedürfnisse und Herausforderungen Ihres Teams anpassen.

Maßgeschneiderte Optionen besprechen

Bereit, Ihr Unternehmen zu transformieren?

Kommen wir ins Gespräch, wie meine KI- und Software-Lösungen Ihnen helfen können, Ihre Ziele zu erreichen.