Zertifikatslehrgang Fachingenieur GenAI Sprachmodelle VDI

Zertifikatslehrgang Fachingenieur GenAI Sprachmodelle VDI

Anfragen

 ​Teilnahmevoraussetzungen

Die Teilnahmevoraussetzung für den Zertifikatslehrgang und die Prüfung ist ein ingenieurwissenschaftlicher (Fach-)Hochschulabschluss. Darüber hinaus sind mindestens drei Jahre Berufserfahrung zum Zeitpunkt der Zertifikatsprüfung nachzuweisen. Die Teilnahmequalifikation wird bei Anmeldung durch den VDI geprüft. Weitere Voraussetzung für die Teilnahme an der Zertifikatsprüfung ist der Besuch von vier Pflichtmodulen und drei Wahlpflichtmodulen. Solltest du keinen ingenieurwissenschaftlichen (Fach-)Hochschulabschluss vorweisen können, sprich uns gerne an. Bei fehlender Qualifikation und Zulassung werden wir deine Buchung stornieren und du erhältst dein Geld zurück.

Fachingenieur GenAI Sprachmodelle VDI

Sprachmodelle wie Large Language Models (LLMs) revolutionieren die Industrie: Sie ermöglichen es, riesige Datenmengen intelligent zu nutzen und innovative Automatisierungslösungen umzusetzen. Diese Technologie ist längst nicht nur etwas für Experten und Expertinnen – auch ohne tiefgehende Vorkenntnisse kannst du mit Sprachmodellen praktische Erfolge erzielen und echte Mehrwerte schaffen.

Unser Zertifikatslehrgang „Fachingenieur GenAI Sprachmodelle VDI“ bringt dir den praktischen Umgang mit LLMs Schritt für Schritt näher. Lerne praxisorientiert, wie du Modelle wie das Retrieval-Augmented Generation (RAG) anwendest, um Wissen aus unstrukturierten Daten schnell und präzise bereitzustellen. Learning by Doing steht im Vordergrund: Du erarbeitest Lösungen, die deine Arbeit und Projekte effizienter machen und dir und deinem Unternehmen einen klaren Wettbewerbsvorteil verschaffen.

Bringe nach Möglichkeit eigene Anwendungsfälle oder konkrete Ideen mit. Wenn du individuelle Daten nutzen möchtest, bringe gerne deinen eigenen Datensatz mit!

​ Hinweis: Es sollten grundlegende Kenntnisse in einer objektorientierten Programmiersprache (z. B. Python oder Java) vorhanden sein. Diese Kenntnisse werden nicht geprüft, sind aber erforderlich, um den Inhalten des Kurses folgen zu können und die praktischen Übungen erfolgreich umzusetzen.

Deine Ansprechpartnerin

Du hast noch Fragen?

Hier findest du unsere FAQs und unser Informationsblatt zu den Zertifikatslehrgängen.

Aufbau des Lehrgangs

Der Zertifikatslehrgang „Fachingenieur GenAI Sprachmodelle VDI" wurde vom VDI gemeinsam mit Experten und Expertinnen aus der Branche als praxisorientierte Qualifizierung entwickelt. Er besteht aus 7 Modulen (4 Pflicht- und 3 Wahlpflichtmodulen) und vermittelt interdisziplinäres und aktuelles Wissen, welches du in der Praxis anwenden kannst. Die Wahlpflichtmodule kannst du individuell auf deine fachlichen, aber auch persönlichen Präferenzen abstimmen. Nach Abschluss aller 7 Module hast du die Möglichkeit, den vom VDI zertifizierten Titel „Fachingenieur GenAI Sprachmodelle VDI" durch erfolgreiche Teilnahme an der Abschlussprüfung zu erwerben. Zusätzlich bieten wir dir einen optionalen Vorbereitungsworkshop an, welcher dich optimal auf die Zertifikatsprüfung vorbereitet. Hinweis: Alle nachfolgenden Module können situationsbedingt auch online stattfinden.

Modul 1: Einstieg in die natürliche Sprachverarbeitung

Im ersten Pflichtmodul erhältst du ein solides Grundverständnis für die natürliche Sprachverarbeitung, insb. den Einsatz von Sprachmodellen. Wir klären wichtige Begriffe wie Künstliche Intelligenz (KI), Deep Learning und Generative KI und werfen einen Blick auf die Bedeutung und Anwendungsfelder von Sprachmodellen. Du lernst, wie Textdaten in maschinenlesbare Form umgewandelt werden und warum dies eine zentrale Voraussetzung für den Einsatz Sprachmodellen ist. Das Modul bietet dir die Möglichkeit, das Gelernte praktisch anzuwenden und eigene Datensätze zu analysieren – ein solides Fundament für den weiteren Einsatz von Generativer KI und Sprachmodellen.

1. Tag: 09:00 – 17:00 Uhr; 2 Tag: 08:30 – 16:30 Uhr

Grundlagen und Datenverarbeitung

  • Einführung in Sprachmodelle und ihre Einsatzgebiete
  • Begriffs- und Technologieerklärung: KI, DL, GenAI – wie sie zusammenhängen und für Sprachmodelle genutzt werden
  • Struktur- und Merkmale von Textdaten: Einführung in die Merkmalauswahl
  • Datenvorverarbeitung für maschinelles Lernen
     

++ Praxisübung: Analysiere die Struktur deiner eigenen Datensätze und wende grundlegende Vorbereitungsschritte an. In einer Abschlussdiskussion beleuchten wir die Herausforderungen.
 

Vektorisierungsmethoden für Texte

  • Methoden im Überblick:
    • Bag-of-Words (BOW)
    • Term Frequency/Inverse Document Frequency (TF/IDF)
  • Vergleich der Methoden und Anwendung
    • Welche Methode ist wann besser geeignet?
    • Feature-Auswahl und Feature-Anzahl
  • Ähnlichkeitsmaße zur Bewertung von Textähnlichkeiten
     

++ Praxisübung: Setze BOW und TF/IDF auf Beispieldaten oder gerne auch deine eigenen Daten um und analysiere die Texte visuell.
 

Unüberwachtes Lernen: Themenmodellierung und Clustering

  • Grundlegende Anwendungen für unüberwachtes Lernen
  • Einführung in Topic-Modeling-Methoden: Non-negative Matrix Factorization (NMF) und Latent Dirichlet Allocation (LDA)
  • Visualisierung von Resultaten mit pyLDAvis
  • Clustering: Einsatzmöglichkeiten und Unterschiede zu Topic-Modelling
     

Klassifikation mit klassischem überwachtem Lernen

  • Einführung in überwachte Lernmethoden zur Textklassifikation
  • Klassifikation mit Support Vector Machines
  • Metriken zur Modellbewertung: Accuracy, Preciscion und Recall
  • Testdatensätze und Confusion Matrix zur Beurteilung der Klassifikationsgenauigkeit und Fehleranalyse
  • Bewertung der Modellstabilität und Verbesserung der Verallgemeinerungsfähigkeit
    • Cross-Validation
    • Hold-Out-Verfahren
  • Optimierungsmethoden zur Steigerung der Modellleistung
    • Hyperparameter
    • Grid-Search
       

++ Anwendungsbeispiel: Wir zeigen die Textklassifikation mit verschiedenen Modellen und interpretieren die Evaluationsmetriken an einem realen Datensatz.
 

Word Embeddings als Basis für Sprachmodelle

  • Embeddings und Ähnlichkeitsmaß für Wörter
  • Grundlagen und Anwendung von word2vec zur semantischen Textrepräsentation
  • Embedding-Techniken im Vergleich: fastText und GloVe
  • Bedeutung von Embeddings für moderne Sprachmodelle und deren Rolle in NLP-Anwendungen

Seminarleitung

Prof. Dr. Christian Winkler beschäftigt sich seit vielen Jahren mit künstlicher Intelligenz, speziell in der automatisierten Analyse natürlichsprachiger Texte (NLP). Als Professor an der TH Nürnberg konzentriert sich seine Forschung auf die Optimierung von User Experience mithilfe moderner Verfahren. Er forscht und publiziert zu Natural Language Processing und ist regelmäßig Sprecher auf Machine Learning-Konferenzen.

Modul 2: Einführung in Retrieval-Augmented Generation (RAG)

Im zweiten Pflichtmodul tauchst du in den spannenden RAG-Ansatz (Retrieval-Augmented Generation) ein – eine innovative Methode in der natürlichen Sprachverarbeitung (NLP). Hierbei werden fortgeschrittene Datenabfragen mit der Textgenerierung großer Sprachmodelle (LLMs) vereint, um leistungsstarke und präzise Ergebnisse zu erzielen. Du entdeckst die entscheidenden Vorteile von RAG, wie etwa die höhere Genauigkeit, den Zugriff auf aktuelle Informationen und die bessere Skalierbarkeit. Außerdem lernst du die verschiedenen RAG-Typen sowie die Hauptkomponenten einer RAG-Anwendung kennen und entwickelst schließlich einen eigenen Prototypen.

1. Tag: 09:00 – 17:00 Uhr; 2 Tag: 08:30 – 16:30 Uhr

Recap: Grundlagen der Kernkonzepte

  • Künstliche Intelligenz (KI)
  • Maschinelles Lernen (ML)
  • Große Sprachmodelle (LLMs)
  • Prompts und deren Rolle in der natürlichen Sprachverarbeitung (NLP)
     

Was ist RAG und warum brauchen wir es?

  • Definition und Verortung: Kombination fortschrittlicher Datenabfrageverfahren mit der Textgenerierung von LLMs
  • Relevanz in NLP und KI: Erhöhte Leistungsfähigkeit von LLMs in unterschiedlichen Anwendungen
  • Retrieval: Ansätze und Methoden für Datenabfragetechniken
  • Generation: Genaue und kontextrelevante Antwortgenerierung
  • Vorteile auf einen Blick
     

RAG-Typen und ihre Anwendung

  • Structured vs. Unstructured RAG: Umgang mit strukturierten und unstrukturierten Daten
  • Statisch vs. Dynamisch: Wann statische oder dynamische Abfragen sinnvoll sind
  • Naive vs. Advanced RAG: Von einfachen bis zu fortschrittlichen Implementierungen
  • Frameworks für RAG
  • Prompt-Templates: Automatisierung der Prompterstellung
     

Sprach- und Embedding-Modelle

  • Einblick möglicher Sprachmodelle für RAG
  • Anbieter und Rankings von LLMs
  • Funktionsweise und Bedeutung von Embedding-Modellen
  • Anbieter und Rankings von Embedding-Modellen
     

Betrieb der Modelle: Hosting-Optionen und Ressourcen

  • Model as a Service: Überblick über Dienstleister wie OpenAI und Azure
  • Cloud as a Service: Lösungen wie AWS und andere
  • Lokales Hosting/Private Cloud: Vor- und Nachteile von lokalem Hosting
  • Ressourcenbedarf: Anforderungen an GPU, (V)RAM und weitere Ressourcen
  • Kostenüberblick: Finanzielle Aspekte für den Betrieb von Modellen
     

Wissensdatenbanken: Strukturierte und unstrukturierte Daten

  • Datentypen: Umgang mit strukturierten und unstrukturierten Datenquellen
  • Vektordatenbanken (Vector Stores): Was sie sind und wie sie in RAG integriert werden können
  • Graphdatenbanken (Knowledge Graphs): Bedeutung und Anwendungsmöglichkeiten
  • Systemschnittstellen: Integration der verschiedenen Datenbanken in die RAG-Architektur
     

Hands-On: Dein Weg zur eigenen RAG-Anwendung

  • Du setzt ein eigenes Sprachmodell auf und nutzt es
    • As a service: OpenAI, Azure
    • Lokal: llama.cpp, LMStudio
  • Deine ersten Schritte mit einer RAG-Implementierung: Naive RAG als Beispiel
  • Wie du Daten vektorisieren kannst: Erstellen von Embeddings
  • Datenabfragen auf Basis von Vektoren: Nutzung von Ähnlichkeitssuchen (retrieval similarity search)
  • Du erstellst eigene Prompt-Vorlagen (prompt templates) für effektive Prompts
  • Schritt-für-Schritt Anleitung zur Erstellung deiner eigenen RAG-Anwendung

Seminarleitung

Julius Kirschbaum, M. Sc. ist gelernter Wirtschaftsingenieur für Werkstoff- & Prozesstechnik (Materialwissenschaften). Nach seinem Studium an der RWTH Aachen wechselt er an die Friedrich-Alexander-Universität Erlangen-Nürnberg (FAU). Dort arbeitet er als wissenschaftlicher Mitarbeiter am Lehrstuhl für Wirtschaftsinformatik, Innovation und Wertschöpfung und promoviert dort zum Thema KI-Innovationsökosysteme. Außerdem engagiert er sich ehrenamtlich bei Ingenieure ohne Grenzen e. V. im Bereich Weiterbildung.

Modul 3: RAG Deep Dive: Ein interaktives Bootcamp

Du lernst im dritten Pflichtmodul, wie du Retrieval-Augmented Generation (RAG) in der Praxis implementieren kannst, um aus deinen eigenen Daten wertvolle Erkenntnisse zu gewinnen. Das Modul deckt dabei die Anbindung von Datenquellen, das effiziente Speichern und Indexieren der Daten sowie die Techniken des Prompt Engineerings ab, um die Leistung der LLMs zu optimieren. Darüber hinaus wird die Evaluation von RAG-Systemen behandelt, um die Qualität und Relevanz der generierten Antworten zu bewerten. Alle Inhalte sind praxisorientiert und ermöglichen es dir, direkt mit deinen mitgebrachten Datensätzen zu arbeiten.

1. Tag: 09:00 – 17:00 Uhr; 2 Tag: 08:30 – 16:30 Uhr

Anbindung & Auslesen von Datenquellen

  • Datenintegration optimieren: Techniken und Best Practices für das Einlesen und Strukturieren von Daten
  • Erstellen von Vektordatenbanken
     

++ Hands-On: Importieren und Verarbeiten von mindestens drei verschiedenen Dateiformaten. Experimentiere mit unstrukturierten Daten und analysieren Sie deren Anwendbarkeit.

++ Übung: Passe die Parameter eines Datenverarbeitungsprozesses an, um eine optimale Performance zu erreichen.
 

Effiziente Wissensverwaltung mit verschiedenen Datenbanken

  • Speichern und Auslesen von Daten mit Vektordatenbanken
  • Speichern und Auslesen von Daten mit Graphdatenbanken
  • Optimierung der Datenpipeline je Datenbank
  • Ausblick zu hybriden Datenbanksystemen
     

++ Übung: Entwickle eine Datenpipeline, die eine Vektordatenbank für schnelle Abfragen von embeddings nutzt.

++ Übung: Implementiere ein Wissensgraphmodell mit einer Graphdatenbank und evaluiere die Performance für verschiedene Abfrage-Szenarien.

++ Gruppenprojekt: Diskutiert Vor- und Nachteile hybrider Datenbanksysteme und entwickelt ein Konzept für deren Einsatz.
 

Fortgeschrittenes Prompt Engineering

  • Mehrsprachigkeit
  • Kontextoptimierung: Optimierung der Antworten auf die Fragestellung
  • Begrenzter Zugriff des LLM auf globales Wissen
  • Einbeziehen der Chat-Historie zur Antwortoptimierung
  • Ausgabe von Referenzen und Quellen
     

++ Übung: Erstelle Prompts in verschiedenen Sprachen und optimiere die Antworten für spezifische Kontexte.

++ Übung: Integriere eine Methode, die vergangene Chat-Verläufe für die Kontextverarbeitung nutzt.

++ Herausforderung: Entwickle ein Modell, das beim Antworten Referenzen und Quellen korrekt anführt.
 

Methoden der RAG-Evaluierung

  • Nutzung automatisierter Bewertungsmethoden
  • Menschliche Evaluierung für verbesserte Qualitätssicherung
  • Durchführung von A/B-Tests
  • Robustheitsanalyse
     

++ Workshop: Entwickle ein Bewertungsskript für automatisierte Tests und führe eine menschliche Evaluation durch, um qualitative Unterschiede zu erkennen.

++ Übung: Setze einen A/B-Test auf, um zwei verschiedene RAG-Implementierungen zu vergleichen.

++ Diskussion: Nutzen und Grenzen von quantitativen und qualitativen Bewertungsansätzen im Kontext von RAG.
 

Ausblick

  • LLMs auf eigenen Datensätzen nachtrainieren
     

++ Case Study: Implementiere ein einfaches Training eines LLM auf einem kleinen Datensatz und analysiere die Veränderungen der Modellleistung.

++ Gruppenprojekt: Entwickelt eine Strategie, wie ein Modell auf den eigenen Unternehmensdaten nachtrainiert werden könnte und diskutiert die Herausforderungen.

Seminarleitung

Fabian Witt absolvierte sein Studium zum M.Sc. Data & Knowledge Engineering an der Otto-von-Guericke-Universität Magdeburg mit Schwerpunkt Schwarmintelligenz. Als Head of Data & AI bei MATHEMA berät er seit über 7 Jahren erfolgreich Kunden in den Bereichen digitale Transformation und Künstliche Intelligenz. Mit seiner umfassenden Expertise hilft er Unternehmen, innovative Technologien in ihre Geschäftsprozesse zu integrieren und diese zu optimieren.

Modul 4: Projektumsetzung von GenAI-Anwendungsfällen

Das vierte Pflichtmodul „GenAI Use Case Umsetzung und Ausblick“ bietet eine praxisorientierte Vertiefung in die Anwendung und Implementierung von Generative AI (GenAI) in Unternehmen. Du erlangst tiefgehende Kenntnisse darüber, wie man Large Language Models (LLMs) auswählt, Kosten kalkuliert, strategische Managemententscheidungen trifft und technologische Anforderungen an die Infrastruktur stellt. Darüber hinaus wird ein besonderer Fokus auf die Automatisierung von Prozessen durch Multiagentensysteme und die Nutzung multimodaler Modelle gelegt.

1. Tag: 09:00 – 17:00 Uhr; 2 Tag: 08:30 – 16:30 Uhr

Auswahl und Implementierung von LLMs im Unternehmenskontext

  • KPIs: Anzahl der Parameter, Inference Time, Training-Datenqualität, Skalierbarkeit, Fine-Tuning-Optionen
  • Methoden zur Identifikation der besten LLMs für spezifische Unternehmensanforderungen

Anforderungen und Kostenstruktur von GenAI-Projekten

  • Technologische Voraussetzungen: Cloud- und On-Premises-Lösungen sowie Hardware-Anforderungen 
  • Finanzierungsmodelle: Vorteile und Herausforderungen
    • Eigenentwicklung
    • Externes Hosting (Cloud)
    • Hybridansätze
  • Kosten-Nutzen-Analyse: Direkte und indirekte Kosten, Effizienzsteigerungspotentiale sowie neue Geschäftsmöglichkeiten

Managementstrategien und Ökosystem für GenAI-Implementierungen

  • Stakeholder-Management: Interne und externe Stakeholder
  • Entwicklung von Partnerschaften und Kooperationen für eine erfolgreiche Implementierung
     

++ Best Practices: Do’s und Don’ts bei der Einführung von GenAI in Unternehmen
 

Agentensysteme und Prozessautomatisierung mit GenAI

  • LLM-basierte Agenten: Fähigkeiten und Einsatzgebiete
  • Multiagentensysteme: Zusammenarbeit mehrerer Agenten zur Lösung komplexer Aufgaben
  • Frameworks: Einführung in LangChain, CrewAI, Flowise und LLM OS für die Umsetzung von Agentensystemen
     

++ Praxisübung: Entfalte die Möglichkeiten von Multiagentensystemen mit Flowise AI

++ Zukunftswerkstatt: Diskutiere mit den Teilnehmenden und dem Referenten über die Chancen, Herausforderungen und Visionen agentischer KI
 

Multimodale Modelle und Ausblick

  • Multimodale KI-Modelle: Kombination von Text, Bildern, Audio und Videos
  • Überblick über GPT-4o, LLAMA3, Claude 3.1 und ihre multimodalen Fähigkeiten
  • Anwendungsfälle: Multimodale Suche, Datenverarbeitung, Visual Intelligence

Seminarleitung

Karsten Schnappauf ist als Head of Consulting & Business Development in der Ancud IT-Beratung GmbH tätig. Er bringt 5 Jahre Erfahrung in der Implementierung und Umsetzung von KI- und Datenprojekten mit und kombiniert technisches Know-how mit einer praxisorientierten Herangehensweise an die digitale Transformation in Unternehmen.

Besonderheiten

Gemeinsames Kick-Off (optionale Teilnahme)

online | 18:00 bis 19:00 Uhr ca. eine Woche vor Modul 1

  • Kennenlernen der anderen Teilnehmenden, der Lehrgangsleitung und dem Referententeam
  • Einstimmung auf den Spirit und die Inhalte des Lehrgangs
  • Erwartungsabfrage

Hier erhältst du zudem alle Informationen für einen idealen Start: die benötigte Ausrüstung, Tools und Software. Es entstehen keine zusätzlichen Kosten, da wir ausschließlich mit kostenlosen Zugängen arbeiten.

Schon jetzt interessant:

Bringe nach Möglichkeit eigene Anwendungsfälle oder konkrete Ideen mit. Wenn du individuelle Daten nutzen möchtest, bringe gerne deinen eigenen Datensatz mit! Für die Teilnahme benötigst du einen Laptop mit Admin-Zugang; je leistungsfähiger der Prozessor, desto besser. Zudem ist ein Code-Editor erforderlich – etwa VS Code oder Google Colab. Für die Durchführung der praktischen Übungen nutzen wir die Software LMStudio und FlowiseAI.
 

Wissenschecks nach jedem Modul (optionale Teilnahme)

Nach jedem Modul bieten wir euch unbenotete Wissenschecks über unser Lernmanagementsystem (LMS) an. Diese Prüfungen dienen dazu, den individuellen Lernfortschritt zu überprüfen und eventuelle Wissenslücken frühzeitig zu erkennen. Nutze diese Möglichkeit, um dein Know-how kontinuierlich zu festigen und zu vertiefen.
 

Q&A-Sessions (optionale Teilnahme)

Außerdem hast du in zwei exklusiven Q&A-Sessions die Gelegenheit, deine persönlichen Fragen direkt an den Lehrgangsleiter zu richten und dabei gezielte Antworten auf deine individuellen Anliegen zu erhalten.

3 Wahlpflichtmodule

Entscheide dich für mindestens drei Seminare aus dem folgenden Wahlpflichtbereich. Die Auswahl triffst du bei der Konfiguration. Detailinformationen zu den jeweiligen Seminaren erhältst du per Klick auf den entsprechenden "Details ansehen"-Button.

Vorbereitungsworkshop (optional)

Im Rahmen des Vorbereitungsworkshops hast du die Gelegenheit, dein erlerntes Wissen aus den Pflichtmodulen für die Zertifikatsprüfung mit Unterstützung der Lehrgangsleitung und im Gespräch mit anderen Teilnehmenden zu vertiefen.

Lerne anhand von Beispielaufgaben die Fragentypen und die Anforderungen der Zertifikatsprüfung kennen. Darüber hinaus bietet dir der Vorbereitungsworkshop die Möglichkeit, letzte offene Fragen zu klären. Der Prüfungsvorbereitungskurs ist von 09:00 bis ca. 17:00 Uhr angesetzt und findet online statt.

Die Teilnahme am Workshop ist optional, wird jedoch empfohlen.

Zertifikatsprüfung

Der Zertifikatslehrgang zum „Fachingenieur GenAI Sprachmodelle VDI“ schließt mit der Zertifikatsprüfung ab. Die Prüfung setzt sich aus einem schriftlichen Prüfungsteil in Form einer 2-stündigen Klausur und einem mündlichen Teil zusammen, in dem ein etwa 30-minütiges Fachgespräch geführt wird.

In der Prüfung muss jede*r Teilnehmende über den im Lehrplan festgelegten Wissensstand verfügen, welcher von der Lehrgangsleitung abgefragt wird. Prüfungsrelevant sind die 4 Pflichtmodule des Lehrgangs.

Die Prüfung findet im VDI Haus in Düsseldorf statt und ist i. d. R. von 08:30 bis ca. 16:00 Uhr angesetzt.

Nach Bestehen der Prüfung verleiht dir das VDI Wissensforum das Abschlusszertifikat, welches dich dazu berechtigt, den Titel „Fachingenieur GenAI Sprachmodelle VDI“ zu führen.

Herausragende Absolventinnen und Absolventen erhalten zudem ein Referenzschreiben der Lehrgangsleitung, wenn sie bei der Abschlussprüfung 180 oder mehr von 200 möglichen Punkten erreichen.

Zielgruppe

Der Zertifikatslehrgang „Fachingenieur GenAI Sprachmodelle VDI“ richtet sich an Ingenieur*innen, Fach- und Führungskräfte sowie Mitarbeitende aus den folgenden Bereichen:

  • Softwareentwicklung
  • Datenanalyse
  • IoT und Robotik
  • Maschinenbau
  • Bauindustrie
  • Automobilindustrie
  • Energiewirtschaft und Chemie

Zudem werden Fachkräfte aus den Bereichen Forschung und Entwicklung, Qualitätskontrolle und Inspektion, Technische Dokumentation und Wissensmanagement, Technischer Support und Service angesprochen.

Durch die branchenübergreifende Zusammensetzung der Teilnehmenden und Experten können wertvolle Impulse und Perspektiven aus verschiedenen Märkten gewonnen werden, was den Austausch und die Zusammenarbeit fördert.

Lehrgangsleitung

Julius Kirschbaum, Friedrich-Alexander-Universität Erlangen-Nürnberg

Deine Vorteile als Teilnehmer*in

  • Du erwirbst den vom VDI zertifizierten Titel „Fachingenieur GenAI Sprachmodelle VDI“.
  • Du erwirbst in den 4 Pflichtmodulen fundiertes theoretisches Wissen und profitierst von den praxisorientierten Lehrinhalten.
  • Du wählst deinen individuellen Fokus in 3 spezialisierten Wahlpflichtmodulen, passend zum Aufgabenschwerpunkt in deinem Unternehmen.
  • Du profitierst von den Kontakten zu den anderen Teilnehmenden und Referierenden aus Forschung und Industrie und baust dein berufliches Netzwerk aus.
     

Deine Vorteile als Führungskraft sowie Personaler*in

  • Du erweiterst systematisch das Know-how von Spitzenkräften in deinem Unternehmen, indem du gezielt in die Qualifikation deiner Mitarbeitenden investierst.
  • Du präsentierst dich als attraktives Unternehmen für angehende Führungskräfte und bindest wichtige Mitarbeitende an dein Unternehmen.
  • Du sicherst dir Wettbewerbsvorteile durch Mitarbeitende mit anerkanntem Qualifizierungszertifikat „Fachingenieur GenAI Sprachmodelle VDI“.   

Fachingenieur GenAI Sprachmodelle VDI

Wenn du diesen Zertifikatslehrgang buchen möchtest, frage diesen bitte an. Entsprechend deiner Anfrage werden wir uns mit dir in Verbindung setzen. Deine Ansprechpartnerin Frau Maren Bürger wird dich individuell zum Thema beraten und gemeinsam mit dir die optimale Ausführung des Zertifikatslehrgangs festlegen.