Seminar

Mathematische Grundlagen der Smart Data Analyse

Veranstaltungsnummer: 02SE390

Mit Teilnahmebescheinigung

  • Die wichtigsten Datenanalyse-Verfahren für Anwendungen im
    Ingenieurbereich
  • Verfahren zur Klassierung von Daten und mögliche Analysemethoden
  • Umgang mit zensierten Daten und Verfahren zur Schätzung der dahinter liegenden Verteilungsfunktionen
Mehr Top-Themen entdecken

Kommende Termine:

22. – 23. Januar 2025
Filderstadt
de

Verfügbar

Alle Termine und Optionen ansehen
Inhouse buchbar
Jetzt anfragen

Digitalisierung ist die 4. industrielle Revolution auf der Basis informationstechnisch miteinander verbundener Komponenten mit mechanischen und elektronischen Teilen. Eine ganz entscheidende Bedeutung nehmen dabei die erzeugten Daten ein. Qualifizierung auf dem Gebiet der ingenieurmäßigen Analyse großer Datenmengen - genannt Smart Data - ist ein wesentlicher Schlüssel um riesige Potenziale zu heben und wettbewerbsfähig zu bleiben.

In diesem Seminar werden die mathematischen Grundlagen für die Methoden zur Informationsextraktion aus großen Datenmengen vermittelt und deren Anwendung im Unternehmen anhand von Beispielen illustriert.

  • Im Seminar werden die wesentlichen mathematischen Methoden für eine intelligente Datenanalyse dargestellt. Der Fokus liegt auf der Nachvollziehbarkeit der Algorithmik.
  • Eingebaut in die Darstellungen und Herleitungen der mathematischen Grundlagen sind Exkurse zu Visualisierungen der Analysen und beispielhafte Implementierungen von Algorithmen mit Python sowie Verweise auf Anwendungen. Die Smart Data Analyse umfasst Methoden aus den Wissensbereichen des maschinellen Lernens, der künstlichen Intelligenz und des Data Minings.

Die vermittelten mathematischen Methoden betreffen ausgewählte Verfahren aus folgenden Gebieten:

  • Fourier Reihe und Fourier Transformation
  • Datenreduktion
  • Schätzverfahren
  • Maschinelles Lernen

Hinweis: Im Seminar wird nicht die Nutzung und Bedienung kommerzieller Software erläutert, um ein spezifisches Anwendungsproblem zu lösen. Zudem können leider keine mitgebrachten Smart Data Projekte bearbeitet werden.

Dieses Seminar können Sie auch als Wahlpflichtmodul innerhalb des Zertifikatslehrgangs „Fachingenieur Data Science VDI“ buchen.

Top-Themen

  • Die wichtigsten Datenanalyse-Verfahren für Anwendungen im
    Ingenieurbereich
  • Verfahren zur Klassierung von Daten und mögliche Analysemethoden
  • Umgang mit zensierten Daten und Verfahren zur Schätzung der dahinter liegenden Verteilungsfunktionen
  • Entscheidende ingenieurgemäße Methoden zur intelligenten Analyse
    kleiner und großer Datenmengen
  • Möglichkeiten zur Visualisierung komplexer Datenanalyse-Ergebnisse
  • Big Data- bzw. Data Engineering-Methoden in der Produkt- und
    Prozessentwicklung sowie zur Zuverlässigkeitsabsicherung

Intelligente Datenanalyse am Beispiel der Zuverlässigkeitstechnik

Aufbauend auf den in der Automobil-Industrie gewonnen Erfahrungen bei der Aufbereitung und Analyse von Daten werden Ihnen in diesem Seminar die mathematischen Grundlagen zur Analyse aus großen Datenmengen vermittelt. Die Beispiele illustrieren die Anwendung der Big Data/Smart Data-Methoden und sind auf andere Industrie-Bereiche übertragbar. Im Detail lernen Sie mit dieser Weiterbildung Methoden zur intelligenten Analyse kleiner und großer Datenmengen mit folgendem Programmablauf kennen:

NEU im Seminar: Praktische Übungen, u.a. zur Datenaufbereitung und Datenreduktion in textuellen Formaten und Zahlenformaten (Regular Expressions), Spektralanalyse (Hypothesen-Test), Hauptkomponentenanalyse (Validierungs-Beispiel) und hybride Lösungen für die Analyse mit Excel, Python und Open Source/Freeware wie PAST.

1. Tag 10:00 bis ca. 18:00 Uhr

2. Tag 08:30 bis ca. 16:30 Uhr

Einführung und Begriffsbestimmungen

  • Grundlagen der Statistik und mathematische Hilfsmittel

Visualisierungen

  • Balken-/Säulendiagramme und Histogramme: Beeinflussung
    der Darstellung durch Aufteilung der Werte
  • Tortendiagramme: Vollkreis und Kreisringe
  • Netzdiagramme zur Bewertung unterschiedlicher Aspekte auf derselben Bewertungsskala
  • Heat-Map: Darstellung mehrerer Datensätze und Erkennung
    von Wechselwirkungen
  • Kissendiagramm: Vereinfachte Erkennung von Clustern und Strukturen
  • Box-Whisker-Plot: Überblick über die Verteilung von Daten
  • Tools: Ausgewählte freie Tools, kommerzielle Tools, wie erstellt man eine „Elevator speech“

Anwendungen

  • Technische Systeme
  • Vorbeugende Instandhaltung/Predictive Maintenance
  • Qualitätssicherung (Beispiele Schadenshäufigkeit)
  • Leitbeispiel Zuverlässigkeitsabsicherung und Konsequenzen
    für ein Geschäftsmodell
  • Frühwarnsysteme und  Energie-Effizienz
  • NVH Analysen
  • nicht technische Systeme
  • Aktienkurs-Prognosen, Prozessoptimierung
  • Produktions- und Logistikplanung, Bearbeitungszeit,
    Frühwarnung

Theorie: Zeitabhängige Daten

  • Behandlung von Zeitreihen: Komponentenmodell, Trendfunktion, Gleitender Durchschnitt, Exponentielle Glättung
  • Fourierreihe: Potenzzerlegung und Fourierzerlegung,
    Periodische Signale
  • Fouriertransformation: Definition, Beispiel Rechteckimpuls,
    ein anderer Blick auf die Fouriertransformation, Eigenschaften
  • DFT und FFT: Diskrete Fourier Transformation, Fast Fourier Transformation nach Cooley&Tukey; Lomb-Scargle-Periodogramm
Beispiele Teil 1: Software Implementierungen FFT
(freeware) - Hypothesentest

Theorie: Datenanalyse- und Reduktionsverfahren

  • Klassierte Daten: Kollektive und Zählverfahren
  • Rainflow: Regentropfenstrommodell, Rainflow-Algorithmus
  • Multivariate Daten: Problemstellungen und Anwendungs-
    beispiele, Prinzip Hauptkomponenten-Analyse HKA
  • Hauptkomponenten-Analyse zur Reduktion hochdimensionaler Daten: Varianz und Kovarianz, Mathematik und Algorithmus
    der Kovarianz-HKA, Beispiel Kundensegmentierung
Beispiele Teil 2: Software Implementierungen HKA (Python und freeware) - Ergebnisvalidierung

Theorie: Unvollständige Daten

  • Zensierte Daten: Behandlung zensierter („abgeschnittener“) Datenmengen
  • Arten der Zensur, Beispiel
  • Product-Limit Schätzer für die korrekte Hochrechnung von Versuchsergebnissen
  • Verteilungsschätzer: Parameterschätzverfahren mit/ohne
    hinterlegte Verteilungsfunktion
  • Maximum Likelihood: Prinzip Parameterschätzung, Methode, Beispiel Zufallsausfälle
  • Bootstrapping: Resampling, Aussagen über Streumaße,
    Beispiele, Verfahrensgrenze

Theorie: Maschinelles Lernen (ML)

  • Überblick Maschinelles Lernen: Hypecycle, Historie und aktuelle Entwicklungen ML
  • Unüberwacht: Clusterung und k-Means (Prinzip, Methode, Beispiel Erkenner)
  • Überwacht: Satz von Bayes (Testing-Beispiele), Naiver Bayes (Klassifikator-Beispiele)

Wrap-up / Zusammenfassung

Seminarmethoden

In diesem Seminar werden mit Ausnahme von Excel keine kommerziellen Software-Tools eingesetzt. Die Pilot-Implementierungen werden im Seminar überwiegend mit Python durchgeführt. Es werden hybride Lösungen (Toolchain aus verschiedenen Software-Modulen) zur Datenanalyse vorgestellt. Die Codes der Pilot Implementierungen werden auf Wunsch verfügbar gemacht unter CC BY-SA 4.0 Lizenz. Systemvoraussetzungen: Laptop mit Windows 10 oder höher; Verwendete Tools: Notepad++, Microsoft Excel, PAST, Python mit Spyder (Anakonda 3)

Zielgruppe

  • Angesprochen sind bei diesem Seminar Smart Data Engineering:
  • Ingenieure in Forschung, Entwicklung, Produktion, Marketing, Vertrieb und Qualitätssicherung die sich mit der Informationsextraktion aus Daten auseinandersetzen wollen und müssen
  • Technikaffine Menschen mit Datenbezug und mit Interesse an mathematischen Methoden und Verfahren
  • Daten-Eigner, die sich mit use- und business-cases in Unternehmen beschäftigen und die methodischen Daten-Analyse-Möglichkeiten verstehen wollen
  • Als Voraussetzung sollten Sie mathematische Kenntnisse auf dem Niveau der allgemeinen Hochschulreife mitbringen.

Ihr Experte für smarte Datenanalyse: Prof. Dr.-Ing. Luy

Johann-Friedrich Luy hat in der Daimler Forschung Schlüsselkomponenten für den Einsatz in Automobilradaren entwickelt. Für seine Beiträge zur Hochfrequenz-Integration wurde er im Jahr 2000 zum Fellow des internationalen Ingenieurverbandes IEEE gewählt. Im Jahr 2007 wurde er zum Professor an der TU München in der Fakultät für Elektrotechnik und Informationstechnik berufen. In der Daimler AG hat er die Entwicklung von DataMining-Technologien mit SmartData und KI Methoden verantwortet. Die daraus entwickelten Zuverlässigkeitsprozesse zur präventiven Absicherung des Reifegrades sind heute weltweit in den Entwicklungsablauf integriert. In 2018 hat er das Start-up COREPROG engineering gegründet.

Veranstaltung buchen

Veranstaltungsnummer: 02SE390

Mathematische Grundlagen der Smart Data Analyse

Filderstadt, NH Stuttgart Airport **

de

Verfügbar

Infos zum Veranstaltungsort

Bonländer Hauptstr. 145
70794 Filderstadt
Deutschland

+49 711/7781-0 zur Website
* Vorläufiger Preis, es kann zu Abweichungen in der USt. kommen - den endgültigen Preis finden Sie in Ihrer Bestellübersicht.
** Profitieren Sie bei unseren Präsenzveranstaltungen von unserem reservierten Zimmerkontingent am Veranstaltungsort. Bitte geben Sie bei der Hotelbuchung VDI Wissensforum als Referenz an.

Weitere Hotelpartner :

HRS