Das Modul befähigt die Studierenden, Optimierungsprobleme in mechatronischen Systemen strukturiert zu formulieren, geeignete Lösungsstrategien auszuwählen und die Ergebnisse im ingenieurwissenschaftlichen Kontext zu interpretieren.
Das Modul befähigt Studierende, Datenbanksysteme als integralen Bestandteil moderner mechatronischer Systeme zu verstehen, zu entwerfen und anzuwenden. Sie erwerben die Kompetenz, Mess-, Zustands- und Produktionsdaten strukturiert zu verwalten, auszuwerten und in skalierbare, Cloud-fähige Architekturen einzubetten. Das Modul legt den Schwerpunkt auf konzeptionelles Verständnis, praktische Anwendung und fundierte Entscheidungsfähigkeit, nicht auf formale Datenbanktheorie oder Systemadministration. Die Studierenden lernen die Grundlagen datenbankgestützter Anwendungen kennen, mit einem Schwerpunkt auf relationalen Datenbanksystemen, der praktischen Nutzung in Anwendungsarchitekturen, der konzeptionellen Planung analytischer Strukturen wie Data Warehouses sowie der Datenanalyse und Exploration mit Python.
Dieses Modul führt die Teilnehmer in klassische neuronale Netzwerkstrukturen, Multilayer Perceptrons (MLP), Convolution Neural Networks (CNN), Long Short-Term Memory (LSTM), Gated Recurrent Neural Networks (GRU) und Autoencoder (AE, VAE) ein. Die Anwendung dieser Architekturen auf Computer Vision, Zeitreihen, Sicherheit, Verarbeitung natürlicher Sprache (NLP) und Datengenerierung wird behandelt. Aspekte des High Performance Computing (HPC) werden zeigen, wie Deep Learning sowohl auf grafischen Verarbeitungseinheiten (GPUs) als auch auf Grids genutzt werden kann. Der Schwerpunkt liegt in erster Linie auf der Anwendung des Deep Learnings auf Probleme, mit einer Einführung in die mathematischen Grundlagen. Die Studenten werden die Programmiersprache Python verwenden, um Deep Learning mit Pytorch und/oder Keras zu implementieren.
Das Modul findet im Herbstsemester statt.
Die Modulschlussprüfung findet in drei Teilen statt. Der erste Teil umfasst den Kurs Optimierung und der zweite Teil umfasst den Kurs Datenbanken und Cloud Computing. Die beiden teile sind schriftlich und dauert je 60 Minuten. Der dritte Teil umfasst den Kurs Deep Learning er ist mündlich und dauert 30 Minuten.
Im Kurs Deep Learning wird eine Projektarbeit bewertet.
Die Modulschlussprüfung findet in drei Teilen statt. Der erste Teil umfasst den Kurs Optimierung (Gewicht 25%), der zweite Teil umfasst den Kurs Datenbanken und Cloud Computing (Gewicht 25%) und der dritte Teil umfasst den Kurs Deep Learning (Gewicht 25%).
Zusätzlich wird im Kurs Deep Learning eine Projektarbeit (Gewicht 25%) bewertet.
Optimierungsverfahren bilden eine zentrale Grundlage moderner mechatronischer Systeme und ingenieurwissenschaftlicher Anwendungen. In der Praxis stehen Ingenieurinnen und Ingenieure regelmässig vor der Aufgabe, aus einer Vielzahl möglicher Systemparameter jene zu bestimmen, die ein gewünschtes Verhalten, eine optimale Leistung oder minimale Kosten gewährleisten. Solche Fragestellungen treten insbesondere im Inverse Design auf, bei dem nicht das Systemverhalten simuliert, sondern aus Zielvorgaben auf geeignete Design- und Steuerungsparameter geschlossen wird. Diese Probleme führen in der Regel auf nichtlineare Optimierungsprobleme, deren systematisches Verständnis und numerische Lösung für die Ingenieurpraxis unerlässlich ist. Das Modul vermittelt den Studierenden grundlegende Konzepte und Methoden der kontinuierlichen und diskreten Optimierung. Sie lernen, Optimierungsprobleme korrekt zu klassifizieren und geeignete Lösungsverfahren auszuwählen. Ein besonderer Fokus liegt auf glatten, nichtrestringierten Optimierungsproblemen in ein- und mehrdimensionalen Räumen sowie auf restringierten Problemen, die mithilfe der Karush-Kuhn-Tucker-Bedingungen (KKT) analysiert und formuliert werden. Neben analytischen Aspekten werden zentrale numerische Verfahren zur Lösung realitätsnaher Optimierungsprobleme eingeführt.
Lineare Optimierungsprobleme werden sowohl geometrisch in zwei Dimensionen als auch algorithmisch mit dem Simplex-Verfahren behandelt, wodurch die Studierenden ein grundlegendes Verständnis für Struktur und Lösbarkeit von Optimierungsproblemen entwickeln. Ergänzend wird der Unterschied zwischen diskreter und kontinuierlicher Optimierung herausgearbeitet, um die Einordnung praktischer Problemstellungen zu erleichtern. Darüber hinaus schafft das Modul eine wichtige methodische Grundlage für moderne datengetriebene Verfahren. Insbesondere das in Deep-Learning-Verfahren eingesetzte Gradient Descent basiert auf Prinzipien der nichtlinearen Optimierung. Das im Modul erworbene Verständnis für Gradienten, Optimalitätsbedingungen und numerische Lösungsverfahren ermöglicht es den Studierenden, solche Algorithmen nicht nur anzuwenden, sondern auch kritisch zu analysieren und weiterzuentwickeln.
Die Studierenden:
Klassifikation von Optimierungsproblemen
Lineare Programme
Nichtlineare Optimierung
Numerik der Optimierung
Kontaktunterricht mit Theorie und Praxisanteil
Vorlesung, Selbststudium, Übungen
Eine Kopie des handgeschriebenen Kursskripts wird auf der Moodle-Seite zur Verfügung gestellt.
Unterrichtssprache Deutsch (Fachbegriffe und Material teilweise auf Englisch)