|
|||||||||||||||||
Dozententeam |
Wahlpflichtmodul 5818
|
||||||||||||||||
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
Regelsemester | Wintersemester | 5. Semester (jährlich) | |||||||||||||||
Leistungspunkte *) | 5 (Wichtung der LP =5) | ||||||||||||||||
Unterrichtssprache | Deutsch | ||||||||||||||||
Arbeitsaufwand | Vorlesung-Präsenz: 28 h; Vorlesung-Nacharbeit: 32 h; Seminar-Präsenz: 14 h; Seminar-Vorarbeit: 31 h; Praktikum-Präsenz: 14 h; Praktikum-Vorarbeit: 31 h; | ||||||||||||||||
Voraussetzungen für die Teilnahme | Kenntnisse/Fähigkeiten: Modul : Grundlagen der Informationstechnik und Maschinelles Lernen I (2040); | ||||||||||||||||
Lernziel/ Kompetenz |
Ziel: Vermittlung theoretischer und praktischer Kenntnisse zu Verfahren des maschinellen
Lernens auf Basis tiefer neuronaler Netze, insbesondere zu grundlegenden Paradigmen
etablierter Netzarchitekturen und deren Umsetzung in Deep-Learning-Frameworks (Tensorflow).
Fach- und methodische Kompetenz: Kenntnisse zur Funktionsweise und zur Beschreibung tiefer neuronaler Netze, zu etablierten Architekturen und ihren Anwendungsmöglichkeiten, zu Methoden des Trainings- und der Trainingsoptimierung sowie zur systematischen Bewertung; Fähigkeiten zur Verwendung von Deep-Learnin-Frameworks zur Lösung allgemeiner ingenieurwissenschaftlicher und ingenieurtechnische Problemstellungen im Bereich der Analyse komplexer Daten und großer Datenmengen, z.B. Sensordaten. Einbindung in die Berufsvorbereitung: Die Fähigkeit zur Auswahl und Optimierung tiefer neuronaler Netze für die Realisierung nichtlinearer, hochkomplexer Funktionsapproximationen auf Basis großer Datenmengen sind für die in vielen Bereichen stark zunehmenden Anforderungen zur automatischen Analyse und Bewertung multimodaler Daten von großer Bedeutung. Darüber hinaus bildet die damit einhergehende Expertise einen wichtigen Baustein moderner Computer-Vision-Verfahren, auch und insbesondere für Verfahren des Bildverstehens. |
||||||||||||||||
Inhalt | 1. Tiefe Neuronale Netze/Feed-Forward-netze
2. Aktivierungsfunktionen 3. Backpropagation, Automatische Differenzierung 4. Regularisierung und Normalisierung 5. Training, Optimierung und Transfer-Lernen 6. Convolutional Neural Networks 7. Sequence-Models |
||||||||||||||||
Studien- und Prüfungsleistungen |
|
||||||||||||||||
Medienformen | Tafel, PC, Beamer, Literatur | ||||||||||||||||
Literatur | Frochte, J.: Maschinelles Lernen - Grundlagen und Algorithmen in Python;
Szeliski, R.: Computer Vision Algorithms and Applikcations,2nd Edition; Goodfellow, I.; Bengio, Y.; Courville, A.: Deep Learning,MIT Press; |
||||||||||||||||
Verwendbarkeit | Das Modul ist in Bachelorstudiengängen Elektrotechnik und Informationstechnik verwendbar. |