Laufende Diplom-, Master- und Bachelorarbeiten

Im folgenden finden Sie einen Überblick über laufende Diplom-, Master- und Bachelorarbeiten im Fachgebiet Knowledge Engineering (Prof. J. Fürnkranz). Es gibt auch eine Liste aktueller Themen, bereits abgeschlossene Arbeiten finden Sie hier.

Laufende Arbeiten

Autor Titel Art Betreuer
Elvir Sabic Finding dependencies between time series in satellite data MA DQH
Patrik Bitz TBA BA CW
Salem Borhan Optimierung eines Multilabel-Regellerners BA FJ, ELM
Raphael Burbach Predicting Failures based On Sequences of Diagnostic Messages BA SK
Daniel Haftstein Reinforcement Learning for rollout policies in Hearthstone
MA CW
Zahra Hosseini Finding failure states in train log files with HMM MA SK
Dennis Kasch Interpretierbare Outlier Detection BA JF
Miriam Moneke D-Hat Search BA CW
Sandesh Nair Detecting Component Anomalies on Trains with One-class SVM MA SK
Dennis Schmidt Improving the Prediction of Power Converter Failures on Cargo Trains MA SK
Nils Schröder A unified Game Search Framework BA CW
Nathan Valenti An ensemblemethod for uninformed rollout heuristics in MCTS BA CW
Florian Weber Evaluating US College Rankings by College Score Card Data MA ext,CW
Manuel Weidmann Assessing app quality by means of weighted user ratings BA JF
Sabina Kruk Driving Style Recognition: Literature Review and Application of Machine Learning MA DQH

Legende

Art der Arbeit
DA ... Diplomarbeit
MA ... Masterarbeit
BA ... Bachelorarbeit
SA ... Studienarbeit
Betreuer
JF ... Johannes Fürnkranz
FJ ... Frederik Janssen HP ... Heiko Paulheim DQH ... Dang Quoc Hien
CW ... Christian Wirth ELM ... Eneldo Loza Mencia
TK ... FG Telekooperation AT ... Andrei Tolstikov SK ... Sebastian Kauschke

Themen im Detail

 

Lernen von symbolischen Beschreibungen von Neuronalen Netzen durch Regeln

Ansprechpartner: FJ & ELM & JF

Neuronale Netze zeigen eine gute Perfomanz in Bezug auf die Genauigkeit. Ein großes Problem ist aber, dass man sie nicht gut interpretieren kann. Man ist zwar in der Lage, die Gewichte der Eingänge an jedem Neuron zu deuten, jedoch müssen diese nicht unbedingt ausschlaggebend sein, da es zumeist eine Reihe von Hidden Layern im Netzwerk gibt und die Netzwerke üblicherweise voll verdrahtet sind. Daher ist eine Idee neuronale Netze mit Regelmengen zu beschreiben, welche dann besser interpretierbar sind.
Diese Arbeit ist flexibel, kann also je nach Art im Umfang angepasst werden (Bachelorarbeit, Masterarbeit, Diplomarbeit, Forschungsprojekt, Studienarbeit etc.). Im Groben gibt es momentan vier Ideen, derartige Beschreibungen zu erstellen:

  1. Die Zielvariable im Trainingsdatensatz wird mit der Ausgabe des Netzes ersetzt. Dann wird wie gewohnt eine Regelmenge gelernt. Nun schaut man sich für jedes Beispiel an, welche Neuronen und welche Regeln für dieses feuern, um so eine "Karte" des Netzes zu erstellen (welche Regeln decken welche Regionen im Netz ab).
  2. Man legt die Klasse eines Beispiels am Ausgang des Netzes an und schaut sich an welche Eingänge für die derartige Ausgabe verantwortlich sind (Backpropagation). Da nicht nur ein Eingangssignal (Trainingsbeispiel) für den angelegten Zielwert in Frage kommt, muss man beispielsweise simulieren (Monte Carlo o.Ä.) um so z.B. Intervalle für die jeweiligen Features am Eingang zu erhalten. Basierend auf diesen Distributionen kann man nun versuchen, eine Regelmenge zu lernen, die diese widerspiegelt.
  3. Beim sog. Deep Learning von Neuronalen Netzen wird davon ausgegangen, dass Neuronen in den Hidden Layern versteckte Features darstellen. Nun kann man versuchen, jeden Layer mit einer Regelmenge zu beschreiben, also für den Inputlayer hätte man x -> h_1, für den ersten Hidden Layer dann h_1 -> h_2 bis man beim n-ten Hiddenlayer bei h_n -> y angelangt ist. Man erhält so für jeden Zwischenlayer eine symbolische Repräsentation.
  4. Bei ungeordneten Regelmengen ist die Frage, wie man die Vorhersagen der einzelnen Regeln aggregiert. Eine Möglichkeit anstelle von Standardverfahren wie Voting wäre die Aggregation zu lernen, indem man als Eingabe des Neuronalen Netzes die Regeln verwendet (Signal: gefeuert oder nicht). Das Netz würde nun lernen, welche Klasse abhängig vom Feuern welcher Regeln vorhergesagt wird. Dies könnte man dann als Aggregation verwenden.

Literatur

 

 

Kontakt
small ke-icon

Knowledge Engineering Group

Fachbereich Informatik
TU Darmstadt

S2|02 D203
Hochschulstrasse 10

D-64289 Darmstadt

Sekretariat:
Telefon-Symbol +49 6151 16-21811
Fax-Symbol +49 6151 16-21812
E-Mail-Symbol info@ke.tu-darmstadt.de

 
A A A | Drucken | Impressum | Sitemap | Suche | Mobile Version
zum Seitenanfangzum Seitenanfang