Diese Website verwendet nur technisch notwendige Cookies. In der Datenschutzerklärung können Sie mehr dazu erfahren.

Zum Hauptinhalt springen
Logo, Startseite der Hochschule der Medien

Auszeichnung für Abschlussarbeit

Stefan Seibert vom Masterstudiengang Computer Science and Media der Hochschule der Medien (HdM) hat im Sommersemester 2018 den Preis der Leonberger Etzold Medien-Stiftung für seine Thesis erhalten. Darin hat er sich mit "Deep Learning Applications in Real-Time Rendering" beschäftigt. Der Preis wurde zum fünften Mal für herausragende und innovative Abschlussarbeiten an der HdM vergeben. Er fördert die Teilnahme des Preisträgers an einer wissenschaftlichen Konferenz.

 

 

 

Die prämierten Arbeiten werden außerdem beim "Innovation Day" an der HdM vorgestellt. Er findet Ende November 2018 statt. Stefan Seibert befasst sich in seiner Arbeit mit dem Einsatz von tiefen neuronalen Netzen in der Echtzeit-Computergrafik. Als konkretes Experiment und Fallbeispiel dient der Grafikeffekt Ambient Occlusion (AO), der eine Approximation der Verschattung von 3D-Szenen abbildet.

Tiefe neuronale Netze sind eine bestimmte Technik innerhalb des Fachgebiets des maschinellen Lernens. Beim maschinellen Lernen geht es oft darum, aus einer Menge an ungefilterten Informationen neue Erkenntnisse zu gewinnen, bestimmte Schlüsse zu ziehen oder bestehende Abläufe zu verbessern. Tiefe neuronale Netze nutzen in der Grundidee das Prinzip des menschlichen Gehirns. Viele Neuronen sind miteinander verbunden und reagieren auf Eingaben mit einer bestimmten Ausgabe. Werden bestimmte Eingaben sehr häufig durchgeführt, passt sich die Ausgabe entsprechend an. Dadurch ist es möglich, dem Computer das gewünschte Ergebnis zu präsentieren und ihn selbst erlernen zu lassen, wie er von einer Eingabe zu einem solchen Ergebnis gelangen würde.

 

Berechnung vereinfachen

Die Darstellung virtueller 3D-Szenen ist sehr aufwendig und benötigt relativ hochwertige Computerhardware. Daher ist es immer ein Ziel, die Berechnung und Darstellung dieser Szenen zu beschleunigen oder zu vereinfachen. Die Ansätze sind vielfältig. Bei einer 3D-Szene, die viele Lichtquellen enthält, kann jedes Objekt Lichtstrahlen dieser Lichtquellen empfangen und theoretisch auch durch andere Objekte verdeckt sein. Daher muss es dunkler abgebildet werden. Das passiert in der Natur automatisch durch die Sonne und physikalische Gesetze, am PC muss alles berechnet werden. Da es sehr aufwendig ist für jeden Bildpunkt festzustellen, ob er von einem anderen Objekt das Licht einer beliebigen Lichtquelle empfängt oder nicht, werden Näherungswerte benutzt, die Schatten ebenfalls berechnen. Eine solche Annährung heißt "Ambient Occlusion". Hier wird die Information einer virtuellen Szene vorab gespeichert, so dass diese nicht immer wieder berechnet werden muss. Die Idee besteht darin, dass Objekte, die sich berühren oder von anderen Objekten verdeckt sind, oft dunkler wahrgenommen werden, da das Licht, das etwa durch die Fenster in einen Raum fällt, zwar im Raum gestreut wird, jedoch durch andere Objekte verdeckt wird. Es kann also definiert werden, welche Pixel in einem Bild mit einer 3D-Szene dunkler dargestellt werden sollten, indem benachbarte Pixel darauf geprüft werden, wie nahe sie dem in Frage kommendem Pixel sind. Nahe Pixel im 3D-Raum bedeuten starke Verdeckung und daher ein dunkleres Bild. Das Ergebnis einer solchen Abfrage kann für jeden Pixel gespeichert werden. Solange die Objekte einer 3D-Szene nicht bewegt werden, kann diese Information genutzt werden, um die Szene realistisch abzudunkeln, indem die eigentliche Oberflächenfarbe entsprechend verdunkelt wird.

 

Ansatz für anderweitige Nutzung

In seiner Arbeit hat Stefan Seibert Beispieldaten erzeugt und ein neuronales Netz so weit trainiert, dass es realistische Ausgabedaten erzeugt. "Durch die Verarbeitung von etwa 6000 verschiedenen Eingabedaten und erwünschter Zielausgabe konnte ein neuronales Netz selbst erlernen, welche Folgerungen es aus komplett neuen Eingabedaten ziehen muss, um die korrekte Verdunklung in einer unbekannten Szene zu berechnen", erklärt Seibert. Ähnliche Ansätze wurden bereits anderweitig genutzt, etwa in der Gesichtserkennung: Neuronalen Netzen werden sehr viele Bilder von Gesichtern gezeigt, und der Computer lernt dadurch, was ein Gesicht charakterisiert.

Für die Umsetzung ging Stefan Seibert innovative Wege, indem er das Machine Learning Framework Tensorflow in Kombination mit CUDA auf der Grafikkarte einsetzte. Leistungsfähige Grafikkarten können zur Darstellung von 3D-Szenen in Computerspielen und ähnlichem benutzt werden, aber auch um die Berechnungen von tiefen neuronalen Netzen oder anderen Machine Learning Algorithmen zu beschleunigen. Für die Verknüpfung beider Anwendungsformen gibt es bislang wenig Fallbeispiele. Das von Seibert vorgestellte Verfahren könnte in Zukunft in vielen weiteren Anwendungsbereichen nutzbar gemacht werden, etwa wenn ein Fahrzeughersteller Informationen über Bauteile direkt in das Sichtfeld eines Mitarbeiters visualisiert und das Programm maschinelles Lernen zur Prozessoptimierung nutzt, um zu verstehen mit welchen Aufgaben sich Mitarbeiter besonders lange aufhalten. Auch im klinischen Bereich könnte die Verbindung von maschinellem Lernen und Computergrafik bestimmte Hilfestellungen in der Patientenbehandlung bieten.

 

"Innovativ und anspruchsvoll"

Die Jury lobte Seiberts "enorm innovative und anspruchsvolle Forschungsarbeit". Betreuer waren die HdM-Professoren Dr. Stefan R. Radicke und Dr. Johannes Maucher. Die Etzold-Stiftung hat den Preis im Wert von 1000 Euro bereits zum fünften Mal an Absolventen der HdM vergeben. Die Preisträger wählt eine Jury unter Vorsitz von Professor Dr. Alexander W. Roos, Rektor der HdM. Darüber hinaus fördert die 2015 von Christine und Dr. Rüdiger Etzold gegründete Stiftung Projekte von Studierenden aus ganz Deutschland im Medienbereich. Das Augenmerk liegt auf der "begreifbaren" Vermittlung von Wissen.

 


Kontakt:
Prof. Dr. Stefan Radicke
E-Mail: radicke@hdm-stuttgart.de

Weiterführende Links:
etzold Stiftung

21. Juni 2018