Deep Learning basiertes Taktiles Vakuum Greifen auf Basis von Kamerabildern für einen autonomen Roboter

Problemstellung:

Vakuumsauggreifer sind in der Industrie weit verbreitet, z.B. beim Kommissionieren oder beim Bestücken von Maschinen. Sie werden häufig in Verbindung mit autonomen Pick-Robotern eingesetzt. Obwohl Vakuumsauggreifer eine geeignete Greiftechnologie für eine Vielzahl von Objekten darstellen, bieten sie bisher wenig sensorische Rückmeldung über Oberflächenbeschaffenheit und wirkende Kräfte während des Greifvorgangs.

Aufgabenstellung:

Ziel der Masterarbeit ist es, den Sauggreifer am realen Roboter in Betrieb zu nehmen und zu untersuchen, ob es möglich ist, aus den Kamerabildern im Sensor Vorhersagen über die im Greifer wirkenden Kräfte und Momente zu treffen. Die zu entwickelnde Methodik ist dem Studierenden überlassen, es bietet sich jedoch eine klassische Bildanalyse-Pipeline mittels Deep Convolutional Neural Networks an. Im ersten Schritt gilt es einen geeigneter Bilddatensatz aufzunehmen, um dann im zweiten Schritt auf Basis dieses Datensatzes ein Neuronales Netz zur Vorhersage zu trainieren.

Voraussetzung

Die Arbeit ist in ihrem Grund her experimentell gestaltet und erfordert Experimente vor Ort (insbesondere in der ersten Hälfte bei der Inbetriebnahme und Datensatzerstellung). Sie kann ab sofort beginnen. Vorkenntnisse in der Python Programmierung, der Bildverarbeitung (klassisch OpenCV), Erfahrung mit der Arbeit in Deep Learning Bibliotheken (pytorch) und ROS sind von Vorteil.

 

Nur Bewerbungen mit aktuellem Notenauszug und Anschreiben werden berücksichtigt. Keine reine Remotearbeit möglich.

Geboten

Wir bieten ein aktuelles und spannendes Forschungsthema im Bereich Robotik und Computer Vision, das in sich abgeschlossen ist und dennoch genügend Freiraum für eigene Ideen lässt.