Hintergrund:
Eine der größten Herausforderungen beim Trainieren von neuronalen Netzen ist die Beschaffung von annotierten Daten. Um Kosten bei der Datenerzeugung einzusparen ist es erforderlich die minimale Menge an Daten vor dem Training abschätzen zu können.
Ziel der Arbeit:
Abschätzung der minimalen Größe von Datensätzen für Transfer Learning sowie die Untersuchung der Abhängigkeit der minimalen Datensatzgröße von der Modelarchitektur.
Aufgaben
- Trainieren von unterschiedlichen Modelarchitekturen mit vorhandenen Datensets (Transfer Learning). Hierbei kann es auch notwendig sein die jeweiligen Trainingsprozesse zu implementieren.
- Vergleich der beiden Modelle basierend auf Standard Metriken, die auf vorhandenen Holdout-sets berechnet werden.
- Untersuchung der Model Performance als Funktion der Größe der verwendeten Datensets für das Transfer Learning
Qualifikation
- Abgeschlossenes Bachelorstudium in Informatik, Mathematik, Physik, Elektrotechnik, Maschinenbau, oder ein vergleichbarer Abschluss
- Kenntnisse im Bereich Machine Learning
- Gute Programmierkenntnisse in Python
- Erfahrung mit Werkzeugen der modernen Softwareentwicklung (git, IDE, z.B., VS Code, PyCharm)
Benefits
- Zusammenarbeit mit einem interdisziplinären Team und die Möglichkeit, an einem praxisrelevanten Projekt in einem innovativen Umfeld zu arbeiten
- Zugang zu modernster Robotertechnologie sowie Unterstützung bei der Durchführung der Tests
- Ein dynamisches, motiviertes Team, getrieben von Innovationsgeist und Kreativität
- Ein Arbeitsalltag in dem gemeinsam viel geschafft und viel gelacht wird
- Freiraum und Flexibilität bei deiner persönlichen Arbeitsgestaltung
- Flexible Arbeitszeitenregelung
- Eine gelebte „use your own brain“-policy
- Kantinenzuschuss - die Mittagspause verbringen wir gern gemeinsam
- Einen immer gefüllten Kühlschrank mit Spezi, Cola und Club Mate, Wasserbar und richtig guten Kaffee