Mensch-Maschine-Interaktion

FoodAssist: Basistechnologien für Zerlege-Assistenzsysteme im Lebensmittelbereich

01.01.2020 bis 31.12.2021

Bei vielen Unternehmen der Lebensmitteltechnologie besteht vermehrt Bedarf für digitale Lösungen,welche die Einarbeitung von neuen Arbeitskräften unterstützen und vorhandenen Problemen wie etwa den sprachlichen Barrieren entgegenwirken. Einen vielversprechenden Ansatz bieten digitalen Assistenzsysteme, welche für die Unterstützung industrieller Montage- und Wartungstätigkeiten entwickelt wurden. Diese Systeme auf Basis von Augmented-Reality-Technologien ermöglichen es, relevante text-oder bildbasierte Informationen sowie virtuelle Markierungen direkt in das Sichtfeld bzw. den Arbeitsbereich einzublenden um interaktive Anleitungen zu generieren.


Assistenzsystemlösungen sollen auf ihre Übertragbarkeit und Anwendbarkeit für die Einarbeitung und Weiterbildung von Arbeitskräften am Beispiel der Feinzerlegung von Fleisch hin untersucht werden. Hierfür werden bestehende Systemlösungen um die benötigten Funktionen zur Umsetzung von Trainingsszenarien erweitert und an die spezielle Arbeitsumgebung und die verwendeten Materialien und Werkzeuge angepasst. Ziel des Projektes ist die Realisierung eines Assistenzsystems, welches die interaktive Vermittlung von Schnittführungen unterschiedlicher Schwierigkeitsgrade ermöglicht und gleichzeitig die bestehenden Probleme wie sprachliche oder kulturelle Barrieren abmildert. Weiterhin bieten die Assistenzsysteme das Potential für die Vermittlung weiterführender Ausbildungsinhalte, wie z. B. sprachliche Aspekte oder die Bedeutung von Informations- und Warnsymbolen. Für die Abbildung von Schnittführungen im Bereich der Feinzerlegung soll das zu verarbeitende Fleischstück zunächst identifiziert und dann entsprechend der Produktionsvorgaben durch den Anwender anhand eines virtuellen Abbilds ausgerichtet werden. Anschließend werden die durchzuführenden Schnitte mittels Markierungen visualisiert. Zudem steht Bildmaterial zur Verfügung um weitere Informationen zu erhalten und die Taktung des Produktionsprozesses zu simulieren. 


Als erster Ansatz werden die Arbeitsschritte mithilfe Eye-Tracking aufgenommen, um bestimmte Areas-of-Interests (AOI) an dem entsprechenden Fleischstück zu identifizieren. Gleichzeitig wird die Bewegung des Messers und Handgelenks mithilfe einer Smart-Uhr aufgenommen. Demnächst wird die Tauglichkeit unterschiedlicher Bildverarbeitungsalgorithmen und Gestenerkennungsalgorithmen ausprobiert, um die erfasste Information für die Einarbeitung neuer Arbeitskräften darzustellen und Feedback zu ermöglichen.

Das Projekt wird gefördert durch:
Bundesministerium für Bildung und Forschung (BMBF)
Projektträger: VDI Technologiezentrum GmbH
Förderkennzeichen: 13FH3E03IA
Förderlinien: Forschung an Fachhochschulen
Projektbeteiligte / Ansprechpartner: Hitesh Dhiman, M. Sc.
Projektmitarbeitende: Hitesh Dhiman, M. Sc.
Tönnies GmbH
Gefördert durch
Projektträger