VierforES II Teilprojekt Flexible Produktion durch sichere Mensch-Roboter-Interaktion
Projektleiter:
Projektbearbeiter:
Dipl.-Ing. (FH) R. Münder
Projekthomepage:
Finanzierung:
Bund;
Die Zuhilfenahme von autonomen mobilen Robotern in unterschiedlichen Ausprägungen ist eine Antwort auf die Frage nach zunehmend flexiblen Produktionsumgebungen. Damit Mensch und Roboter in solchen Umgebungen interagieren können, muss sichergestellt sein, dass Personen durch die Aktionen der Roboter nicht verletzt werden.
Neben sicheren Robotersteuerungen bedarf es einer Technologie, die Personen und ihre Bewegungen im Arbeitsraum des Roboters zuverlässig erfasst. Gleichzeitig ist die Etablierung effektiver dynamischer Schutzräume in Abhängigkeit von der Position und dem konkreten Arbeitsschritt des Roboters notwendig. Ausgehend von Produktionsszenarien aus dem Bereich der Großteilefertigung beschäftigt sich das Projekt mit Fragestellungen rund um die Absicherung einzelner Produktionsschritte sowie mit komplexen verteilten Sensorsystemen. Diese können auf dem Roboter oder in der Umgebung installiert sein und bestehen beispielsweise aus Laserscannern, Ultraschallsensoren, taktilen Sensoren, Thermo- und 3-D-Kameras sowie der dazugehörigen Datenverarbeitung. Die einzelnen Sensorsysteme sind vernetzte Embedded Systems mit charakteristischem zeitlichem Verhalten.
VR- und AR-Technologien sollen die Planung und Validierung der Abläufe ermöglichen sowie die umfangreichen und teils komplexen Systemdaten
Neben sicheren Robotersteuerungen bedarf es einer Technologie, die Personen und ihre Bewegungen im Arbeitsraum des Roboters zuverlässig erfasst. Gleichzeitig ist die Etablierung effektiver dynamischer Schutzräume in Abhängigkeit von der Position und dem konkreten Arbeitsschritt des Roboters notwendig. Ausgehend von Produktionsszenarien aus dem Bereich der Großteilefertigung beschäftigt sich das Projekt mit Fragestellungen rund um die Absicherung einzelner Produktionsschritte sowie mit komplexen verteilten Sensorsystemen. Diese können auf dem Roboter oder in der Umgebung installiert sein und bestehen beispielsweise aus Laserscannern, Ultraschallsensoren, taktilen Sensoren, Thermo- und 3-D-Kameras sowie der dazugehörigen Datenverarbeitung. Die einzelnen Sensorsysteme sind vernetzte Embedded Systems mit charakteristischem zeitlichem Verhalten.
VR- und AR-Technologien sollen die Planung und Validierung der Abläufe ermöglichen sowie die umfangreichen und teils komplexen Systemdaten
Schlagworte
Entgraten und Anfasen (Großteilebearbeitung)
Kontakt
Prof. Dr.-Ing. habil. Bernhard Karpuschewski
Otto-von-Guericke-Universität Magdeburg
Institut für Fertigungstechnik und Qualitätssicherung
Universitätsplatz 2
39106
Magdeburg
Tel.:+49 391 6758568
weitere Projekte
Die Daten werden geladen ...