AVILUSplus - Angewandte Virtuelle Technologien mit Langfristfokus im Produkt- und Produktmittellebenszyklus - 2 Teilprojekte
Projektleiter:
Finanzierung:
Bund;
Dieses Projekt wird vom BMBF im Rahmen des Förderprogramms "IKT 2020 - Forschung für Innovation" mit dem Schwerpunkt "Virtuelle und Erweiterte Realität" gefördert.
Teilprojekt: Neuartiges, intuitiv bedienbares Eingabegerät auf Basis einer taktilen Haut für AR- und VR- Umgebungen sowie an realen Maschinen wie Robotern
Ziel des Teilprojektes ist die Entwicklung eines intuitiv bedienbaren Eingabesystems auf Basis kraftgekoppelter Sensorik, welches zur Steuerung innerhalb von AR- und VR Umgebungen sowie an realen Maschinen wie Robotern eingesetzt werden kann. Sowohl in AR-/VR- Welten als auch bei der Steuerung, Programmierung und Fernsteuerung von Maschinen bzw. dem Teachen von Robotern sind neben der Koordinatenvorgabe (Translation und Rotation) oftmals auch kraftgekoppelte Eingabegeräte notwendig. Im Rahmen des Projektes wird eine am Fraunhofer IFF entwickelte taktile Haut gezielt für den Einsatz als kraftgekoppeltes Eingabegerät weiter entwickelt. Schwerpunkt liegt zum einen auf einer maximalen Ortsauflösung auch bei 3D- Objekten (auch Freiformen) sowie einer dauerhaften, zuverlässigen Kraftmessung. Hierzu stehen neben verschiedenen Ausführungen der taktilen Haut auch intelligente Auswertealgorithmen im Fokus der Arbeiten. Die taktile Haut soll sowohl im AR/VR-Bereich wie auch zur Roboterprogrammierung eingesetzt werden. Als intuitives Eingabe- und Programmiersystem ermöglicht es z.B. Roboter auf unkomplizierte und schnelle Weise in realer Umgebung wie auch in AR/VR- Umgebungen zu programmieren oder zu teachen.
Teilprojekt: Präzise Lokalisierung autonomer Roboter in großen Umgebungen wie Fabrikhallen per visueller Odometrie
Die kontinuierliche Lokalisierung mobiler Einheiten wie z.B. von fahrerlosen Transportsystemen oder mobilen Assistenzrobotern ist bereits heute eine Basistechnologie in Automatisierung und Logistik. Gleichzeitig bedeuten bestehende Systeme zur Lokalisierung eine substanzielle Investition in Infrastruktur und/oder mobile Sensorik. Visuelle Selbstlokalisierung auf Basis preiswerter digitaler Kameratechnik bietet im Gegensatz dazu ein deutliches Potential zur Kostenreduktion bei solchen Systemen und könnte helfen neue Anwender und Anwendungsfelder insbesondere bei kleinen und mittleren Unternehmen zu erschließen. Auf Basis dieser Überlegungen ist der Projektinhalt hier die Entwicklung eines visuellen Positionsverfolgungssystems speziell für Umgebungen wie Werk- oder Lagerhallen:
Teilprojekt: Neuartiges, intuitiv bedienbares Eingabegerät auf Basis einer taktilen Haut für AR- und VR- Umgebungen sowie an realen Maschinen wie Robotern
Ziel des Teilprojektes ist die Entwicklung eines intuitiv bedienbaren Eingabesystems auf Basis kraftgekoppelter Sensorik, welches zur Steuerung innerhalb von AR- und VR Umgebungen sowie an realen Maschinen wie Robotern eingesetzt werden kann. Sowohl in AR-/VR- Welten als auch bei der Steuerung, Programmierung und Fernsteuerung von Maschinen bzw. dem Teachen von Robotern sind neben der Koordinatenvorgabe (Translation und Rotation) oftmals auch kraftgekoppelte Eingabegeräte notwendig. Im Rahmen des Projektes wird eine am Fraunhofer IFF entwickelte taktile Haut gezielt für den Einsatz als kraftgekoppeltes Eingabegerät weiter entwickelt. Schwerpunkt liegt zum einen auf einer maximalen Ortsauflösung auch bei 3D- Objekten (auch Freiformen) sowie einer dauerhaften, zuverlässigen Kraftmessung. Hierzu stehen neben verschiedenen Ausführungen der taktilen Haut auch intelligente Auswertealgorithmen im Fokus der Arbeiten. Die taktile Haut soll sowohl im AR/VR-Bereich wie auch zur Roboterprogrammierung eingesetzt werden. Als intuitives Eingabe- und Programmiersystem ermöglicht es z.B. Roboter auf unkomplizierte und schnelle Weise in realer Umgebung wie auch in AR/VR- Umgebungen zu programmieren oder zu teachen.
Teilprojekt: Präzise Lokalisierung autonomer Roboter in großen Umgebungen wie Fabrikhallen per visueller Odometrie
Die kontinuierliche Lokalisierung mobiler Einheiten wie z.B. von fahrerlosen Transportsystemen oder mobilen Assistenzrobotern ist bereits heute eine Basistechnologie in Automatisierung und Logistik. Gleichzeitig bedeuten bestehende Systeme zur Lokalisierung eine substanzielle Investition in Infrastruktur und/oder mobile Sensorik. Visuelle Selbstlokalisierung auf Basis preiswerter digitaler Kameratechnik bietet im Gegensatz dazu ein deutliches Potential zur Kostenreduktion bei solchen Systemen und könnte helfen neue Anwender und Anwendungsfelder insbesondere bei kleinen und mittleren Unternehmen zu erschließen. Auf Basis dieser Überlegungen ist der Projektinhalt hier die Entwicklung eines visuellen Positionsverfolgungssystems speziell für Umgebungen wie Werk- oder Lagerhallen:
- Als Teilkomponente zur visuellen Selbstlokalisierung mobiler autonomer Systeme
- Als eigenständiges System zur Erfassung von Wegen und Wegzeiten anderer mobiler Einheiten
Schlagworte
Taktile Haut, Virtuelle Realität, Visuelle Odometrie
Kontakt
Prof. Dr. Norbert Elkmann
Otto-von-Guericke-Universität Magdeburg
Institut für Intelligente Kooperierende Systeme
Sandtorstr. 22
39106
Magdeburg
Tel.:+49 391 4090222
weitere Projekte
Die Daten werden geladen ...