Autonomous Learning Robot Lab

“Learning as the core principle in autonomous systems which operate in complex and changing environments.”

The Robotics and Mechatronics Center (RMC) is DLR’s competence center for research and development in the areas of robotics, mechatronics and optical systems. Mechatronics is the closest integration of mechanics, electronics and information technology for the realization of “intelligent mechanisms” which interact with their environment.

The core competence of RMC is the interdisciplinary design, computer-aided optimization and simulation, as well as implementation of complex mechatronic systems and human-machine interfaces.

In the robotics community, the RMC is considered as one of the world leading institutions.

Empfohlene Produkte

Vantage

Die Vantage-Serie stellt das Flagship von Vicon dar. Die Auswahl erstreckt sich von 5 MP- über 8 MP- bis zu 16 MP-Kameras bei Aufnahmeraten von bis zu 2000 Hz. Verschieden Onboard-Sensoren erleichtern die tägliche Arbeit mit dem Systems. Für Aussenaufnahmen, grosse Aufnahmevolumen und besonders schnelle Bewegungen sind diese Kameras die erste Wahl.

Vero

Die kompakten Vero-Kameras gibt es als 2.2 MP und 1.3 MP Variante. Dank Vario-Objektiv und Sensor im 2:1 Format (Vero 2.2), lassen sich diese Kameras sehr vielseitig einsetzen und jederzeit flexibel an verschiedene Aufnahmevolumen/Räume anpassen. Einzigartig ist auch das Preis-Leistungs-Verhältnis der Vero-Serie.

Vicon Tracker

Vicon Tracker ist mit dem Hauptziel entwickelt worden, so schnell wie möglich rigide Objekte zu tracken und deren Positionen und Ausrichtungen an andere Software weiterzuleiten. Deswegen ist die Latenzzeit sehr kurz – bis zu 2.5 ms. Tracker überzeugt auch mit ihrem Algorithmus, der ein Object sogar nur mit einer Kamera weiter tracken kann, was das Trackingvolumen für einen bestimmten Kamera-Aufbau maximiert.

Challenges for Robot Justin

  • Experimental scenario for a robot autonomously building a habitat on mars before astronauts arrive there.
  • How can a robot reach human-level performance in complex manipulation tasks in unknown environments?
  • First prerequisite is generating a precise 3D model of its environment to be able to plan collision free actions and localize the objects needed for the task to solve.
  • Tactile sensing is then used to allow for dextrous fine manipulation

Ground Truth System

The method for generating in real-time precise 3D models is a variant of self-localization-and-mapping (SLAM) based on dense depth data from an RGB-D sensor mounted in the robot’s head. The SLAM methods jointly compute the current pose of the head by matching the current depth image from the RGB-D sensor with the already acquired part of the model. Then, now having an estimate of the head pose, the depth image is used to update the 3D model. The algorithms run in real-time with 30 Hz framerate. The resulting models have to have a precision of <1mm in typical manipulation distances of 1 m to 2 m.

To verify and debug this highly precise modeling algorithms ground truth measurements for the head pose are needed with an absolute precision of 0.5 mm in a typical manipulation volume of 6m x 6m x 2.5m.

Only together with the support of prophysics and Vicon this precision could finally be reached under all circumstances.

Interessiert an einer ähnlichen Lösung?

Hier melden!