Scharfer Roboter-Blick verringert Fehlerrate beim Kommissionieren

node-divider
3 Minuten Lesezeit
3 Minuten Lesezeit

Im Lager von Logistikunternehmen beschäftigen sich etwa 70 % der Arbeitskräfte mit Kommissionieren und Verpacken. Die globale Pandemie hat in den Betrieben sowohl zu einem Rückgang der verfügbaren Arbeitskräfte geführt als auch den Bedarf an räumlicher Distanz erhöht. Als logische Reaktion darauf wünschen sich viele Unternehmen, ihre Logistikprozesse schrittweise zu automatisieren.

Die Herausforderung: Keine klare Sicht bei schlechtem Licht

Im Laderaum eines Lkw herrschen oft schlechte Lichtverhältnisse. Hinzu kommt, dass die Oberflächenbeschaffenheit der Ladegüter sehr unterschiedlich sein kann: Überlagerte Pakete, reflektierende Hochglanzverpackungen, transparente Beutel oder eine enge Stapelung. Das menschliche Auge findet sich in dieser heterogenen Umgebung zurecht; ein kamera-gestützter Roboter hat es dagegen schwerer, wenn er eine große Anzahl unbekannter Objekte in der rauen Logistikumgebung erkennen soll. Nicht die besten Bedingungen für eine robuste Automatisierung, zumal den Roboter ein breites Aufgabenspektrum erwartet: Er muss Gegenstände kommissionieren, verschiedenste Pakete handhaben, Palettieren, Depalettieren sowie Ladeflächen be- und entladen. Das bewältigt er nur, indem er dutzende Greifpositionen pro Sekunde ausführt; und die Voraussetzung dafür sind viele Freiheitsgrade. Ein hoher Anspruch an die Software, die ihn steuert!

Die Lösung: Präzise Bilderfassung als Basis für die Robotersteuerung

Das Softwarehaus Fizyr hat hierfür eine Lösung erarbeitet, die sich auf Bildverarbeitung stützt. Ziel war, dass Integratoren frei in der Wahl der Hardware sind und sich die geeignete Lösung für ihre individuelle Kommissionierzelle zusammenstellen können. Für seine modulare Plug-and-Play-Software nutzt Fizyr Kameras der  IDS Imaging Development Systems GmbH.

 

Im Detail funktioniert die Software so: Eine uEye CP-Kamera erfasst zunächst die zu kommissionierenden oder zu klassifizierenden Produkte. Die entstandenen 2D-Bilder werden anschließend dem Algorithmus zur Verfügung gestellt, der jetzt die Objekte klassifiziert: Schachtel, Beutel, Umschlag, Rohr, Zylinder etc. Die Objekte können dem Algorithmus dabei völlig unbekannt sein, außerdem stark in Form, Größe, Farbe, Material und Position abweichen. Im nächsten Schritt erstellt eine Ensenso-Kamera eine 3D-Punktewolke, in der alle räumlichen Koordinaten vorhanden sind. Die Software kombiniert diese mit den durch die 2D-Bilder gewonnenen Informationen, analysiert die Oberflächen des Ladeguts hinsichtlich geeigneter Positionen und schlägt dem Roboter schließlich die bestmögliche Greifposition vor. So ist er zur Handhabung der Objekte imstande, wobei er über 100 Greifposen pro Sekunde ausführen kann; sechs Freiheitsgrade (dof: degrees of freedom) ermöglichen ihm das.

 

Ferner führt die Software Qualitätskontrollen durch und erkennt Fehler, wodurch keine beschädigten Pakete auf dem Sortierer landen. Die Basis für die kurzen Reaktionszeiten des Roboters sind eine präzise Bildverarbeitung, ein großes Kamerablickfeld und eine hohe Kamerageschwindigkeit.

Das Ergebnis: Die Arbeitssicherheit steigt, die Kosten sinken

Der »scharfe Blick« des Roboters erleichtert die Kommissionierung und das Verpacken von Gütern. Die Arbeitssicherheit steigt und aufgrund der niedrigen Fehlerrate sinken die Logistikkosten. Dabei bleibt der Grad der Automatisierung dem Anwender überlassen; er kann lediglich einzelne Aufgaben an den Roboter abgeben oder vollständige Prozesse automatisieren – wie bspw. die Be- und Entladung von Lkw-Ladeflächen.

In Anwendung

NEWSLETTER

Jetzt unser IoT Use Case Update erhalten

node-divider

Erhalten Sie kostenlos das monatliche Update zu spannenden Use Cases, aktuellen Podcastfolgen und News aus unserer IoT-Community.