Vision-Systeme

60 Beutel pro Minute perfekt positionieren

60 Beutel pro Minute perfekt positionieren

Um Pick-and-Place-Applikationen durchgängig zu automatisieren, müssen Roboter unterschiedlich geformte oder durchscheinende Objekte sowie Objekte mit komplexer Oberfläche sicher greifen können. Dies ermöglicht eine leistungsfähige Machine-Vision-Software mittels Deep Learning. Eine solch anspruchsvolle Anwendung hat das Unternehmen Tekvisa mit Unterstützung der Machine-Vision-Software MVTec Halcon umgesetzt. 

Plastikbeutel mit Montage-Zubehör können viele verschiedene Formen aufweisen. Dies macht das präzise Identifizieren und automatisierte Greifen solcher Beutel schwierig – vor allem, wenn sie durchscheinend sind oder ungeordnet liegen. Machine Vision hilft, die Produktivität auch bei solch komplexen Pick-and-Place-Aufgaben zu steigern. So geschehen bei einem von Tekvisa entwickelten System. 

Tekvisa Engineering mit Standorten in Spanien und Portugal entwickelt digitale Inspektionssysteme für die Qualitätskontrolle und Prozessautomatisierung in der Industrie auf Basis von modernsten Technologien der industriellen Bildverarbeitung. Dabei verfolgt Tekvisa seit seiner Gründung das Ziel, besonders benutzerfreundliche und fortschrittliche Systeme für verschiedenste Branchen wie etwa die Automobil- und Lebensmittelindustrie zu entwickeln. Das Unternehmen verfügt über mehr als 14 Jahre Erfahrung mit Machine-Vision-Systemen. Neben Deep-Learning-basierten Inspektionslösungen entwickelt Tekvisa unter anderem auch anspruchsvolle Robotik- und Bin-Picking-Anwendungen. 

Zubehörbeutel präzise identifizieren und positionieren 

Für einen führenden Hersteller von Wandtafeln für Büros hat der Automatisierungsspezialist ein robotergestütztes Kommissionierungssystem entwickelt, das auf industrieller Bildverarbeitung mit Deep-Learning-Algorithmen basiert. Die Lösung hat die Aufgabe, Kunststoffbeutel mit Zubehör für die Wandtafeln präzise zu detektieren, damit Roboter sie sicher greifen können. Bislang wurde diese Aufgabe rein manuell durchgeführt, was jedoch einen hohen Zeitaufwand verursachte und damit den gesamten Prozess in die Länge zog. Um die Produktivität entscheidend zu steigern, sollte der gesamte Workflow durchgängig automatisiert werden. Ziel war es dabei auch, die Mitarbeiter von der monotonen Routine-Aufgabe des Positionierens der Beutel zu entlasten, damit sie sich anspruchsvolleren Tätigkeiten widmen können. 

Bei der Entwicklung einer entsprechenden Automatisierungslösung war eine Besonderheit zu beachten: Die Beutel enthalten eine Vielfalt verschiedener Arten von Zubehör. Dazu zählen Schrauben, Muttern und Dübel, Stifte und Textmarker zum Beschriften der weißen Wandtafeln, Pinnadeln für die Korkwandplatten oder auch Schwämme zum Abwischen der Wandoberflächen. Folglich können die Beutel in Größe und Gewicht variieren sowie viele unterschiedliche Erscheinungsformen aufweisen. Darüber hinaus sind sie willkürlich geformt und aufgrund ihrer Elastizität möglicherweise zusätzlich auch zusammengedrückt, auseinandergezogen oder auf eine andere Art verformt. 

Mit Machine Vision hohe Produktvarianz beherrschen 

Diese enorm hohe Produktvarianz stellte die Ingenieure bei Tekvisa vor große Herausforderungen: Ziel war die Entwicklung einer flexiblen Lösung auf Basis von Machine Vision, die alle erdenklichen Arten und Ausprägungen von Zubehörbeuteln verlässlich erkennt und damit sichere Greifprozesse ermöglicht.  

Wichtig dabei: Das System sollte jeweils diejenigen Beutel auf dem Förderband identifizieren, die sich aufgrund ihrer Position und Ausrichtung am besten vom Roboterarm aufnehmen lassen. „Für uns war von vornherein klar, dass die Lösung nur in einer geschickten Kombination aus klassischen Bildverarbeitungsmethoden und Technologien auf Basis von künstlicher Intelligenz wie Deep Learning bestehen kann“, erklärt Paulo Santos, Mitbegründer und CTO von Tekvisa. 

Das komplette Setup besteht aus einer hochauflösenden Farbflächenkamera und einer speziellen Beleuchtung, welche die Reflexionen minimiert und damit den Weg für die präzise Erkennung des jeweiligen Beutelinhalts ebnet. Herzstück der Anwendung ist ein innovatives Machine-Vision-System. Es identifiziert die Kunststoffbeutel auf dem Förderband zielgenau, sodass ein Roboter sie exakt greifen kann. Dieser platziert sie dann kurz vor dem finalen Verpackungsprozess mit hoher Präzision auf der jeweiligen Wandtafel. 

Kombination von klassischer Bildverarbeitung und Deep Learning 

Anhand der vielen verschiedenen Erscheinungsformen und Positionen der Beutel wählt die Bildverarbeitungslösung die jeweils optimalen Kandidaten für die Kommissionierung aus. Zum Einsatz kommt dabei die Machine-Vision-Standardsoftware MVTec Halcon. Die Software verfügt über eine Bibliothek mit über 2.100 Operatoren, inklusive den modernsten und leistungsstärksten Deep-Learning-Methoden. 

Für die Anforderungen von Tekvisa ist vor allem die Deep-Learning-Methode „Object Detection“ von großem Nutzen. Mittels der darin enthaltenen Deep-Learning-Algorithmen wird das System zunächst mit Beispielbildern umfassend trainiert. So lernt die Software die verschiedenen Ausprägungen der Beutel.  

Dies führt zu einer sehr robusten Erkennungsrate – auch bei einer schier unendlichen Varianz der Objekte. Die nicht zum Greifen ausgewählten Beutel werden aussortiert und dem System dann erneut zugeführt. Durch die Neupositionierung nehmen sie dann eine günstigere Position auf dem Förderband ein, sodass der Roboter sie besser aufnehmen und für den Versand platzieren kann. Auf diese Weise lassen sich auch überlappende und übereinander liegende Beutel greifen und kommissionieren. Dabei ist das System in der Lage, bis zu 60 Beutel pro Minute mithilfe der integrierten Bildverarbeitungssoftware zu analysieren und präzise zu identifizieren. 

Kamera und Roboter harmonieren perfekt 

Für die robusten Erkennungsraten sind neben den Deep-Learning-Technologien auch klassische Bildverarbeitungsverfahren verantwortlich, die ebenfalls integraler Bestandteil von MVTec Halcon sind. Neben dem Bildeinzug und diverser Werkzeuge zur Vorverarbeitung der Bilder ist die Hand-Auge-Kalibrierung hier ein wichtiges Feature. Diese ist vorab erforderlich, damit der Roboter im laufenden Betrieb die Beutel, die von einer stationären 2D-Kamera beobachtet werden, exakt greifen und platzieren kann.  

Bei der Hand-Auge-Kalibrierung wird eine Kalibrierplatte am Greifarm des Roboters befestigt und in das Sichtfeld der Kamera gebracht. Anschließend werden mehrere Bilder mit unterschiedlichen Positionen des Roboters aufgenommen und mit den Achspositionen des Roboters verrechnet. Ergebnis ist ein „gemeinsames“ Koordinatensystem von Kamera und Roboter. So kann der Roboter die Bauteile an den Positionen greifen, die unmittelbar zuvor von der Kamera detektiert wurden. Durch die exakte Bestimmung der Objektposition mit einer Genauigkeit von 0,1 Millimetern lässt sich beim Greifvorgang eine Trefferquote von 99,99 Prozent realisieren. 

„Zahlreiche verschiedene Beutel mit variierender Größe, Verformung und Inhalt, die sich auf dem Förderband sogar noch überlappen – all diese Faktoren haben uns in diesem Projekt vor enorme Herausforderungen gestellt. Diese konnten wir mit rein klassischen Machine-Vision-Verfahren nicht adressieren.  

MVTec Halcon, mit seiner Kombination aus klassischen Verfahren und modernen Deep-Learning-Technologien, hat sich für uns als ideale Lösung erwiesen. Damit erreichen wir trotz der großen Objektvielfalt herausragende Erkennungsraten. Dies ebnet den Weg für unser Ziel – die durchgängige Automatisierung des gesamten Prozesses rund um die Verpackung von Wandtafeln. Zudem profitieren wir von einem Plus an Produktivität und Flexibilität, um auch abweichende Szenarien innerhalb der gleichen Anwendung abbilden zu können“, so das Resümee von Paulo Santos. 

Teilen

Fachartikel Messtechnik