Raus aus dem Käfig!

Die Zukunft der Mensch-Roboter-Kollaboration

Wenn Mensch und Roboter zusammenarbeiten sollen, müssen die Maschinen gewisse Anforderungen erfüllen. In erster Linie an die Sicherheit. Aber sie müssen auch einfach bedienbar und flexibel einsetzbar sein. Daran arbeitet der Augsburger Roboterhersteller Kuka.

Raus aus dem Käfig: Otmar Honsberg
Otmar Honsberg arbeitet bei Kuka daran, die Roboter zu universellen Tools für verschiedenste Tätigkeiten weiterzuentwickeln: „Dann werden komplizierte Aufgabenstellungen einfach zu lösen sein.“
Foto: Iris Wagner-Hoppe/photoresque

So emotionslos die Roboter ihre Aufgaben erledigen, so leidenschaftlich wird Otmar Honsberg, wenn er über die Maschinen redet. Von ABC bis XYZ. Im wahrsten Sinne des Wortes, denn die Buchstaben bezeichnen Punkte, auch „Frames“ genannt, im Roboterkoordinatensystem. Es geht dabei um die Positionen und Winkel ihrer Achsen. Außerdem dreht sich das Gespräch um Traglasten und Reichweiten, um Drehbewegungen und lineare Bewegungen. Wer kein Ingenieurstudium zumindest angefangen hat, ist schnell verloren. Und zugleich fasziniert davon, was Honsberg erklären und vermitteln will: Hey, das ist alles keine Magie! Also keine Angst! Die Dinger funktionieren nur deshalb, weil wir ihnen beibringen, was sie machen sollen, wo sie es machen sollen und wie sie es sicher für Mensch und Maschine hinbekommen. ABC und XYZ eben.

Honsberg hat einen Traum: „Dass es eine Selbstverständlichkeit wird, für eine Tätigkeit einen Roboter zu holen, der mir als Kollege hilft – so wie es heute in einer Werkstatt normal ist, seinen Akkuschrauber zu holen.“ Daran arbeitet er beim Augsburger Automatisierungsspezialisten Kuka als Leiter der Abteilung für Applikationsentwicklung (Global Application Engineering).

Bohren, schrauben, kleben – das können die Roboter heute schon. In Zukunft, so Honsbergs Vorstellung, könnten die Maschinen aber beispielsweise auch auf einem Fahrzeug installiert werden und in der Landwirtschaft im Vorbeifahren Äpfel von Bäumen pflücken oder Tomaten im Gewächshaus ernten. „Dann habe ich ein universales Tool, das verschiedenste Aufgaben erfüllt. Die Sensorik erkennt Objekte und wählt die dazu passende Greifstrategie aus“, beschreibt der Maschinenbauingenieur. „Ich brauche mich nicht mehr darum zu kümmern, wie es von A nach B kommt. Die Steuerung erkennt die Umgebung selbstständig und plant einen kollisionsfreien Weg.“ An solchen Funktionen tüfteln sie bei Kuka, um sie in nicht allzu ferner Zukunft zur Marktreife zu bringen. „Dann werden komplizierte Aufgabenstellungen einfach zu lösen sein.“

Die Arten der ­Zusammenarbeit

  1. Koexistenz: Mensch und Roboter arbeiten nebeneinander. Die Arbeitsräume überlappen sich nicht, Berührungen des Roboters sind nicht vorgesehen. Vollautomatische Arbeit ohne Schutzzaun.
  2. Kooperation: Mensch und Roboter teilen sich einen Arbeitsraum, sie arbeiten aber nicht bei jedem Arbeitsschritt Hand in Hand. Es gibt definierte Eingriffszonen, in der der Roboter langsam fährt. In dieser Eingriffszone kann der Mensch Aufgaben ausführen, auch wenn der Roboter in dieser Zone tätig ist. Teilautomatisierung, der Mensch legt beispielsweise Material nach, das der Roboter bearbeitet.
  3. Kollaboration: Mensch und Roboter teilen sich einen Arbeitsraum und führen gemeinsam eine Aufgabe aus. Zum Beispiel kann der Mensch den Roboter führen.
Raus aus dem Käfig: Cobots
Die Zusammenarbeit von Mensch und Maschine wird immer mehr zur Normalität. Diese Cobots können somit echte Arbeitskollegen sein. Foto: Iris Wagner-Hoppe/photoresque

Anfangs gab es noch Berührungsängste

Als Arbeitskollegen sind Roboter längst schon Alltag. Zum einen die klassischen Industrieroboter, die hinter Zäunen ihren Tätigkeiten nachgehen, um keine Menschen zu gefährden. Beim Automobilbau sind in manchen Fertigungsbereichen bis zu 90 Prozent der Arbeitsschritte voll automatisiert. Dort hieven Roboter wie Kukas „Titan“ mit einer Traglast von mehr als 1.000 Kilogramm ganze Karosserien an den richtigen Platz, andere Maschinen montieren oder schweißen.

Vor zehn Jahren hat Kuka den ersten in Serie gefertigten Roboter für die direkte Zusammenarbeit mit Menschen auf den Markt gebracht. Freiland- statt Käfighaltung sozusagen. Anfangs, erinnert sich Honsberg, hatten die Beschäftigten noch Berührungsängste und die Arbeitsschützer Bedenken.

„Da mussten wir Missionarsarbeit leisten, um die Kollegen zu überzeugen, dass die Roboter mit den richtigen Einstellungen sicher sind.“ In kleinen und mittleren Unternehmen (KMU) setzen sich inzwischen mehr und mehr diese Modelle durch, die dann tatsächlich echte Arbeitskollegen sein können. Es sind sogenannte Cobots, kollaborierende Roboter.

Betrieb ohne Schutzzaun wird zur Selbstverständlichkeit

Die Erwartungshaltung der Nutzer an die maschinellen Helfer hat sich in den vergangenen Jahren geändert. Der Betrieb ohne Schutzzaun wird mehr und mehr zur Selbstverständlichkeit. „Die Anforderung unserer Kunden: Die Systeme müssen kostengünstig und für die Bediener sicher anzuwenden und einfach zu bedienen sein“, sagt Honsberg. Daran arbeitet die Forschungs- und Entwicklungsabteilung von Kuka in Augsburg.

Raus aus dem Käfig: Jürgen Blume mit AR-Brille
Mit der Augmented-Reality-Brille nimmt Jürgen Blume die Realität um ihn herum wahr. Der Entwicklungsingenieur kann aber noch virtuelle Objekte hinzufügen. Foto: Iris Wagner-Hoppe/photoresque

Im TechCenter lässt sich ein Blick in die Zukunft erhaschen – Jürgen Blume trägt sie auf der Nase. Es ist eine Augmented-Reality-Brille. Der für neue Technologien zuständige Entwicklungsingenieur nimmt damit die reale Welt um ihn herum wahr und kann virtuelle Elemente hinzufügen. „Wie in Minority Report“, verweist er auf den modernen Science-Fiction-Klassiker mit Tom Cruise und grinst. Vor ihm erscheinen virtuelle Buttons, die er drücken kann. Für alle anderen sieht es so aus, als würde er nur mit den Fingern in der Luft malen.

Für alle anderen ist auch der weiße Tisch in der Mitte des Raumes leer. Für Blume befindet sich darauf ein kleinerer Roboter, den er virtuell in seine Realität eingefügt hat. „Ich kann über ein Menü Tools hinzufügen“, sagt er, tippt in der Luft und wählt als Werkzeug einen Sauggreifer. Schon steckt – für ihn sichtbar – am virtuellen Flansch des Roboters besagter Greifer.

Natürlich kann die Technologie noch viel mehr. Virtuelle Räume erschaffen, die der späteren Arbeitsumgebung des Roboters 1 : 1 entsprechen. Und den Roboter die Arbeiten und Bewegungen ausführen lassen, die er später in Realität auch ausführen soll. Wenn die Entwicklung abgeschlossen ist, dürfte das eine große Hilfe sein. Vereinfacht ausgedrückt: Die theoretischen ABCs und XYZs werden sichtbar, aus rein numerischen Daten werden visuelle. „Und im visuellen Raum ist der Mensch geübt“, sagt Blume. Auf diese Weise lässt sich das Programm des Roboters einfach mit der Realität abgleichen und gegebenenfalls anpassen, ohne dass man ein Robotik-Experte sein muss. Stößt der Roboter irgendwo virtuell gegen? Dann sollte man besser die Bewegungsbahn oder die Arbeitsumgebung anpassen. Die Augmented Reality kommt auch der Arbeitssicherheit zugute, weil sich die aus der Risikobeurteilung vorgegebenen Arbeits- und Schutzräume, in denen Mensch und Maschine kollaborieren sollen, einfacher virtuell überprüfen lassen.

Augmented Reality und KI dürften zukünftig helfen

Die Veranschaulichung mittels Augmented Reality wird künftig Ingenieuren und Entwicklern wie Jürgen Blume und Otmar Honsberg sowie Programmierern und Inbetriebnehmern das Leben erleichtern. Gleiches gilt für die Weiterentwicklung von Künstlicher Intelligenz (KI). Momentan müssen sich die Applikations-Programmierer viele Details und Eventualitäten vorher genau überlegen: Wie ist der standardisierte Ablauf des Arbeitsprozesses? Wie ist der Ablauf, wenn eine Störung im Prozess, ein Materialfehler oder eine Gefährdungssituation auftritt? „Vielleicht kann die KI diese Strategien automatisch generieren, sodass man sie nicht mehr im Programmcode verarbeiten muss“, sagt Honsberg. „Komplizierte Abläufe einfach umzusetzen, wird die treibende Kraft sein.“ Die Weiterentwicklung von KI-unterstützten Systemen werde dazu beitragen, die Interaktion zwischen der Roboter-Software und externen Sensoren, wie zum Beispiel Kameras, zu verbessern – also ein Schritt hin zum automatisch Äpfel pflückenden Roboter.

Auf die Hardware-Seite wird die KI-Entwicklung weniger Auswirkungen haben, prognostiziert Honsberg. Neben Traglast und Reichweite sind interne Sensorik und Kostenoptimierung der Cobots noch die Gebiete mit dem größten Entwicklungspotenzial.

Am Erscheinungsbild der maschinellen Helfer dürfte sich kaum etwas grundlegend ändern. Sie sind an den Gelenken abgerundet, es gibt keine scharfen Kanten. Das verleiht den Cobots ein weicheres, weniger bedrohliches Aussehen und nimmt Berührungsängste. Außerdem verringert es das Verletzungsrisiko, sollte es zur unerwünschten Kollision kommen.

Obwohl die Cobots der Automatisierung oder Teilautomatisierung von Arbeitsprozessen dienen – ihre eigene Montage ist tatsächlich überwiegend Handarbeit und erfolgt in mehreren Schritten. In der Vormontage werden Strukturteile und Motoren vorbereitet. Anschließend erfolgt die Getriebemontage. Die Getriebe und Motoren werden dann zum Roboter-Skelett zusammengefügt. Danach wird der Kabelsatz montiert. Zuletzt erhält der Cobot seine Kunststoffschale. Teilweise noch während der Montage und unmittelbar danach erfolgen diverse Tests. Funktioniert die Elektronik? Messen die Sensoren der Achsen präzise?

Ist alles in Ordnung, ist der Roboter zwar fertig zur Auslieferung – aber noch nicht einsatzbereit. Schließlich fehlen ihm – je nach seinem Einsatzgebiet – noch das entsprechende Werkzeug sowie die Programmierung. Er muss lernen, was er machen soll und wo er es machen soll. ABC und XYZ. Hier kommen wieder Otmar Honsberg und Co. oder die vielen Systempartner von Kuka ins Spiel, um es ihm beizubringen.

Das neueste Cobot-Modell von Kuka ist der „LBR iisy“, den es in mehreren Ausführungen mit unterschiedlichen Traglasten (3 bis 15 kg) gibt. LBR ist die Abkürzung für Leichtbauroboter. Die zwei i in iisy stehen für intelligent industrial, der Zusatz sy ist natürlich nicht zufällig gewählt. Schließlich soll der Name signalisieren, wie „easy“, wie leicht doch die Handhabung ist. Zudem wiegt das kleinste Modell auch nur 23 Kilogramm. Die Anwendungsbereiche sind vielfältig: Beim Montieren, Schrauben, Testen, Verpacken, Handling sowie Maschinenbe- und -entladen kann der Cobot Mitarbeiter teil- oder vollautomatisch unterstützen. Auch im Laborbereich, der Elektronik- und ­Lebensmittelbranche gibt es Einsatzmöglichkeiten. „Überall, wo monotone oder schwere Aufgaben zu verrichten sind oder ­eine hohe ­Präzision in immer gleichbleibender Qualität gefragt ist“, fasst Honsberg zusammen.

Raus aus dem Käfig: Cobot Handguiding
Cobots lassen sich mit der Hand führen. Über ein Bedienpad wird der Ablauf festgehalten. Anschließend kann das Programm gestartet werden und der Cobot führt die erlernte Tätigkeit automatisch aus. Foto: Iris Wagner-Hoppe/photoresque

Im TechCenter können Gäste und potenzielle Kunden die Bedienung selbst ausprobieren. Unter andere­m am ­kleinsten Cobot, dem LBR iisy 3 kg. Drückt man einen Knopf, leuchtet eine LED-Anzeige am Roboter blau. Dann kann man den Arm bewegen und dem Roboter seine Aufgabe beibringen. „Handguiding nennt man das“, erklärt Otmar Honsberg. Das funktioniert so: Wir führen den Roboter mit der Hand zu einer Stelle, wo ein Bauteil liegt, im Beispiel ist dies ein Würfel. Den soll er aufnehmen und an einem anderen Punkt ablegen. Eine klassische Pick-and-Place-Tätigkeit, wie sie etwa in der Logistik regelmäßig vorkommt. Gegenstände von Förderbändern nehmen und sie in Kartons legen. Oder auch, um Maschinen zu be- und entladen, wenn beispielsweise Werkstücke bearbeitet werden sollen. Über ein Bedienpad lässt sich der Ablauf unseres Handguidings einfach programmieren. Anschließend kann das Programm – die Applikation, wie Honsberg es nennt – auf Knopfdruck gestartet werden. Und tatsächlich: Der Roboter fährt mit geöffnetem Greifer zu Position A, packt den Würfel, fährt zu Position B, öffnet den Greifer und legt den Würfel ab.

Quetschungen und Kollisionen sind die größten Gefährdungen

„Wir reden von einfachen Applikationen, von Individualität – also dass Bauteile abwechselnd vielleicht einmal fünf oder einmal sechs Schrauben zum Andrehen haben – und von kleinen Losgrößen“, sagt Honsberg über die Vorteile der Cobots. „Nicht von großen Anlagen oder ‚Robotergärten‘, bei denen zum Beispiel 20 und mehr Roboter und Hunderte Sensoren miteinander verschaltet werden.“

Gleichwohl ist Sicherheit auch bei den kleinen und leichten Cobots – oder gerade bei Cobots, weil sie ja mit Menschen zusammenarbeiten – das oberste Gebot. Beim Handguiding zum Beispiel darf der Roboter gewisse Geschwindigkeiten nicht überschreiten, um den Menschen nicht zu verletzen. Im Betrieb überwacht die Sicherheitssteuerung beispielsweise die Geschwindigkeit. Bewegt der Bediener die Maschine zu schnell, regelt der Cobot gegen oder stoppt.

Raus aus dem Käfig: Schutzfunktion Cobot
Der Roboter erkennt eine Berührung und bricht seine Aufgabe innerhalb von Millisekunden ab. Foto: Iris Wagner-Hoppe/photoresque

Quetschungen und Kollisionen sind die größten Gefährdungen. „Wenn ein Roboter einen Widerstand spürt, wo keiner sein sollte, bleibt er stehen“, erklärt Honsberg eine Sicherheitsfunktion. „Weichschalten“ nennt sich das im Fachjargon, wenn sich ein Roboter bei einer nicht vorgesehenen Berührung nachgiebig verhält oder sich aus dem Gefahrenbereich bewegt. „Ein klassischer Industrieroboter würde mehr Strom auf die Motoren geben und einfach weiterfahren – deswegen stehen die hinter einem Schutzzaun.“

An einem Cobot veranschaulichen die Kuka-Ingenieure das Prinzip. Das Werkzeug ist ein drei Finger dicker, abgerundeter Metallstift. Der Roboterarm stößt diesen von oben auf eine kleine Platte. Ein Sensor misst eine Maximalkraft von 85 Newton. Wäre eine Hand zwischen Metallstift und Platte, könnte das zu Verletzungen führen. Erst recht, wenn der Roboter die Kraft erhöhen, weiterfahren und die Hand ein- oder gar zerquetschen würde. Abhilfe schafft die Sicherheitsfunktion Kollisionserkennung in Verbindung mit einem Schutzraum. „Der Roboter spürt: Da ist eine Kollision, da stimmt etwas nicht“, erklärt Otmar Honsberg. „Er fährt zurück und löst die Klemmung auf.“ Der Selbsttest kostet etwas Überwindung: Hand auf die Platte. Der Roboter mit dem Metallstift fährt herunter, erkennt die Berührung, bricht seine Aufgabe sofort ab, fährt ein Stück nach oben und verharrt. Der Handrücken tut für kurze Zeit etwas weh. Ernsthaft verletzt hat mich der Roboter jedoch nicht.

„Das System muss insgesamt sicher sein“, sagt Otmar Honsberg. Die einzelnen Komponenten, Software und Hardware, werden auf die Einhaltung von Grenzwerten hin überprüft und zertifiziert. Aber auch das Zusammenspiel der Komponenten wird getestet. Und dann kommt noch die Applikation hinzu, also die konkrete Anwendung des Roboters, die im Rahmen einer Gefährdungsbeurteilung überprüft werden muss. „Sortiere ich Tennisbälle oder Rasierklingen?“, gibt Honsberg ein plakatives Beispiel.

Spannungsfeld zwischen Geschwindigkeit und Sicherheit

Ein Spannungsfeld besteht darin, dass Roboter auch dann möglichst schnell arbeiten sollen, wenn sie sich mit Menschen einen Arbeitsbereich teilen. „Unter Sicherheitsaspekten beißt sich das eigentlich“, sagt Honsberg. Klar: Wenn der Roboter mit hoher Geschwindigkeit mit einem Menschen zusammenstößt, ist die Verletzungsgefahr größer als bei niedrigen Geschwindigkeiten – auch bei Leichtbaurobotern wie dem „iisy“.

Ein Szenario wird deshalb im TechCenter gerade getestet. Der Cobot, in dem Fall für Palettieraufgaben, ist mit Sensoren ausgestattet, die das Umfeld scannen. Betritt jemand das Schutzfeld, erhält der Roboter innerhalb von Millisekunden ein Signal und fährt automatisch langsamer. Selbst eine Kollision ist dann harmlos, außerdem schaltet sich der Cobot bei Berührung sofort weich. Ist das Umfeld wieder frei und damit sicher, fährt der Roboter wieder schnell und erledigt in der gewünschten Taktzeit seine Aufgabe.

„Die Kollisionserkennung ist ein gutes Tool“, sagt Otmar Honsberg. Allerdings gebe es auch Prozesse, bei denen Kollisionen komplett verhindert werden müssen, weil der Roboter vielleicht mit scharfen Werkzeugen oder einer heißen Klebedüse ausgestattet ist. „Das muss über externe Sensorik geschafft werden“, sagt der Maschinenbauingenieur. Um die Sicherheit zu gewährleisten, müssen mit aktuellem Stand der Technik mehrere Flächenscanner miteinander verschaltet werden. Häufig ist der Platzbedarf wegen der Sicherheitsabstände dann auch ungünstig. Honsberg rechnet aber diesbezüglich mit Entwicklungen, „die uns das Leben leichter machen“. Eine 3-D-Sensorik mit Sicherheitsfunktion werde dann zwischen Mensch und Roboter unterscheiden können. Wenn zum Beispiel ein Mensch einen bestimmten Bereich betritt und sich Mensch und Roboter aufeinander zubewegen, erhält die Maschine automatisch den Befehl: Stopp! „Dieses sichere Erkennen und Interagieren würde uns helfen“, sagt Honsberg.

Sicher scheint: Der Trend wird dahin gehen, dass sich die Zusammenarbeit von Mensch und Roboter ausweitet und die Automatisierung Bereiche erschließt, die bislang wirtschaftlich noch unrentabel sind. Kuka erwartet, dass Cobots und klassische Industrieroboter technisch mehr und mehr verschmelzen. So entstehen Roboter, die intuitiv zu bedienen und einfach zu programmieren sind, um für verschiedene Aufgaben flexibel eingesetzt werden zu können.

Raus aus dem Käfig: Kollisionserkennung
Kollisionserkennung beim Umstapeln von Kartons: Betritt ein Mensch den Schutzraum um den Cobot, nimmt das der Sensor am Roboterfuß wahr und schaltet sofort auf „Rot“. Der Roboterarm bewegt sich nur noch sehr langsam. Im Falle einer Kollision schaltet der Roboter sofort weich und bleibt stehen. Foto: Iris Wagner-Hoppe/photoresque

DAS UNTERNEHMEN:

Mit einem Acetylengaswerk beginnt im Jahr 1898 die Geschichte des Augsburger Unternehmens. Die Grundlage für den Erfolg legen die Gründer und Namensgeber von Kuka, Johann Josef Keller und Jakob Knappich, wenige Jahre später mit dem Einstieg in die Schweißtechnik und der Produktion von Schweißanlagen. Als Robotik-Pionier bringt das Unternehmen im Jahr 1973 mit dem „Famulus“ den weltweit ersten Industrieroboter mit sechs elektromechanisch angetriebenen Achsen auf den Markt. Heute beschäftigt die Kuka-Gruppe, die vom chinesischen Elektronik-Konzern Midea übernommen wurde, weltweit knapp 15.000 Mitarbeiter. Am Augsburger Hauptfirmensitz arbeiten 3.500 Beschäftigte, davon 900 in der Produktion und 500 in der Abteilung für Forschung und Entwicklung. Im Jahr 2022 erwirtschaftete der Automatisierungskonzern einen Umsatz von rund 4 Milliarden Euro.

Text: Holger Schmidt