Objekt-Metadaten
Optisch geführtes Steuerungskonzept eines Roboters in Echtzeit

Autor :Alexander Krasnych
Herkunft :OvGU Magdeburg, Fakultät für Elektrotechnik und Informationstechnik
Datum :21.02.2005
 
Dokumente :
Dataobject from HALCoRe_document_00006468
 
Typ :Dissertation
Format :Text
Kurzfassung :Zukünftige Anwendungen erfordern eine Weiterentwicklung der Roboterfähigkeiten hinsichtlich der Autonomie. Das Ziel dabei ist die Realisierung intelligenter sehender Roboter, um die verschiedenen industriellen Aufgaben auszuführen. Deshalb wird in dieser Arbeit eine Struktur der optisch geführten Robotersteuerung für die Objektverfolgung entwickelt und untersucht. Aufgrund der Beschränkung der derzeit industriell gegebenen Bildverarbeitungssysteme wurde ein ereignisdiskretes visuelles Steuerungskonzept vorgestellt und untersucht. Dieses Konzept der Steuerung wurde für zwei am Objekt festpositionierten Kameras zur präzisen Bestimmung der Position und der Orientierung des Endeffektors entwickelt. Für die in der Literatur beschriebenen Verfahren zur visuellen Steuerung sind die Bildverarbeitung, die aufwendigen Kalibrierungen der Kameras und kinematische Transformationen erforderlich und realisiert. Die Kinematik des Roboters mit deren Nichtlinearität und Mehrdeutigkeit spielt bei der optisch geführten Robotersteuerung eine wesentliche Rolle. Bei Robotern geht es dabei insbesondere um die Beziehung zwischen den Angaben der Winkelkoordinaten der Antriebsachsen und den kartesischen Koordinaten speziell des Endeffektors. Dabei unterscheidet man zwischen der direkten und inversen Kinematik. Die direkte Kinematik ordnet einer bestimmten Stellung seiner Gelenke, d.h. einer Konfiguration, eine Position und Orientierung des Endeffektors im kartesischen Arbeitsraum zu. In dieser Arbeit wurde die Vorgehensweise zur Berechnung der direkten Kinematik erörtert und sowohl simulativ als auch experimentell für den redundanten Roboter amtec r7 untersucht. Da die inverse Kinematik ein sehr komplexes Problem wegen seiner starken Nichtlinearität und Mehrdeutigkeit darstellt, wurde sie mittels eines speziell angepassten Levenberg-Marquardt Optimierungsverfahrens berechnet. Ein Vorteil dieses Verfahrens besteht darin, dass es die Ermittlung der Position und Orientierung des Endeffektors Online ermöglicht. Die Effektivität dieser entwickelten Methode wurde sowohl simulativ als auch experimentell für den 7-achsigen Roboter nachgewiesen. Ein weiteres Problem der visuellen Robotersteuerung stellt die Trajektoriengenerierung im kartesischen Koordinatensystem dar. Die Trajektorienformen sind von den jeweils gegebenen Aufgaben abhängig. Entsprechend der entwickelten Struktur der visuellen Robotersteuerung sind linearen Trajektorien im kartesischen Raum notwendig, die gemäß dem Polynom fünfter Ordnung berechnet wurden. Diese Trajektorien wurden jeweils zwischen den Anfangs- und Zielpunkten des Endeffektors im Arbeitsraum des Roboters gebildet. Um die flexibleren Fertigungsprozesse zu gestalten, ist der Einsatz der optischen Sensoren zur Erfassung der Umgebung des Roboters erforderlich. Zur Bestimmung der Position und Orientierung von Zielobjekten wurden in dieser Arbeit positionsempfindliche Detektoren (PSD) wegen ihrer hohen Genauigkeit, ihrer Schnelligkeit und der kleinen Nichtlinearität eingesetzt. Zur Ermittlung der Position und Orientierung des Objektes mittels visueller Information wurden 4 Laserdioden auf dem Endeffektor befestigt. Um die Laserdioden-Wirkung mit den PSD-Sensoren zu erfassen, wurden die Modulationssignale für die Laserdioden mit Hilfe des Rechners erzeugt. Da in der visuellen Steuerung zur Erfassung des Objektes Kameras eingesetzt wurden, müssen die verwendeten Kameras kalibriert werden, um Korrespondenz zwischen Punkten auf den zweidimensionalen Bildern und den Punkten der darin dargestellten Objekte in der dreidimensionalen Welt herzustellen. Dabei gilt es, die inneren und äußeren Kameraparameter, die sich aus einem vorab gewählten Kameramodell heraus ergeben, mit möglichst hoher Genauigkeit unter vertretbarem Aufwand zu bestimmen. Diese Parameter wurden aus einer Menge von Leuchtpunkten, deren Lage sich ständig entlang gewisser Trajektorien im Sichtbereich jeder Kamera ändert, und den entsprechenden Projektionen auf der Bildebene der Kameras mit Hilfe eines Optimierungsverfahrens ermittelt. Unter Kenntnis dieser Kameraparameter wird dann die Lage des Objektes aufgrund der visuellen Information von zwei Kameras und 4 Laserdioden in Echtzeit bestimmt. Zusammenfassend wurden in dieser Arbeit auch die experimentellen Untersuchungen der gesamten Struktur der visuellen Robotersteuerung bei verschiedenen Geschwindigkeiten des Objektes durchgeführt, um experimentell die Robustheit und Stabilität eines solchen Systems nachzuweisen und die maximale Geschwindigkeit der Objektverfolgung zu bestimmen.
Schlagwörter :Roboter, direkte Kinematik, inverse Kinematik, Trajektoriengenerierung, optische Sensoren, Kameramodell, Objektverfolgung
Rechte :Dieses Dokument ist urheberrechtlich geschützt.
Größe :X, 211 S.
 
Erstellt am :31.03.2009 - 06:03:17
Letzte Änderung :22.04.2010 - 08:03:38
MyCoRe ID :HALCoRe_document_00006468
Statische URL :http://edoc.bibliothek.uni-halle.de/servlets/DocumentServlet?id=6468