| Die Welt, in der sich mobile Arbeitsmaschinen bewegen, ist unübersichtlich. Ein neues Assistenz-System von ifm kann Arbeitsumgebungen genauer analysieren und zuverlässiger vor Gefahren warnen als herkömmliche Geräte. Grund dafür: die Fusion zweier Messprinzipien in Kombination mit einer speziell auf Arbeitsumgebungen geschulten KI machen es möglich.
ifm hat sich in der Baumaschinenbranche einen Namen gemacht. Kaum eine mobile Arbeitsmaschine kommt ohne Steuerung, Sensorik oder Kabel des Herstellers aus. Mit der neuen Lösung O3M AI dringt ifm nun weiter vor ins Segment der Assistenzsysteme.
Die All-in-one-Lösung O3M AI ist derzeit das weltweit einzige PMD-Kamerasystem, das zwei Technologien, nämlich Time-of-flight und 2D-Vision zu einem robusten Kollisionswarnsystem für mobile Arbeitsmaschinen vereint. Durch die Sensorfusion kann das System den exakten Abstand und die Art des Hindernisses genauer klassifizieren und somit bessere Entscheidungen zum Fahrverhalten treffen als andere Systeme. Ähnlich wie die Einstellung von Kontrast und Helligkeit beim Fernseher führt die Einbeziehung zweier Informationsquellen zu einem besseren Bild – im Falle der mobilen Arbeitsmaschine, zu einem genaueren Bild der Umgebung, inklusive Personen- und Objekterkennung.
Der 3D-PMD-Sensor für die Abstandsmessung und die 2D-KI--Ethernet-Kamera für die Personenerkennung sind beide in ein Embedded-System integriert. Ein Hochleistungsprozessor im System verarbeitet beide Signale und setzt sie in Verbindung zueinander. Das Live-Bild der digitalen, hochauflösenden 2D-Ethernet-Kamera wird parallel dazu mithilfe eines neuronalen Netzes analysiert. Die Ethernet-Kamera hat einen leistungsfähigen Prozessor und einen KI-Beschleuniger (NPU) für diese Aufgabe. Somit kann eine ultraschnelle Verarbeitung der KI-Algorithmen für die Personenerkennung direkt im System stattfinden. Das verbessert die Personen- und Objekterkennung. Die Tiefen-Abbildung des 3D-PMD-Sensors und das Video der Ethernetkamera können anwendungsspezifisch miteinander kombiniert oder einzeln verwendet werden. Das System hat eine Fremdlichtunterdrückung, hält extremen Temperaturen stand und ist wasser- und staubgeschützt.
Das Funktionsprinzip des 3D-PMD-Sensor beruht auf dem Lichtlaufzeitverfahren Time of Flight (ToF). Am Fahrzeug sendet eine Infrarotlichtquelle moduliertes unsichtbares Infrarotlicht aus. Das Licht wird reflektiert und trifft auf den PMD-Sensor. Der Sensor kann aufgrund der Phasenverschiebung zwischen gesendetem und empfangenem Signal mit jedem Pixel die Abstände zum Objekt messen.
Doch für den effizienten Betrieb einer mobilen Arbeitsmaschine in unübersichtlichen Umgebungen müssen Assistenzsysteme zwischen Personen und Objekten differenzierter unterscheiden und intelligenter Schlüsse ziehen können als bisher möglich. Sei es, um beim Rückwärtsfahren die Geschwindigkeit besser anzupassen, sei es, um in unübersichtlichen Situationen mit dynamischen Geschehen und toten Winkeln den 360°-Überblick jederzeit zu behalten. Schließlich gilt es, Unfälle mit Personenschaden sicher auszuschließen.
Noch sind viele der erhältlichen Systeme unbefriedigend, Fehlermeldungen und Notbremsungen werden zu häufig und zu schnell ausgelöst – ganz nach dem Prinzip ‚Sicherheit geht vor‘. Das senkt die Produktivität und mindert die Effizienz im Fahrbetrieb; Den Fahrzeugführer kosten die Fehlalarme Zeit und Nerven. Und eigentlich müsste nicht bei Querung jedes Erdhaufens eine Notbremsung erfolgen.
Daher nutzt ifm zum einen die exaktere Abstandsinformation des 3D-Sensors, um einen Fahrbetrieb zu ermöglichen, der wesentlich präziser an die jeweilige Arbeitssituation angepasst ist. So lassen sich Bremsweg und Kollisionswahrscheinlichkeit aus über 1 000 Abstandswerten errechnen, die der Sensor liefert. Hinzu kommen Funktionen, wie die Abschaltmöglichkeit der 3D-Objektprüfung. Fährt die Maschine auf übersichtlichem Gelände eine längere Strecke rückwärts, lässt sich somit das Tempo erhöhen. Gabelstapler oder Kommunalfahrzeuge hingegen, die unter engen Gegebenheiten rangieren, können sicher abgebremst werden, allerdings nur dann, wenn wirklich Gefahr droht und das Hindernis ein Mensch und nicht bloß der Erdhaufen ist.
O3M AI kann jederzeit differenzieren, ob eine Notbremsung, ein kontrolliertes Anhalten oder eine Verlangsamung in der jeweiligen Situation angemessen wäre.
Zum anderen hat ifm eine eigene KI-gestützte Personenerkennung entwickelt. Die Treffsicherheit der Algorithmen konnte signifikant erhöht werden, da das neuronale Netz mit eigenen Daten und in echten Arbeitsumgebungen trainiert wurde, statt auf fertige KI-Lösungen zurückzugreifen. Denn vorgefertigte KIs haben den großen Nachteil, dass sie auf Beispielbildern basieren, die wenig oder gar nichts mit den Arbeitssituationen hierzulande zu tun haben. Anbieter sind häufig asiatische Unternehmen, die ihre Systeme für andere Einsatzzwecke trainieren.
Dank der eigenen Bilddaten ist O3M AI in der Lage, Personen und Objekte, wie sie in typischen Arbeitssituationen anzutreffen sind, präzise einzuordnen, unabhängig davon, ob es sich um eine Person handelt, die auf dem Boden liegt, dunkle Kleidung trägt oder durch größere Werkzeuge oder eine ungewöhnliche Körperhaltung gekennzeichnet ist; Und das sowohl bei hellem Sonnenlicht als auch in der Dämmerung und bis zu einer Reichweite bis maximal 25 m und einer Genauigkeit von 10 cm. Das System kann bis zu 20 Objekttypen gleichzeitig beurteilen.
Die Ergebnisse der Datenauswertung wird via CAN-Bus oder Ethernet an die Maschinensteuerung übergeben und dem Fahrer signalisiert. Die Infos und Warnmeldungen erscheinen auf einem Display im Fahrzeuginneren. Die Überlagerung von Warnsymbolen, Icons, Linienobjekten oder auch Texten erfolgt direkt im Sensorsystem und wird in das Videosignal eingespielt. Der digitale Videoausgang unterstützt die üblichen Codecs wie H.264, H.265 oder MJPEG über Fast Ethernet1. Es können zwei Videostreams unabhängig voneinander parametriert und gleichzeitig genutzt werden.
Konfiguriert wird das System mit dem ifm Vision Assistant. Selbst komplexe Systeme mit mehreren 3D-Sensorsystemen können ohne besondere Vorkenntnisse parametriert werden. Das 2D/3D-Smart-Kamerasystem von ifm erleichtert die Arbeit im Off-Road Bereich und macht sie sicherer. Dank der Fusion beider Sensortechnologien erreicht O3M AI eine außergewöhnlich hohe Verfügbarkeit und Zuverlässigkeit.
 | |
|
|
Lichtlaufzeitverfahren (ToF, Time of Flight): Der reflektierte und modulierte Lichtstrahl der IR-Beleuchtung trifft auf den 3D-PMD-Sensor. Dieser ist an eine Modulationsquelle gekoppelt. Der Abstand zum Objekt wird aus der Phasenverschiebung zwischen gesendetem und empfangenem Signal errechnet. Der 2D-Sensor nimmt zugleich ein Video der Szene auf. Die 3D-Rohdaten und das 2D-Bild werden in der Recheneinheit weiterverarbeitet und miteinander in Beziehung gesetzt. Die 3D-Daten ergeben eine Punktewolke. Die 2D-Daten werden vom neuronalen Netz in Personen bzw. Objektinformationen übersetzt. Daraus ergeben sich drei unterschiedliche Bilder, die zu unterschiedlichen Zwecken genutzt werden können. (Bild: ifm)
| |
|
|