Während die Automobilindustrie mit viel Einsatz das autonome Fahren auf Straßen vorantreibt, ist das autonome Fahren auf Feldwegen auch aufgrund ihrer heterogenen und über die Zeit veränderlichen Erscheinung und unzureichender Karten noch immer eine kaum erforschte Herausforderung. Im Vordergrund steht dabei die Wahrnehmung der statischen Umgebung: Wo verläuft der Weg, gibt es Weggabelungen, wo befinden sich nicht passierbare Hindernisse, wie erstreckt sich das Terrain? Für die robuste Wahrnehmung komplexer Feldwege werden in dieser Arbeit RGB-Kamerabilder mit den Messungen eines LiDAR-Sensors fusioniert. Dazu wird zunächst eine Rohdatenfusion untersucht: Um die Genauigkeit von Stereo-Punktwolken zu verbessern, wird ein kostenbasiertes Verfahren zur Fusion einer LiDAR-Punktwolke in die Stereoverarbeitung vorgestellt. Dieses wird auf einem urbanen Benchmark-Datensatz evaluiert und übertrifft dabei die echtzeitfähigen Verfahren zur Stereo-LiDAR-Fusion aus der Literatur in ihrer Genauigkeit, Korrektheitsrate und Effizienz. Für die höchste Genauigkeit auf Feldwegen und für eine Zuverlässigkeit unter allen Wetterbedingungen wird anschließend eine Sensordatenfusion auf Merkmalsebene realisiert. Dazu werden vier Module zur Repräsentation der statischen Umgebung auf Feldwegen implementiert: ein Hindernis-Grid, eine Terrain-Schätzung, ein darauf aufbauendes Straßen- und Wegetracking sowie eine Kreuzungserkennung. Das Hindernis-Grid schätzt mittels eines Bayes-Filters Hinderniswahrscheinlichkeiten für diskrete Grid-Zellen. Um auf Feldwegen zwischen befahrbarer Vegetation (z.B. auf einem Grünstreifen in der Mitte des Wegs) und tatsächlichen Hindernissen zu unterscheiden, wird dabei eine LiDAR-basierte Belegtheitswahrscheinlichkeit mit einer kamerabasierten Befahrbarkeitswahrscheinlichkeit fusioniert. Die Terrain-Schätzung schätzt mittels Optimierung aus akkumulierten LiDAR-Punkten ein kontinuierliches Elevationsmodell des Bodens. Um auf Feldwegen auch kleinere negative Hindernisse wie Schlaglöcher modellieren zu können, wird in einer dynamischen Auflösungsanpassung die Anzahl Stützpunkte des Modells gezielt lokal erhöht. Für diese Entscheidung werden Informationen aus dem Kamerabild genutzt. Das Straßen- und Wegetracking schätzt in einem Optimierungsverfahren die Posen der Weg- oder Fahrspurränder. Dazu werden robuste Farbmodi und Messverfahren zur Kantenmessung im Kamerabild erarbeitet. Um die Robustheit bei schwierigen Sichtverhältnissen zu erhöhen, werden zusätzlich Messungen aus der LiDAR-Punktwolke gewonnen und Informationen aus dem Hindernis-Grid und der Terrain-Schätzung in das Straßen- und Wegetracking fusioniert. Die Kreuzungserkennung erkennt schließlich anhand der entwickelten Farbmodi Feldwegkreuzungen in einem mit dem Kamerabild eingefärbten Terrain-Grid. Die einzelnen Komponenten der statischen Umfeldrepräsentation wurden auf den institutseigenen Versuchsträgern in anspruchsvollen Szenarien getestet. Durch die Fusion von Kamera und LiDAR konnte eine Vielzahl von unterschiedlichen Feldwegen und ländlichen Straßen bei verschiedensten Wetterbedingungen und Lichtverhältnissen robust getrackt werden. So konnte auch bei Dunkelheit und Schnee einem zuvor unbekannten Feldweg mehrere Kilometer lang autonom gefolgt werden.
«Während die Automobilindustrie mit viel Einsatz das autonome Fahren auf Straßen vorantreibt, ist das autonome Fahren auf Feldwegen auch aufgrund ihrer heterogenen und über die Zeit veränderlichen Erscheinung und unzureichender Karten noch immer eine kaum erforschte Herausforderung. Im Vordergrund steht dabei die Wahrnehmung der statischen Umgebung: Wo verläuft der Weg, gibt es Weggabelungen, wo befinden sich nicht passierbare Hindernisse, wie erstreckt sich das Terrain? Für die robuste Wahrnehmu...
»