Ohne GPS-Signal müssen autonome Fluggeräte ihre Position und Umgebung anders bestimmen. Der Beitrag skizziert zentrale Verfahren: inertiale Messsysteme, visuelle und lidarbasierte Odometrie, SLAM, Barometer- und Magnetdaten sowie Funkbaken. Im Fokus stehen Sensorfusion, Algorithmen, Grenzen, Fehlerquellen und Praxisbeispiele aus Indoor-, Tunnel- und Urban-Canyon-Einsätzen.
Inhalte
- Visuelle Odometrie & SLAM
- Trägheitssensorik kalibrieren
- Magnetometer robust nutzen
- UWB-Baken für Lokalisation
- Sensorfusion mit Edge-ML
Visuelle Odometrie & SLAM
Visuelle Odometrie schätzt die Eigenbewegung aus fortlaufenden Kamerabildern, indem markante Bildmerkmale verfolgt und ihre 3D-Geometrie aus der Epipolargeometrie rekonstruiert werden. Monokulare Setups leiden an Skalenambiguität, die durch IMU-Fusion (Gyro/Accelerometer) oder Stereo-/ToF-Tiefen aufgelöst wird. Robuste Pipelines kombinieren Feature-Tracking (z. B. ORB) mit RANSAC für Ausreißerfilterung und integrieren eine nichtlineare Optimierung über ein Keyframe-Fenster, um Drift zu begrenzen. Semi-direkte Verfahren koppeln optischen Fluss mit Posenparametern, während Keyframe-Graphen die Langzeitkonsistenz sichern und Re-Lokalisierung nach kurzzeitigen Wahrnehmungsverlusten ermöglichen.
- Merkmalsdetektion: FAST/ORB für wiedererkennbare Punkte unter Licht- und Blickwinkelwechseln
- Outlier-Unterdrückung: RANSAC auf Essential-/essentialmatrix
- Zustandsschätzung: EKF/UKF oder Inertial-Visual-Filter mit Vorintegration
- Optimierung: Bundle Adjustment und Sliding-Window-Marginalisierung
- schleifenschluss: BoW-Place-Recognition und Pose-Graph-Relaxation
SLAM erweitert die reine Bewegungsbestimmung um eine konsistente Karte, in der Schleifenschlüsse globale Fehler korrigieren und Pose-Graph-Optimierung die Trajektorie glättet.Onboard-Berechnungen nutzen marginalisierte Keyframes, sparse Jacobians und Prior-Faktoren zur Echtzeitfähigkeit; bei Texturmangel helfen aktive Tiefensensoren oder semantische Landmarken. Für autonome Fluggeräte entstehen so robuste navigations-Stacks, die auch bei schwachem Licht, Wind und kurzzeitigen Sensor-Fehlern stabil bleiben.
| Signalquelle | Rolle | Grenze |
|---|---|---|
| Monokamera | Textur-Tracking | Skalengefüge unbestimmt |
| Stereokamera | Direkte Tiefe | Basislinie vs. Reichweite |
| IMU | Kurzzeitdynamik | Bias-Drift |
| ToF/LiDAR | Geometrie bei wenig Textur | Nebel/Glas stören |
| Barometer | Höhen-Offset | Temperaturdrift |
| UWB | Relative Anker-Position | Anker-Infrastruktur nötig |
trägheitssensorik kalibrieren
Für robuste Navigation ohne Satellitenbezug sind präzise Inertialdaten entscheidend,da sich Integrationsfehler sonst schnell aufschaukeln. Nötig ist eine gerätespezifische Ermittlung von Fehlerparametern sowie deren Temperaturabhängigkeit.Im Fokus stehen dabei Bias, Skalenfaktoren, Nichtorthogonalität und g-Empfindlichkeit von Gyroskopen und Beschleunigungssensoren. Eine praxisnahe Laborabfolge kombiniert Stillstands- und Bewegungsmuster, um deterministische sowie stochastische Anteile zu modellieren.
- Allan-varianz im Stillstand: Trennung von Bias-Instabilität,Rauschdichte und Random Walk.
- Sechs-Lagen-Verfahren: 1g-Kalibrierung des Accelerometers über orthogonale Orientierungen.
- Langsame Drehteller-Sweeps: lineare Skalenfaktoren und Achsversatz der Gyros bestimmen.
- Temperaturzyklen: Bias(T) und Skalenfaktor(T) als Polynom oder Lookup-Map hinterlegen.
- g-Empfindlichkeit der Gyros: definierte Translations-/Neigesequenzen, Kopplungsterms schätzen.
Im Feldbetrieb werden Parameter kontinuierlich validiert und,falls nötig,nachkalibriert,ohne die Missionsdaten zu stören. Dazu werden physikalische und kinematische Nebenbedingungen als sanfte Korrektoren genutzt, während robuste Schätzer Ausreißer unterdrücken. Ein konservatives Update-Regime schreibt nur stabile Trends in das Kalibrierprofil, das per Seriennummer versionsverwaltet wird.
- ZUPT-/ZAR-Phasen: Nullgeschwindigkeit und Nullwinkelrate als ruhige Referenzpunkte.
- Schwerkraft-Constraint: Norm der Beschleunigung auf 1g, Driftableitungen korrigieren.
- Visuelle/LiDAR-Schleifen: Loops begrenzen Drift, kalte und warme Zustände abdecken.
- Robuste Regression: huber/Geman-McClure, temperaturgewichtete Updates.
- Wartungsindikatoren: Trigger bei Bias-Sprüngen, erhöhter Kovarianz oder Sensoralterung.
| Check | Zielbereich | Hinweis |
|---|---|---|
| Gyro-Bias im stillstand | < 0,05 °/s | Thermische Kompensation prüfen |
| Accel-1g-Fehler | < 0,01 g | skalenfaktoren anpassen |
| misalignment | < 0,1° | Montage/Matrix M verifizieren |
| Bias(T)-Drift | < 0,005 °/s/°C | Temperatur-Map erweitern |
Magnetometer robust nutzen
Der 3‑Achs‑Magnetometer liefert absolute Kursinformation, doch industrielle Hallen, Fahrstrom, ESCs und ferromagnetische Strukturen verzerren das Erdmagnetfeld. Robuste Nutzung beginnt beim mechanischen Design: Abstand zu Hochstrompfaden, verdrillte Leitungen, sternförmige Masseführung sowie Hard‑/Soft‑Iron‑Kompensation mit temperaturabhängigen Offsets. Während des Flugs prüfen Avionik und Filter die Feldnorm und -richtung, vergleichen sie mit Referenzmodellen (WMM/IGRF oder vorvermessenen lokalen Karten) und gewichten Messungen adaptiv. Die sensorfusion mit Gyro/Accelerometer in EKF/UKF nutzt Innovations‑Tests, Mahalanobis‑Gating und dynamische Rauschmodelle; Heading bleibt so stabil, selbst wenn Magnetometer‑Daten vorübergehend verworfen werden.
- Sensorplatzierung: großflächiger Abstand zu ESC/Motor; Abschirmung ist selten sinnvoller als sauberer Aufbau.
- Duale Magnetometer: räumlich versetzt montiert; Cross‑check und automatische Auswahl des weniger gestörten Kanals.
- Strom‑Feedforward: Motor‑PWM/Phasenstrom als Regressor zur online‑Bias‑Kompensation.
- In‑Flight‑Kalibrierung: Ellipsoid‑Fit (Hard/soft) mit Bewegungsanreicherung; temperature‑aware Parameter.
- Anomalie‑Detektion: |B|-Schwellen,Innovations‑Statistiken,Heading‑Jerk‑Filter.
- Fallback‑Logik: gyro‑only Yaw, Visuelle Odometrie oder Polarisations-/Sonnensensor, je nach Qualitätsscore.
| Störquelle | Symptom | Indikator | Gegenmaßnahme |
|---|---|---|---|
| ESC/Motorstrom | bias‑Sprünge | |B| steigt mit Thrust | Feedforward, größerer Abstand |
| Stahlträger | Lokale Drift | Richtung kippt, |B| ok | Lokale Feldkarte, Gewicht reduzieren |
| Lautsprechermagnet | Starker Offset | |B| >> Erdwert | Messung verwerfen, Gyro‑Bridge |
| Kabelschleifen | Rauschen | Varianz ↑ bei Lastwechsel | Verdrillen, Stern‑masse |
| Space Weather | breitflächig | WMM‑Abweichung | Visuelle/INS‑Priorisierung |
Für wiederholbare Missionen in GPS‑losen umgebungen erhöhen magnetische Fingerprint‑maps die Verlässlichkeit: das 3D‑Feld wird vorab rasterartig erfasst und im Flug als Korrektur für Yaw‑Offset und als zusätzliche SLAM‑Landmarke genutzt. In Verbindung mit current‑aware Modellen, robusten Schätzern (Huber‑Loss, Chi‑Square‑Gating), yaw‑rate bias observer, kurzen Hover‑Manövern zum re‑Nivellieren und einer Arbitration‑Logik zwischen Magnetometer, Vision und Inertialdaten entsteht ein System, das den Kurswinkel auch in rauen Feldern stabilisiert und damit die Navigationskette ohne GPS schließt.
UWB-Baken für Lokalisation
Ultrawideband nutzt extrem kurze Impulse und ein sehr breites Spektrum, um Zeitflugmessungen (tof) im nanosekundenbereich zu ermöglichen. Ein Luftfahrzeug trägt ein Tag, mehrere stationäre Anker liefern über TDoA oder Zwei-Wege-Messung Entfernungen, aus denen per trilateration die Position mit hoher Präzision entsteht. Im Unterschied zu RSSI-Ansätzen bleibt die Messung durch fein aufgelöste Channel Impulse Responses robuster gegen mehrwegeffekte; unter direkter Sicht sind 2-10 cm möglich, bei NLoS typischerweise 10-30 cm. Synchronisierte Anker (z. B.in den 6-8‑GHz-Kanälen) erlauben Update-Raten bis in den dreistelligen Hertzbereich und lassen sich mit IMU- und visueller Odometrie in einem EKF/UKF fusionieren, um Drift zu begrenzen und kurzzeitige Ausfälle zu überbrücken.
- Feinauflösung der Laufzeit statt Pegelmessung; Zentimeterbereich bei korrekter Geometrie.
- Niedrige Latenz (oft < 10 ms) für stabile Regelschleifen.
- Koexistenz mit Wi‑Fi/BLE, geringe Sendeleistungen, begrenzte Störanfälligkeit.
- Qualitätsmetriken wie CIR/SNR und NLoS-Flags für Ausreißerunterdrückung.
- Einschränkungen: freie Sicht bevorzugt, Metallflächen und dichte Regale erfordern höhere Ankerdichte.
Zuverlässigkeit entsteht durch Geometrie, Synchronisation und Kalibrierung. Für 2D-Tracking genügen meist vier Anker, echte 3D-Positionierung profitiert von fünf bis sechs Ankern in unterschiedlichen Höhen und an gegenüberliegenden Wänden mit großen Basislinien. Präzise Vermessung der Anker (cm‑Genauigkeit), harte synchronisation (z. B.PoE/PTP) oder stabile Funk-Sync sowie regelmäßige Selbsttests reduzieren systematische Fehler.Filterung berücksichtigt Messvarianzen, SNR und NLoS-indikatoren; Ausreißer werden verworfen, IMU/Vis-OD liefern ein trägheitsgestütztes Fallback. Typische Betriebswerte: 30-150 Hz Updates, moderates Sendezeitbudget, kanal- und leistungsadaptive profile für dichte Mehrfachsysteme.
| Szenario | Anker/100 m² | Update-Rate | Genauigkeit | Hinweis |
|---|---|---|---|---|
| Lagerhalle | 6-8 | 50-100 Hz | 10-20 cm | Lange Sichtachsen nutzen |
| Bürofläche | 4-6 | 20-50 Hz | 15-30 cm | Trennwände berücksichtigen |
| Fertigung (Metall) | 8-10 | 50-100 Hz | 20-40 cm | Hohe Montage,NLoS-Filter |
| Testkäfig 5×5×5 m | 4-5 | 100-200 Hz | 5-10 cm | Dichte Geometrie |
sensorfusion mit Edge-ML
Edge-ML verknüpft komplementäre Sensormodalitäten zu einer belastbaren Lage- und Positionsschätzung,die auch ohne Satellitensignale stabil bleibt. Lernbasierte Merkmalsextraktoren liefern optische Flüsse bei Texturarmut, rekurrente Modelle dämpfen IMU-Drift, und Unsicherheiten werden als Qualitätsmetriken mitgeführt, sodass klassische Filter adaptiv reagieren. Selbstkalibrierung und Ausreißerunterdrückung laufen on-device in Echtzeit, puffern Spoofing, Magnetstörungen und temporäre Sichtverluste und halten die Trajektorie konsistent.
- IMU – Hochrate-Trägheitsdaten für Kurzzeitstabilität
- Kamera – visuelle Odometrie, Landmarken, schleifenschluss
- LiDAR/Tiefensensor – Geometrie in Low-Light, metrische Maßstäbe
- Radar/Ultraschall – robust bei Regen/Nebel, Höhenreferenz
- Barometer/Magnetometer – Driftanker und Heading-Prior
- Event-Kamera – Mikrosekunden-Latenz für schnelle Manöver
Der Fusions-Stack koppelt vorverarbeitete Messungen (Time-Sync, Bias-Korrektur) mit leichten Netzen für Merkmale, Tiefenschätzung und Qualitätsindikatoren; die Zustandsrekonstruktion erfolgt in einem EKF bzw. Faktorgraph, dessen kovarianzen von den Netzen moduliert werden. Quantisierung,Pruning und Edge-Batching reduzieren latenz und Energiebedarf; ein Zustandswächter initiiert fallback-orientierte Relokalisierung über Semantik- oder Topologie-Hinweise,sobald die schätzungskonsistenz sinkt.
| Modul | Zweck | Rate (Hz) | Latenz (ms) | leistung (W) |
|---|---|---|---|---|
| RNN-Inertial | Driftmodell | 200 | 1.5 | 0.3 |
| TinyCNN-VO | optischer Fluss/Features | 30 | 8 | 0.6 |
| LiDAR-TinyUNet | Geometrie/Segmentierung | 10 | 12 | 1.2 |
| EKF/Graph | fusion/Schätzung | 100 | 0.8 | 0.4 |
Welche sensoren ersetzen GPS bei autonomen Fluggeräten?
Zum ersatz von GPS kommen Kameras (mono/stereo), inertialsensoren (IMU), LiDAR, radar, Barometer und Magnetometer zum Einsatz. Ergänzend dienen Funkverfahren wie UWB, Wi‑Fi Round-Trip-time oder 5G-Positionierung, je nach Umgebung und Reichweite.
Wie funktioniert visuelle und LiDAR-basierte Navigation?
Visuelle Odometry und SLAM nutzen Kamerabilder oder LiDAR-punktwolken, um Merkmale zu erkennen, Bewegungen zu schätzen und eine Karte aufzubauen. Loop-Closure korrigiert Drift, während Tiefen- oder Stereoinformation die Skalierung stabilisiert und Sprünge vermeidet.
Welche rolle spielen Trägheitsnavigation und Sensorfusion?
Die Trägheitsnavigation integriert Beschleunigungen und Drehraten der IMU zu Lage und Geschwindigkeit,driftet jedoch. Sensorfusion mit Kalman- oder Faktorgraphen verknüpft IMU mit Kamera, LiDAR und Barometer, begrenzt Drift und erhöht Robustheit im Dauerbetrieb.
Wie wird die Position in schwierigen Umgebungen bestimmt?
In Innenräumen oder urbanen Canyons helfen UWB-Beacons, visuelle Marker, Radar gegen Staub und Nebel, sowie Kartenabgleich mit zuvor erfassten 3D- oder Semantik-karten. place-Recognition erkennt bekannte Orte wieder und ermöglicht präzise Positionskorrekturen.
Welche Herausforderungen und Lösungsansätze existieren?
Einschränkungen betreffen Lichtwechsel, Texturarmut, Regen, Vibrationen, magnetische Störungen und Rechenlast. Gegenmaßnahmen sind aktive Beleuchtung,Entkopplung,robuste Merkmalsdetektoren,Lernverfahren,redundanz,Health-Monitoring und sichere Fallback-Strategien.

