Woher wissen selbstfahrende Autos, wo sie sind?  Es heißt "Simultaneous Localization and Mapping" (SLAM).  So funktioniert das.

Was ist SLAM? Wie selbstfahrende Autos wissen, wo sie sind

Werbung Die gleichzeitige Lokalisierung und Zuordnung (SLAM) ist wahrscheinlich kein Begriff, den Sie jeden Tag verwenden. Einige der neuesten coolen technologischen Wunderwerke verwenden diesen Prozess jedoch jede Millisekunde ihrer Lebensdauer. Was ist SLAM? Warum brauchen wir das? Und von welchen coolen Technologien sprichst du

Werbung

Die gleichzeitige Lokalisierung und Zuordnung (SLAM) ist wahrscheinlich kein Begriff, den Sie jeden Tag verwenden. Einige der neuesten coolen technologischen Wunderwerke verwenden diesen Prozess jedoch jede Millisekunde ihrer Lebensdauer.

Was ist SLAM? Warum brauchen wir das? Und von welchen coolen Technologien sprichst du?

Vom Akronym zur abstrakten Idee

Hier ist ein kurzes Spiel für dich. Welches davon gehört nicht dazu?

  • Selbstfahrende Autos
  • Augmented Reality Apps
  • Autonome Flug- und Unterwasserfahrzeuge
  • Mixed-Reality-Wearables
  • Der Roomba

Sie können denken, dass die Antwort leicht das letzte Element in der Liste ist. In gewisser Weise hast du recht. Auf eine andere Weise war dies ein Trickspiel, da alle diese Gegenstände miteinander verwandt sind.

Augmented Reality Mixed Reality Wearable
Bildnachweis: Nathan Kroll / Flickr

Die eigentliche Frage des (sehr coolen) Spiels lautet: Was macht all diese Technologien möglich? Die Antwort: gleichzeitige Lokalisierung und Zuordnung oder SLAM! wie die coolen Kids es sagen.

Im Allgemeinen ist der Zweck von SLAM-Algorithmen leicht genug zu durchlaufen. Ein Roboter verwendet die gleichzeitige Lokalisierung und Kartierung, um seine Position und Ausrichtung (oder Pose) im Raum abzuschätzen und gleichzeitig eine Karte seiner Umgebung zu erstellen. Auf diese Weise kann der Roboter erkennen, wo er sich befindet und wie er sich in einem unbekannten Raum bewegen kann.

Daher ist ja, das heißt, alles, was dieser Fancy-Smancy-Algorithmus tut, eine Positionsschätzung. Eine weitere beliebte Technologie, das Global Positioning System (oder GPS). Wie funktioniert GPS-Tracking und was können Sie damit verfolgen? Wie funktioniert GPS-Tracking und was können Sie damit verfolgen? GEOGRAPHISCHES POSITIONIERUNGS SYSTEM. Wir kennen es als die Technologie, die uns von A nach B führt. Aber GPS ist mehr als das. Es gibt eine Welt voller Möglichkeiten und wir möchten nicht, dass Sie diese verpassen. Read More schätzt die Position seit dem ersten Golfkrieg der 1990er Jahre.

Unterscheidung zwischen SLAM und GPS

Warum also ein neuer Algorithmus? GPS weist zwei inhärente Probleme auf. Erstens, während GPS relativ zu einer globalen Skala genau ist, verringern sowohl Präzision als auch Genauigkeit die Skala relativ zu einem Raum, einer Tabelle oder einer kleinen Kreuzung. GPS hat eine Genauigkeit von bis zu einem Meter, aber was ist der Zentimeter? Millimeter?

Zweitens funktioniert GPS unter Wasser nicht gut. Mit nicht gut meine ich überhaupt nicht. Ebenso ist die Leistung in Gebäuden mit dicken Betonwänden nicht zufriedenstellend. Oder in Kellern. Du hast die Idee. GPS ist ein satellitengestütztes System, das unter physischen Einschränkungen leidet.

Daher zielen SLAM-Algorithmen darauf ab, unseren fortschrittlichsten Geräten und Maschinen ein verbessertes Positionsgefühl zu verleihen.

Diese Geräte verfügen bereits über eine Vielzahl von Sensoren und Peripheriegeräten. SLAM-Algorithmen nutzen die Daten von so vielen wie möglich unter Verwendung von Mathematik und Statistik.

Huhn oder Ei? Position oder Karte?

Mathematik und Statistik werden benötigt, um ein komplexes Problem zu lösen: Wird die Position zur Erstellung der Umgebungskarte verwendet oder wird die Umgebungskarte zur Positionsberechnung verwendet?

Dachte mal experimentieren! Sie werden zu einem unbekannten Ort interdimensional verzogen. Was machst du als erstes? Panik? OK, beruhige dich, atme ein. Nimm noch einen. Nun, was ist das zweite, was Sie tun? Schauen Sie sich um und versuchen Sie, etwas Bekanntes zu finden. Ein Stuhl ist zu Ihrer Linken. Eine Pflanze befindet sich zu Ihrer Rechten. Ein Kaffeetisch steht vor Ihnen.

Sobald die lähmende Angst vor „Wo zum Teufel bin ich?“ Nachlässt, beginnen Sie sich zu bewegen. Warten Sie, wie funktioniert Bewegung in dieser Dimension? Machen Sie einen Schritt vorwärts. Der Stuhl und die Pflanze werden kleiner und der Tisch wird größer. Jetzt können Sie bestätigen, dass Sie tatsächlich vorankommen.

Beobachtungen sind der Schlüssel zur Verbesserung der Genauigkeit der SLAM-Schätzung. Wenn sich der Roboter im folgenden Video von Marker zu Marker bewegt, erstellt er eine bessere Karte der Umgebung.

Zurück in die andere Dimension, je mehr Sie herumlaufen, desto mehr orientieren Sie sich. Wenn Sie in alle Richtungen treten, wird bestätigt, dass die Bewegung in dieser Dimension Ihrer Ausgangsdimension ähnlich ist. Wenn Sie nach rechts gehen, wird die Pflanze größer. Nützlicherweise sehen Sie andere Dinge, die Sie als Wahrzeichen in dieser neuen Welt identifizieren und die es Ihnen ermöglichen, selbstbewusster zu wandern.

Dies ist im Wesentlichen der Prozess von SLAM.

Eingaben in den Prozess

Um diese Schätzungen vorzunehmen, verwenden die Algorithmen mehrere Daten, die als intern oder extern kategorisiert werden können. Für Ihr interdimensionales Transportbeispiel (geben Sie zu, Sie hatten eine lustige Reise) sind die internen Maße die Größe der Schritte und die Richtung.

Die externen Messungen erfolgen in Form von Bildern. Das Erkennen von Sehenswürdigkeiten wie Pflanze, Stuhl und Tisch ist für Augen und Gehirn eine leichte Aufgabe. Der leistungsstärkste bekannte Prozessor - das menschliche Gehirn - ist in der Lage, diese Bilder aufzunehmen und nicht nur Objekte zu identifizieren, sondern auch die Entfernung zu diesem Objekt zu schätzen.

Leider (oder glücklicherweise, abhängig von Ihrer Angst vor SkyNet) haben Roboter kein menschliches Gehirn als Prozessor. Maschinen sind auf Siliziumchips mit menschlichem Code als Gehirn angewiesen.

Andere Maschinen führen externe Messungen durch. Hierfür sind Peripheriegeräte wie Gyroskope oder andere Trägheitsmessgeräte (IMU) hilfreich. Roboter wie selbstfahrende Autos verwenden auch die Kilometerzähler der Radposition als interne Messung.

Selbstfahrendes Auto LIDAR
Bildnachweis: Jennifer Morrow / Flickr

Extern verwenden ein selbstfahrendes Auto und andere Roboter LIDAR. Ähnlich wie Radar Funkwellen verwendet, misst LIDAR reflektierte Lichtimpulse, um die Entfernung zu identifizieren. Das verwendete Licht ist typischerweise ultraviolett oder nahes Infrarot, ähnlich einem Infrarot-Tiefensensor.

LIDAR sendet Zehntausende von Impulsen pro Sekunde aus, um eine extrem hochauflösende dreidimensionale Punktwolkenkarte zu erstellen. Also, ja, wenn Tesla das nächste Mal mit dem Autopiloten herumrollt, schießt er Sie mit einem Laser. Viele Male.

Zusätzlich verwenden SLAM-Algorithmen statische Bilder und Computervisionstechniken als externe Messung. Dies geschieht mit einer einzelnen Kamera, kann jedoch mit einem Stereopaar noch genauer gemacht werden.

In der Black Box

Interne Messungen aktualisieren die geschätzte Position, mit der die externe Karte aktualisiert werden kann. Durch externe Messungen wird die geschätzte Karte aktualisiert, mit der die Position aktualisiert werden kann. Sie können es sich als ein Inferenzproblem vorstellen, und die Idee ist, die optimale Lösung zu finden.

Ein üblicher Weg, dies zu tun, ist die Wahrscheinlichkeit. Techniken wie ein Partikelfilter approximieren die Position und kartieren sie mithilfe der Bayes'schen statistischen Inferenz.

Ein Partikelfilter verwendet eine festgelegte Anzahl von Partikeln, die durch eine Gaußsche Verteilung verteilt werden. Jedes Partikel sagt die aktuelle Position des Roboters voraus. Jedem Partikel ist eine Wahrscheinlichkeit zugeordnet. Alle Teilchen beginnen mit der gleichen Wahrscheinlichkeit.

Wenn Messungen durchgeführt werden, die sich gegenseitig bestätigen (z. B. Schritt vorwärts = Tabelle wird größer), erhalten die Partikel, deren Position „korrekt“ ist, inkrementell bessere Wahrscheinlichkeiten. Weit entfernte Partikel erhalten niedrigere Wahrscheinlichkeiten.

Je mehr Orientierungspunkte ein Roboter identifizieren kann, desto besser. Orientierungspunkte geben Feedback zum Algorithmus und ermöglichen genauere Berechnungen.

Aktuelle Anwendungen mit SLAM-Algorithmen

Lassen Sie uns dieses coole Stück Technologie nach coolen Stücken Technologie aufteilen.

Autonome Unterwasserfahrzeuge (AUVs)

Unbemannte U-Boote können autonom mit SLAM-Techniken arbeiten. Eine interne IMU liefert Beschleunigungs- und Bewegungsdaten in drei Richtungen. Darüber hinaus verwenden AUVs ein nach unten gerichtetes Sonar für Tiefenschätzungen. Das Side-Scan-Sonar erstellt Bilder des Meeresbodens mit einer Reichweite von einigen hundert Metern.

Autonomes Unterwasserfahrzeug-Side-Scan-Sonarbild
Bildnachweis: Florida Sea Grant / Flickr

Mixed Reality Wearables

Microsoft und Magic Leap haben tragbare Brillen entwickelt, die Mixed-Reality-Anwendungen vorstellen. Windows Mixed Reality: Was es ist und wie man es jetzt ausprobiert Windows Mixed Reality: Was es ist und wie man es jetzt ausprobiert Windows Mixed Reality ist eine neue Funktion, mit der Sie es verwenden können Windows 10 in virtueller und erweiterter Realität. Hier erfahren Sie, warum es spannend ist und wie Sie feststellen können, ob Ihr PC dies unterstützt. Weiterlesen . Das Schätzen der Position und das Erstellen einer Karte sind für diese Wearables von entscheidender Bedeutung. Die Geräte verwenden die Karte, um virtuelle Objekte auf realen Objekten zu platzieren und sie miteinander interagieren zu lassen.

Da diese Wearables klein sind, können sie keine großen Peripheriegeräte wie LIDAR oder Sonar verwenden. Stattdessen werden kleinere Infrarot-Tiefensensoren und nach außen gerichtete Kameras verwendet, um eine Umgebung abzubilden.

Selbstfahrende Autos

Autonome Autos haben einen kleinen Vorteil gegenüber Wearables. Mit einer viel größeren physischen Größe können Autos größere Computer aufnehmen und über mehr Peripheriegeräte verfügen, um interne und externe Messungen durchzuführen. Selbstfahrende Autos repräsentieren in vielerlei Hinsicht die Zukunft der Technologie, sowohl in Bezug auf Software als auch in Bezug auf Hardware.

SLAM-Technologie verbessert sich

Da die SLAM-Technologie auf verschiedene Arten eingesetzt wird, ist es nur eine Frage der Zeit, bis sie perfektioniert ist. Sobald Sie täglich selbstfahrende Autos (und andere Fahrzeuge) sehen, wissen Sie, dass die gleichzeitige Lokalisierung und Kartierung für alle zur Verfügung steht.

Die selbstfahrende Technologie verbessert sich jeden Tag. Möchten Sie mehr wissen? Sehen Sie sich MakeUseOfs detaillierte Auflistung der Funktionsweise von selbstfahrenden Autos an. Funktionsweise von selbstfahrenden Autos: Das A und O hinter Googles Autonomous Car-Programm Funktionsweise von selbstfahrenden Autos: Das A und O hinter Googles Autonomous Car-Programm Zu arbeiten, während Sie schlafen, essen oder Ihre Lieblingsblogs lesen, ist ein Konzept, das gleichermaßen ansprechend und scheinbar weit entfernt und zu futuristisch ist, um es tatsächlich zu tun. Weiterlesen . Vielleicht interessiert Sie auch, wie Hacker auf vernetzte Autos abzielen.

Bildnachweis: chesky_w / Depositphotos

Erfahren Sie mehr über: Künstliche Intelligenz, Kraftfahrzeugtechnik, Selbstfahrendes Auto, SLAM.