Stellen Sie sich einmal vor, ihr Beifahrer würde ihnen die Fahrt mit folgenden Sätzen versüßen: "Schatz, heute ist unser Einkaufstag, nimm die nächste Ausfahrt und wir sind in fünf Minuten bei unserem Lieblings-Supermarkt." Oder: "Schau mal, der Tank ist gleich leer, am besten biegst du in 200 Metern rechts ab, dann an der zweiten Kreuzung links – dort befindet sich die nächste Tankstelle".
Ein guter Beifahrer ist Gold wert. Vor allem, wenn er oder sie ebenso ortskundig wie duldsam ist und nicht nur unsere Gewohnheiten kennt, sondern auch die Bedürfnisse unseres Autos im Auge hat. Weil so ein kompetentes Multitalent im echten Leben eher selten auftritt, wollen Computerentwickler weiterhelfen.
Audi und das Massachusetts Institute of Technology (MIT) etwa haben zusammen AIDA entwickelt, ein komplexes Navigationssystem, das in Gestalt eines Mini-Roboters mit kantigem Köpfchen auf dem Armaturenbrett sitzt.
AIDA, die Kurzform für Affective Intelligent Driving Agent, kommuniziert nicht nur über Displayanzeige und Sprachkommandos mit dem Fahrer. Das System arbeitet auch mit einer abstrahierten Form der menschlichen Mimik. Läuft alles wie am Schnürchen, lächelt der "intelligente" Assistent seinem Fahrer zu – oder zwinkert auch schon mal kokett mit dem elektronischen Auge. Werden AIDAs Anweisungen nicht befolgt, lässt der kleine Roboter traurig den Kopf hängen, was unwillkürlich Mitleid erregt.
Die Japaner arbeiten ebenfalls am künstlichen Kopiloten. Schon im vergangenen Jahr hat Nissan in seiner Konzept-Studie Pivo2 einen elektronischen Beifahrer namens RA (Robotic Agent) präsentiert. Das kugelförmige Gerät sieht aus, als wäre es einem Manga-Comic entsprungen.
Die Idee, die dahinter steckt, beschäftigt die Experten in den Computer- und Roboterschmieden seit langer Zeit: Wie kann die Maschine dem Menschen eine ständig zunehmende Informationsfülle möglichst schnell und eindeutig übermitteln? Eine Schnittstelle, die sich der Grundformen menschlicher Kommunikation bedient, erleichtert die Informationsaufnahme erheblich - davon sind auch die MIT-Forscher überzeugt. Die menschliche Mimik - ein Lächeln, ein strenger Blick, ein traurig verzogener Mund – wird überall auf der Welt verstanden und ebenso schnell wie eindeutig interpretiert.
Zum Kaffee bei Oma
Mit AIDA haben die Forscher von Audi und MIT ein System entwickelt, das die Daten der Fahrzeugsensoren und die Gewohnheiten des Fahrers in seine Berechnungen einfließen lässt. So wertet der Roboter eine Fülle von Daten wie Kraftstoffvorrat, Reifendruck, Geschwindigkeit und Abstand zum Vordermann aus, merkt sich bevorzugte Sitzpositionen - und lernt vor allem in den ersten "Lebenswochen" ständig dazu. Zum Beispiel, welche Strecken der Fahrer regelmäßig fährt oder an welchen Wochentagen und um welche Uhrzeit ein ganz bestimmtes Ziel angesteuert wird. Montagmorgen, 7 Uhr 45 – aha, es geht ins Büro. Sonntagnachmittag, 15 Uhr - jetzt steht Kaffeetrinken bei Oma an.
Bei seinen Assistenzdiensten verlässt sich das System nicht nur auf den gesammelten Erfahrungsschatz. AIDA steht auch in ständiger Verbindung mit den Verkehrsleitzentralen und lotst den Fahrer wenn nötig an Unfallstellen und Staus vorbei.
Ein YouTube–Video, das AIDA und sein weitgestecktes Aufgabenfeld präsentiert, hat bei den Betrachtern allerdings eher Skepsis als Begeisterung hervorgerufen. "Das Navi gibt’s doch schon, und das reicht, wie es ist", heißt es in einem der kritischen Kommentare bei You Tube. "Wenn das AIDA-Auto mal mehrere Tage in der Werkstatt ist, findet der zurückgelassene Mensch vermutlich weder ins Büro noch ins Einkaufscenter", spottet ein anderer Kommentarschreiber.
Ein Blogger namens "Gururu" befürchtet gar, dass so ein Bord-Roboter ein Angriff auf die persönliche Freiheit ist. Denn vorstellbar sei auch, dass das System eines Tages auch erkennt, dass sein menschlicher Kompagnon am Montagmorgen völlig verkatert ins Auto steigt - und wer wisse schon, an wen diese Daten dann übermittelt werden?
|