Das Wort Automobil bedeutet selbstbewegend. Im Verlauf ihrer Geschichte, die sich über ein Jahrhundert erstreckt, haben sich Automobile entwickelt und übernehmen zunehmend den Fahrprozess von Menschen. Vor vielen Jahren musste das Auto mit einer Kurbel gestartet werden; solche Funktionen, wie Automatikgetriebe, Tempomaten und automatisches Bremsen kamen erst viele Jahre später.
Und nun sind wir Zeugen des Aufkommens von fahrerlosen, automatisierten Autos. Aus Sicht der Hardware sind solche Fahrzeuge nicht sonderlich komplex. Reifen, Motor, Lenkung, Bremsen und verschiedene Servomechanismen sind die gleichen wie in gewöhnlichen Autos.
Eingebaute Kameras, die die Straße und andere Autos beobachten, sind nicht Neues. Systeme zur Verkehrszeichenerkennung und Satellitennavigationssysteme sind selbst mit Mittelklassenwagen erhältlich. Gewöhnliche Autos können sogar die Straßenbeschaffenheit messen: bestimmte Modelle von Mercedes passen anhand dieser Daten die Federung an, wodurch das Auto sanfter über die Straße gleitet.
Es bleibt nur ein technisches Hindernis für unsere komplett fahrerlose Zukunft: eine Softwareschicht, die gut genug ist, um einen menschlichen Fahrer zu ersetzen. Aber hier tauchen neue Herausforderungen auf, und nicht alle von ihnen drehen sich um Technologie.
Die Welt hat bereits von einem Todesfall durch fahrerlose Fahrzeuge erfahren: Ein Tesla mit einem Fehler im Meldesystem informierte nicht über einen LKW, der die Spur wechselte. Die Person auf dem Fahrersitz war sich dessen nicht bewusst – er sah vielleicht einen Film zu dem Zeitpunkt.
Wer trägt die Schuld an diesem Unfall? Der LKW-Fahrer? Er hätte dem Tesla, der Vorfahrt hatte, ausweichen sollen. Der Besitzer des Tesla? Er fuhr nicht. Der Automobilhersteller? Auch das Unternehmen fuhr den Unglückswagen nicht.
Etwa jeder zweite würde sich derzeit noch nicht in ein selbstfahrendes Auto setzen. #Kaspersky_IFA #IFA2016 pic.twitter.com/2pjFqQ9tFh
— Kaspersky DACH (@Kaspersky_DACH) September 1, 2016
Oder betrachten Sie eine andere Situation: Stellen Sie sich vor, dass ein Unfall unvermeidbar und der Bordcomputer darüber informiert ist – ein Kleinkind läuft z. B. auf die Straße. Nach den Verkehrssicherheitsvorschriften müsste der Fahrer eine Notbremsung durchführen, ohne die Richtung zu ändern. D. h., dass ein Autopilot eines Wagens das Kind überfahren würde, wobei eine Person die Regeln brechen und die Richtung ändern, und z. B. gegen einen Mast fahren würde. Das ist die bessere Wahl; dem Fahrer müsste es durch die Airbags gutgehen.
Die Gefahren von selbstfahrenden Wagen
Tweet
Hier noch ein Fall: Ein Elch läuft auf die Straße. Würde man schulmäßig vorgehen, würde dies in einer Kollision mit dem Elch enden, wodurch die Insassen (und das Auto) ernsthaften Schaden nehmen könnten. Ein Fahrer würde jedoch normalerweise vom Elch wegsteuern und danach zurück auf die Fahrbahn lenken. Dieses Manöver hat sogar einen Namen: Elchtest. Wenn alles gutgeht, fährt der Fahrer einfach weiter; im schlimmsten Fall würde das Auto von der Fahrbahn abkommen oder ins Schleudern kommen, aber normalerweise ohne schlimmere Auswirkungen.
Lösungen
Wie sollten wir dieses Problem angehen? Letztendlich müssen Fahrer jedes Mal, wenn Sie sich hinter das Steuer setzen, dutzende von Entscheidungen treffen. Wir könnten den Bordcomputer verbessern: ihn zwischen verschiedenen Objekten unterscheiden, verschiedene Variablen betrachten lassen und somit manche Probleme, die in ungewöhnlichen Straßensituationen auftreten, lösen. Wenn der Wagen ein elchähnliches Objekt bemerkt, dass auf die Straße läuft, könnte es sofort reagieren. Wenn es ein Kleinkind bemerkt, das vor das Auto läuft, könnte es die Straße nach Fußgängern überprüfen und eine relativ sichere Richtung suchen, z. B. einen Mast.
Das scheint ein guter Ansatz: Mit genügend Algorithmen können fahrerlose Wagen zur Wirklichkeit werden. Jedoch ist das nicht so einfach.
Werfen Sie einen Blick auf eine Studie von Cognitive Technologies, ein Unternehmen, das automatisierte Bordsysteme für Fahrzeuge entwirft. Das Interessante an dieser Studie ist die Anzahl der Befragten: 80.000 Personen aus 47 Regionen um Russland – Durchschnittsmenschen, wie Sie und ich.
Developers unmanned “KAMAZ” offer to take part in the survey, which will form… of robots https://t.co/YKP84K2q4w pic.twitter.com/XmiC5la73p
— R2 Drones (@R2Drones) December 18, 2015
Die Ergebnisse zeigten, dass 59% der Befragten von der Straße abkommen würden, um eine Kollision zu vermeiden. Überraschenderweise sagten 38%, dass sie den Fußgänger überfahren würden. Ca. 3% sagten aus, dass sie in den Gegenverkehr fahren würden und vermutlich hoffen, dass der andere Fahrer ausweichen würde, um eine Kollision zu vermeiden.
Wenn mehrere Fußgänger vor ein Auto laufen, behaupteten 71%, dass sie ausweichen würden, und 26% würden in die Menschenmasse fahren.
Interessanterweise würden 55% der Befragten einen Hund überfahren, wenn dieser auf die Fahrbahn läuft. Außerdem konnten die Befragten im Fall eines Hundes, der auf die Fahrbahn läuft, die Option einer Notbremsung auswählen, was zu einem Auffahrunfall mit dem Fahrzeug hinter ihnen führen würde. Nur 40% der Befragten wählten diese Option.
Spotted: a self-driving uber in Pittsburgh https://t.co/tYO2LSXt8H pic.twitter.com/i03nbNUE8k
— Gizmodo (@Gizmodo) August 26, 2016
Eine andere Studie von amerikanischen Forschern kam zu noch seltsameren Ergebnissen. Laut der Studie sind Menschen der Meinung, dass ein selbstfahrendes Auto dem Leben von Fußgängern mehr Priorität geben sollte, als dem der Insassen. Je mehr Personen sich in der Fußgängergruppe befinden, desto mehr Befragte fanden diese Entscheidung gerecht. Wenn z. B. die Fußgängergruppe aus 10 Personen besteht, sagten 76% der Befragten, dass das selbstfahrende Auto sie verschonen und die Insassen töten sollte.
Jedoch bröckelte diese noble Haltung, als sich die Frage der Familie näherte. Als sie gefragt wurden, ob sie ein fahrerloses Auto kaufen würden, das sie oder Familienmitglieder töten würde, um zufällige Fußgänger zu verschonen, stimmten nur 19% zu.
People want other people’s self-driving cars to keep pedestrians safe https://t.co/RgAlgEup7r by @RoheeniSax
— Ars Technica (@arstechnica) June 23, 2016
Die Schlussfolgerung ist klar: Die Einstellung von Personen zum Treffen von Entscheidungen durch fahrerlose Wagen basiert auf der eigenen persönlichen Beziehung mit den hypothetischen Situationen.
Was sollte ein Fahrzeughersteller tun? Nicht jeder würde die Algorithmen, die Hersteller für fahrerlose Fahrzeuge entwickeln, unterstützen, was potentiell zu einem Anstieg von Klagen aufgrund Verkehrsunfällen führen würde. Aber falls Besitzer ihr Fahrzeug programmieren können, könnte ihnen ein Fehler unterlaufen oder sie könnten das System für Hackerangriffe öffnen.
A year later… Jeep hacked… again… https://t.co/c9ThBvk7Ry #defcon pic.twitter.com/bwiA0BpsMl
— Kaspersky (@kaspersky) August 10, 2016
Mit dem im Hinterkopf, denke ich, dass selbstfahrende Fahrzeuge der Zukunft (und ich denke, dass es sie so oder so geben wird) das Konzept des Fahrzeugbesitzes unmöglich machen werden. Stattdessen würden fahrerlose Wagen Transportunternehmen gehören, also könnte jeder eine Mitfahrgelegenheit über eine mobile App, wie Uber nutzen.
Diese Art von Ansatz würde die Anzahl der zum Transport benötigten Fahrzeuge deutlich senken. Es würde viele Probleme verbessern, wie Staus, unzureichende Parkmöglichkeiten und verrückte Taxifahrer mit schlechten Fahr- und Kommunikationsfähigkeiten.
Fußgänger könnten mit Lichtsignalen ausgestattet werden (wie Kleidung mit fluoreszierenden Einsätzen, die europäische Fußgänger im Dunkeln tragen müssen) und somit die Situation beseitigen, in der ein Fahrzeug zwischen dem Überfahren eines Fußgängers und dem Töten der Insassen entscheiden muss. Das wäre ein Problem weniger, aber es gibt noch viele zu lösen.