Wie verändert Künstliche Intelligenz den Verkehr?

Podcast

Dieser Podcast ist die zweite Folge unserer Serie über Künstliche Intelligenz. In dieser Folge über intelligente Softwarelösungen für Autos schauen wir uns an, was für Auswirkungen Künstliche Intelligenz auf diesen Bereich unseres Alltages hat und haben wird.

Zeichnung eines Mädchens in einem Auto

Computerstimme aus IAV-Video: „Welcome back, Peter. Ok, let us go to Westgate. Estimated time will be 5 minutes.“

Dem Auto der Zukunft werde ich wahrscheinlich noch nicht einmal sagen müssen, wohin ich möchte: Es hat Zugriff auf meinen digitalen Kalender, gleicht Daten und Uhrzeiten ab und fährt mich automatisch zu meinen Terminen - während ich am Laptop arbeite, schlafe, Filme gucke oder telefoniere.

Computerstimme: „I have found a meeting sheduled with Susan. Do you want to make a reservation?“

„Ich habe einen Termin mit Susan für heute Abend gefunden. Soll ich ein Restaurant reservieren?“

Das Computersystem organisiert das Date, während sich der Fahrer zurücklehnt, das Entertainment-Programm genießt und den Autopiloten durch den Straßenverkehr von Los Angeles navigieren lässt. Im Internet kursieren tausende solcher Werbevideos der Automobilindustrie. Sie zeigen, was technisch alles möglich sein kann.

Computerstimme aus IAV-Video: „The vehicle is slowing down because of road works ahead.“

Science-Fiction oder Zukunftsvision?

Prototypen selbstfahrender Autos, LKWs und Busse existieren bereits und werden auch schon im Straßenverkehr getestet, nicht nur in den USA, auch bei uns in Deutschland. Aber: Was bedeutet es eigentlich, wenn Maschinen statt Menschen lenken? Was hat das für Auswirkungen auf unseren Straßenverkehr? Wer haftet, wenn ein Softwarefehler einen Unfall verursacht? Wenn Computer das Steuer übernehmen: Das ist jetzt unser Thema.

Dieser Podcast ist die zweite Folge unserer Serie über Künstliche Intelligenz. In der ersten Folge ging es um die Frage: Was ist das überhaupt, Künstliche Intelligenz? Und warum ist das Thema so wichtig? In dieser Folge über intelligente Softwarelösungen für Autos schauen wir uns an, was für Auswirkungen Künstliche Intelligenz auf diesen Bereich unseres Alltages hat und haben wird.

Mirko Knaak: „Wenn wir von autonomem Fahren sprechen, bedeutet das, dass man wirklich wirklich nichts mehr machen muss, dass jemand, der keine Fahrerlaubnis hat, mit dem Auto fahren darf, also z.B. wenn er betrunken ist, ein Kind ist oder ein alter Mensch.“

Sagt Mirko Knaack. Der Informatiker und Spezialist für Künstliche Intelligenz leitet das Digital Lab des Berliner Automobildienstleiters „IAV“. Hier arbeitet er mit 200 Ingenieur/innen und Software-Entwickler/innen an der Zukunft unserer Mobilität; daran, dass Fahrzeuge bald von alleine fahren, aber auch an der Weiterentwicklung von Fahrerassistenzsystemen:

Mirko Knaak: „Am einfachsten kann man sich vorstellen Siri im Auto: Das reagiert auf menschliche Sprache, das Auto reagiert auf Gesten, auf verschiedene andere Weise. Die Art und Weise, wie wir mit dem Auto kommunizieren, wird sich dramatisch verändern: Was wäre, wenn das Auto erkennen würde, wenn wir happy, traurig, müde oder wütend sind und sich daraufhin verhält?“

Eine Kamera im Auto könnte meine Mimik beobachten; ein Sensor erkennen, wie ich auf das Gaspedal trete, und daraus schließen, wie ich gestimmt bin. Der Bordcomputer könnte dann reagieren - und entweder eine beruhigende oder belebende Beleuchtung aktivieren. Solche Assistenzsysteme werden bald auf den Markt kommen.

Aber auch komplett selbst fahrende Autos seien in wenigen Jahren marktreif, sagt Mikro Knaack. Nicht nur klassische Automobilkonzerne treiben die Entwicklung voran, auch Unternehmen wie die Google-Schwester Waymo. Die Roboterautos von „Waymo“ werden bereits seit dem Herbst 2017 unter Realbedingungen, im ganz normalen Straßenverkehr, getestet: Eine Flotte autonomer Minivans fährt Menschen durch die Straßen von Phoenix in Arizona. John Krafzik, Geschäftsführer von Waymo proklamiert:

Waymo-CEO: „Listen, we are seeking not to build a better car, our goal is to build a better driver.“

Ein Algorithmus ermüdet nicht, nimmt keine Drogen, lässt sich nicht ablenken, kennt keinen Geschwindigkeitsrausch, hat keinen Stress und hält sich immer an die Verkehrsregeln. Kameras und Sensoren registrieren zu jeder Zeit alles, was um das Auto herum passiert. 360 Grad-Umsicht ohne blinden Winkel garantieren, dass kein Fahrradfahrer oder keine Fahrradfahrerin beim Rechtsabbiegen übersehen wird.

Mirko Knaack: „Wir gehen davon aus, dass die Unfallzahlen signifikant zurückgehen. Es ist gerade die Vision, dass wir zu null Verkehrstoten kommen können. Das ist weitgehend. Ob das so weit kommt, weiß ich nicht.“ 

Noch allerdings gibt es einige technische Probleme: Die computergesteuerten Autos können zum Beispiel noch nicht hören, und auf ein Martinshorn reagieren. Um gewisse Situationen richtig einzuschätzen, fehlt ihnen außerdem etwas Entscheidendes: der gesunde Menschenverstand.

Wenn, zum Beispiel, ein Mann mit seinem Kind auf dem Bürgersteig steht, dann würde ein selbstfahrendes Auto anhalten. Ein Mensch würde sofort erkennen, dass die beiden gar nicht über die Straße wollen, sondern, dass der Vater seiner Tochter nur die Schuhe zu bindet. Die Künstliche Intelligenz hingegen stoppt. Was würde das in der Praxis bedeuten? Könnten Fußgänger den Verkehr lahm legen, in dem sie sich einfach an den Straßenrand stellen?

Für eine Vielzahl solcher Fragen suchen Mirko Knaak und sein Team Lösungen:

Mirko Knaak: „Die Frage ist zwar, so wie ich sie sehe: Ist das Auto nicht dann zu langsam, wenn es sich an alle Verkehrsregeln hält? Das ist eine spannende Frage. Wenn es immer defensiv fährt und immer alle Verkehrsregeln hält, würde es nicht komplett ausgebremst?“

Ein weiteres Problem: Auch bei selbstfahrenden Autos kommt es zu optischen Täuschungen: Nebel, Schnee und eine tief stehende Sonne stören auch die Sicht von Kameras und können dazu führen, dass Situationen falsch eingeordnet werden. Und was passiert, wenn ein Aufkleber auf Verkehrsschildern klebt oder Verkehrszeichen von Graffitis übersprüht sind?

Im letzten Jahr ist ein Fahrer bei einem Unfall in einem Tesla-Sportwagen gestorben: Er hatte den Autopiloten eingeschaltet und sich, entgegen der Hinweise von Tesla, ganz darauf verlassen. Das Auto ist gegen einen kreuzenden Sattelschlepper gerast: Die Kameras des Autopiloten konnten den weißen Anhänger des LKWs nicht vom Himmel unterscheiden.

Wer ist jetzt schuld? Der Automobilkonzern? Der Fahrer? Die Softwareentickler/innen? Wobei Mirko Knaak zu bedenken gibt, dass es auch bei größter Sorgfaltspflicht unmöglich sei, eine Software komplett ohne Fehler zu entwickeln.

Mirko Knaak: „Es wird dazu kommen, dass Maschinen Menschen töten. Vielleicht viel weniger als heute Menschen Menschen töten im Verkehr. Aber es ist nicht auszuschließen, dass Maschinen sich falsch verhalten. Die Frage ist, was passiert dann und wie geht die Gesellschaft damit um, wenn es insgesamt weniger Verkehrstote gibt?“

Konstantin von Notz: „Ich glaube, dass diese Haftungsfrage mega relevant ist, und dass man die Frage nach strafrechtlicher Verfolgung regeln muss. Und dass man am Ende nicht sagen kann: Das war eine Maschine und hier ist aber leider niemand verantwortlich.“

Sagt Konstantin von Notz. Der Jurist sitzt seit 2009 für die Grünen im Bundestag und und ist dort für die Bereiche Innen- und Netzpolitik zuständig.

Konstantin von Notz: „Das ist eine sehr komplexe, vielschichtige Regelungssache: Da geht es um Standards, da geht es um Haftungsfragen, da geht es um die Einschränkung von bestimmten Geschäftsmodellen und das Ermöglichen von anderen Geschäftsmodellen, da geht es um Transparenzfragen, also da ist viel zu tun.“

Mit der Frage nach Regulierung und Kontrolle dieser neuen Möglichkeiten der Künstlichen Intelligenz beschäftigen wir uns eingehend im vierten Teil unserer Podcastserie. Neben den juristischen, gibt sich auch ethische Probleme:

Konstantin von Notz: „Man wird den Eltern, deren Kind tot gefahren ist, nicht mit einer Statistik kommen und sagen, dass ja unter dem Strich sehr viel weniger Kinder sterben. Man wird auch hier für gesellschaftliche Versöhnung sprechen müssen, das ist auch wichtig für die Akzeptanz einer solchen Technik. Und über all diese Fragen ist noch nicht ausreichend gesprochen worden.“

Sagt Konstantin von Notz. Um diese juristischen und ethischen Fragen anzugehen, hat Alexander Dobrindt als Minister für Verkehr und digitale Infrastruktur 2017 ein Gesetz zur Änderung der Straßenverkehrsordnung entworfen und eine Ethikkommission einberufen. Noch bevor die Ethikkommission ihr Ergebnis vorlegen konnte, wurde allerdings das Gesetz auf den Weg gebracht und vom Bundestag verabschiedet.

Es ermöglicht, dass automatisierte Systeme im öffentlichen Verkehr genutzt werden können, aber nur, wenn "der Fahrzeugführer dem technischen System in bestimmten Situationen die Fahrzeugsteuerung übergeben kann.“

Also nichts mit Zurücklehnen und Nickerchen machen. Sprecher: Die Fahrer/Innen sind dazu verpflichtet, wachsam zu bleiben, um die Steuerung im Notfall wieder übernehmen zu können. Mit dieser Einschränkung bleibt die Frage nach der strafrechtlichen Verantwortung und Haftung weiterhin unklar, sagt Constanze Kurz auf der Konferenz „Das ist Netzpolitik“ in Berlin im September 2017.

Die Informatikerin ist Sprecherin des Chaos Computer Clubs (CCC) und Redakteurin bei netzpolitik.org. Seit Jahren beschäftigt sie sich mit autonomen Fahrzeugen.

Constanze Kurz, CCC: „Das heißt, die Haftung liegt in keinem Fall bei dem Hersteller. Sie wird in sehr vielen Fällen umstritten sein, weil man sich eben nicht umdrehen kann, Füße hochlegen kann, schnarchen kann, sondern man muss ja, um diese offensichtlichen Umstände zu erkennen, die Fahrsituation verfolgen. Es ist relativ wenig darüber berichtet worden, aber man kann schon sagen, dass das ein Geschenk an die Autoindustrie ist.“

Die Rechtslage ist also weiterhin schwammig. Aber was sagt die Ethikkommission? Lieber keine Roboterautos? 

Nein, ganz und gar nicht. Die eingesetzte Ethikkommission schreibt in ihrem Bericht vom Sommer 2017, dass das automatisierte Fahren sogar ethisch geboten sei, wenn die Systeme weniger Unfälle verursachen würden als menschliche Fahrer - was aller Wahrscheinlichkeit nach so sein wird. Und was ist mit dem TrolleyProblem? 

Auch darum hat sich die Ethikkommission gekümmert: Das TrolleyProblem umschreibt folgendes, moralische Dilemma: Einem autonomen Fahrzeug kommt auf einer Landstraße ein LKW entgegen. Es muss ausweichen. Allerdings spielt am linken Straßenrand ein Kind, am rechten Straßenrand wartet eine Gruppe alter Menschen auf einen Bus.

Wie soll das Auto reagieren? Die alten Leute opfern, um das Kind zu retten? Oder gar nicht ausweichen und damit die eigenen Insassen sowie die Insassen des entgegen kommenden LKWs in Lebensgefahr bringen? Während Menschen in einer solchen Situation im Affekt handeln, müssen wir dem Algorithmus eine Handlungsanweisung geben. Doch nach welchen Richtlinien soll das geschehen?

Bericht der Ethikkommission: „Bei unausweichlichen Unfallsituationen ist jede Qualifizierung von Menschen nach persönlichen Merkmalen, Alter, Geschlecht, körperliche oder geistige Konstitution unzulässig.“

...heißt es im Bericht der Ethikkommission. Damit ist das TrolleyProblem aber noch nicht gelöst. Vielleicht lässt es sich auch nicht lösen. Die Kommission zumindest räumt ein:

Bericht der Ethikkommission: „Ein solches Dilemma ist nicht ethisch zweifelsfrei programmierbar.“ 

Das Trolley-Problem wird zwar viel diskutiert, wenn es um selbstfahrende Autos geht, in der Praxis allerdings wird es kaum Bedeutung haben. Zu klein ist die Wahrscheinlichkeit, dass eine solche Situation entsteht. Sprecherin: Trotzdem beschäftigt uns dieses Gedankenspiel, denn es rührt an grundsätzliche Fragen: Mit dem technischen Fortschritt müssen wir immer mehr Verantwortung übernehmen für etwas, was wir bislang dem Schicksal überlassen konnten, sagt Joachim Fetzer, Professor für Wirtschaftsethik.

Joachim Fetzer: „Wir müssen an dieser Stelle, wie wir das in der Zivilisationsgeschichte schon oft gemacht haben, das, was bisher als Zufall galt, und damit auch als Schicksal, irgendwie in die eigene Hand nehmen. Den Prozess haben wir seit langem, das haben wir diskutiert beim Schwangerschaftsabbruch, bei künstlicher Befruchtung. Denn wir muten uns heute nicht zu, dass in so einem Dilemma, Situation mit rechts Seniorengruppe, links Kind, in der Mitte ich tot, dass jemand eine richtige Entscheidung trifft.

Sondern wir prüfen eigentlich nur, wurde die nötige Sorgfalt angewandt, ist er da sozusagen Mitschuld und überlassen den Rest dann eben emotional dem Schicksal. Für denjenigen, der am Ende bei so einem Unfall stirbt, und dessen Angehörigen ist es aber etwas anderes, ob ein Mensch in einer Dilemma-Situation eine bittere Entscheidung getroffen hat oder ob man sagen muss, der Computer hat gewürfelt, obwohl ich tatsächlich sagen würde: Lasst uns diskutieren über bestimmte Rangfolgen und Hackordnungen, immer plausibel diskutieren kann einer, da wird immer ein Rechtsbereich bleiben. Dem könnte man sogar dem Zufallsgenerator überlassen, denn ein Rest von Schicksal wird im Straßenverkehr sein.“

Wobei ein bisschen Schicksal bleibt - auch, wenn Computer fahren. Denn: Es handelt sich bei dieser Software um selbstlernende Systeme. Was und wie die Künstliche Intelligenz aber lernt, ist auch für die Programmierer/innen nicht bis ins Kleinste nachvollziehbar, so dass sie nicht alles im Vorhinein durchdenken können; und nicht alle Reaktion des Fahrcomputers voraus sagen können.

Und es gibt noch eine weitere Baustelle, an der die Entwickler/innen zurzeit arbeiten: die Datensicherheit. Selbstfahrende Autos, werden viel stärker noch als heute mit dem Internet und anderen Netzwerken verbunden sein werden.

Böll.Thema 1/2018: digital ist okay!

Cover von Böll.Thema 1/2018 - Digital ist okay

Böll.Thema über Digitalisierung

Die Digitalisierung greift immer stärker und nachhaltiger in unsere Arbeit, die Politik, die Kommunikation und die Ökonomie ein. Was bedeutet das für die Politik, die Zivilgesellschaft und vor allem unser Leben?

Mehr dazu in der Ausgabe "Digital ist okay" unseres Magazins Böll.Thema.

Jetzt gratis bestellen oder downloaden!

Um alle Features nutzen zu können, werde ich dem autonomen Fahrzeug Zugriff auf meine persönlichen Daten geben müssen, wie zum Beispiel auf meinen digitalen Kalender. Außerdem sammelt das Fahrzeug selbst ja auch Unmengen von Daten über mich. Es kennt meinen Arbeitsweg, oder weiß, wo meine Kinder zur Schule gehen. Wie kann ich sichergehen, dass meine Daten bei mir bleiben - und nicht an Dritte verkauft werden, zum Beispiel an Läden, an denen ich täglich vorbei fahre…?

Aber es geht nicht nur darum zu verhindern, dass meine Daten nach außen gelangen. Umgekehrt soll sich aber auch niemand von außen in das System des Autos einloggen können. Schon heute wird über denkbare Horrorszenarien diskutiert: Was wäre, wenn jemand die Steuerung des Fahrzeugs hackt, und dann das Auto fernsteuern kann, um Insassen zu entführen? Oder das Auto als Waffe zu missbrauchen und in eine Menschenmenge zu lenken?

Mirko Knaak: „Natürlich ist eine Datenverbindung da und wenn eine Datenverbindung da ist, kann sie grundsätzlich gehackt werden. Genauso, wie eine Tür in einem Haus grundsätzlich aufgebrochen werden kann. Ist die Konsequenz davon, dass das Haus zumauern? Wahrscheinlich nicht. Also wir müssen uns da andere Möglichkeiten überlegen und so ähnlich ist das hier auch. Eine Datenverbindung ist essentiell, und nun müssen, dass das nicht oder so wenig wie möglich passiert.“

sagt Mirko Knaak, der an intelligenten Softwarelösungen für die Automobilindustrie arbeitet. Er selbst besitzt im Übrigen gar kein Auto und ist mit dem Fahrrad zum Interview gekommen.

Mirko Knaak „Ja, viele meiner Kollegen aus der klassischen Automobilbranche, die das Fahren als Freude am Fahren, als Fahrspaß empfinden, haben wahrscheinlich eher Schwierigkeiten mit der Idee des autonomen Fahrens und deswegen ist es vielleicht gar nicht so verwunderlich, wenn jemand wie ich, das das nicht so stark hat, sagt: Wir wollen gern ein System entwickeln wo man nicht mehr das Lenkrad in der Hand halten muss.“

Wird unser Leben ein besseres, wenn wir nicht mehr selbst fahren, sondern von Computern gefahren werden? Die Antwort hängt weniger von der Technik ab als von uns. Wir müssen juristische Fragen und ethische Probleme klären. Wir müssen uns um den Datenschutz kümmern und uns bewusst werden, dass die Automobil wie auch Tech-Konzerne die Entwicklung autonomer Fahrzeuge, vorantreiben, um Profit zu machen - auch wenn es Waymo, Tesla und Co in ihren Reden um hehre Absichten geht.

Was Roboterautos für unsere Gesellschaft bedeuten, ist schwer voraus zu sagen: Vielleicht werden Unmengen von Fahrzeugen unsere Straßen verstopfen, weil auf einmal viel mehr Menschen, wie zum Beispiel auch Kinder, fahren dürfen. Vielleicht ziehen massenhaft Leute aufs Land, weil langes Pendeln keine Belastung mehr ist? Vielleicht werden wir keine eigenen Autos mehr brauchen, weil uns eine Flotte selbstfahrender Taxis durch die Stadt kutschiert. Nachts parken sie außerhalb und unsere Städte werden nicht mehr zugeparkt sein, sondern Platz haben für Grün, Straßencafés und Spielplätze. Autonome Fahrzeuge bergen Risiken - aber auch so viele Chancen. Unser Verkehr könnte sicherer, sauberer, staufrei, effektiver werden. Hört sich doch nach Zukunft an, oder?

Das war die zweite Folge unserer Serie zum Thema „Künstliche Intelligenz“. In der nächsten Folge geht die Zukunft weiter: Können Computer Verbrechen vorhersagen? Pre-Crime und andere Versuche der der Kriminalitätsbekämpfung mittels Künstlicher Intelligenz.

Wenn Sie mehr zum Thema lesen möchte, sei Ihnen das neue Heft Böll-Thema „Digital ist ok! Die Chancen des Wandels“ empfohlen. Böll.Thema ist das Magazin der Heinrich-Böll-Stiftung – Sie können es auf der Internetseite www.boell.de gratis bestellen. Alle Folgen dieser Podcast-Serie können Sie auf Spotify, Deezer und Soundcloud hören, oder als Podcast abonnieren.

Dieser Podcast ist ein Produkt des Audiokollektivs. Autoren und Autorinnen: Anna Bilger, Vanessa Loewel, Lukasz Tomaszewski. Gesprochen haben: Lukasz Tomaszewski und Anna Bilger.