Sonntagsblatt Archiv

Sonntagsblatt 10/ vom

Können Maschinen moralisch handeln?

Die Technologie selbstfahrender Autos wirft auch ethische Fragen auf

Von Barbara Schneider

Auf den Straßen im schwedischen Göteborg sollen bald selbstfahrende Autos unterwegs sein. In der kalifornischen Kleinstadt Mountain View fahren die Roboter-Autos schon. Und auch in Deutschland gibt es eine Teststrecke. Doch neben der technischen Umsetzung muss auch geklärt werden, welche Folgen und Risiken diese Technologie hat. Physiker Michael Decker sieht die Vorteile: Die Autos seien Menschen im Berechnen und Erkennen von Abständen überlegen. Sie könnten damit die Unfälle reduzieren.

Ganz ohne Risiko sind die selbstfahrenden Autos allerdings nicht. Das hat jetzt auch Google eingeräumt. Jahrelang beharrte das Unternehmen darauf, dass Google-Cars nur durch Fremdverschulden in Unfälle verwickelt waren. In einem Bericht schrieb das Unternehmen, dass in den zurückliegenden eineinviertel Jahren 13 Unfälle nur durch menschliches Eingreifen verhindert werden konnten.

Jüngst ist nun beim Spurwechsel ein selbstfahrendes Auto von Google in Kalifornien mit einem Linienbus zusammengestoßen - und hat damit offenbar wirklich erstmals einen selbstverschuldeten Unfall verursacht. Das Google-Auto war mit drei Kilometern pro Stunde unterwegs und auch der Bus fuhr nur etwa 25 km/h. Verletzte gab es keine, nur der Kotflügel des Busses wurde beschädigt.

Nicht nur die Software, auch der Testfahrer rechnete damit, dass der Bus abbremsen und das Google-Auto einfädeln lassen würde. »Diese Art von Missverständnis passiert menschlichen Fahrern jeden Tag«, heißt es in einer Mitteilung von Google. Das zu erwartende Verhalten großer Fahrzeuge werde nun angepasst.

Tatsächlich entwickelt sich die Technik rasch. »In drei bis vier Jahren werden selbstfahrende Autos auf den Autobahnen unterwegs sein«, schätzt Informatikprofessor Raul Rojas. Bis sie in Städten fahren, wird es länger dauern: denn das sei wegen der Passanten, Ampeln und Kreuzungen viel komplizierter.

Philosoph Oliver Bendel sieht die Entwicklung kritisch. Er warnt davor, selbstfahrende Autos serienmäßig zu bauen. »Wenn wir solche Autos haben, werden sie bei Unfällen selbstständig entscheiden, mit wem sie kollidieren«, sagt er. Philosophen und Ethiker denken deshalb darüber nach, nach welchen ethischen Konzepten ein Roboter-Auto programmiert sein sollte. Diskutiert werden Dilemmasituationen, in die das Auto kommen kann, erläutert Bendel. Etwa, ob das Auto eher ein Kleinkind oder eine Rentnerin überfährt, wenn kein Ausweichen mehr möglich ist. Darf ein Auto das Leben eines Menschen opfern, um viele zu retten? Oder soll es im Zweifelsfall das Leben seiner Insassen gefährden?

Antworten auf diese Fragen zu finden ist schwer. Philosophin Catrin Misselhorn verfolgt den Ansatz, nach einem gesellschaftlichen Konsens für diese ethischen Fragen zu suchen. Es müsse anhand von empirischen Befragungen herausgefunden werden, welches ethische Konzept der Intuition der meisten Menschen entspreche, sagt sie. Mit dieser Moral könne dann das selbstfahrende Auto ausgestattet werden.

Philosoph Bendel sieht das anders. Er warnt davor, Roboter-Autos komplexe Entscheidungen zu überlassen. »Die Maschine kann keine Verantwortung übernehmen«, sagt er. Und keine Schuld tragen. Bendel ist überzeugt: »Wenn wir über Leben und Tod entscheiden, muss es jemanden geben, der die Verantwortung trägt oder die Schuld auf sich lädt.«

Informatiker Rojas bremst in der Diskussion um eine Ethik für das Roboter-Auto die Erwartungen. Ethik für Roboter-Autos liegt für ihn in weiter Ferne: »Das können Computer heute noch nicht.«

 

  Was denken Sie? Schreiben Sie uns an:  sonntagsblatt@epv.de