Auto, Netzwelt, Wissenschaft

Roboter & Ich


Dieses Thema find ich so spannend, dass ich deshalb wieder mit dem Schreiben anfangen möchte. Es wird uns die nächsten Jahrzehnte beschäftigen. Und hätte ich die Möglichkeit dazu, hiermit Brötchen zu verdienen und zu forschen, ich würde es sofort tun.

Die Überlegungen, wie autonome Roboter in Koexistenz zu unserer Gesellschaft leben können, sind nicht neu. Die Asimov-Gesetze hierzu sollten jedem bekannt sein (Quelle: Wikipedia):

  1. Ein Roboter darf kein menschliches Wesen (wissentlich) verletzen oder durch Untätigkeit gestatten, dass einem menschlichen Wesen (wissentlich) Schaden zugefügt wird.
  2. Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen – es sei denn, ein solcher Befehl würde mit Regel eins kollidieren.
  3. Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel eins oder zwei kollidiert.

Robot Ethics von Kate Darling

Erstmals bin ich mit neuen Aspekten der Roboterethik während der re:publica 2013 in Berührung gekommen. Der Vortrag von Kate Darling mit dem Titel “Robot Ethics” ließ mich nicht mehr los.

So ging es hier erstmals nicht darum, was Roboter im Zusammenspiel mit dem Menschen nicht dürfen, sondern welche Auswirkungen das Handeln von Menschen mit Robotern für Auswirkungen auf den Menschen hat.

Menschen, die eine emotionale Bindung zu dem Spielzeugroboter Pleo aufbauten weigerten sich diesen anschließend zu zerstören geschweige denn ihn zu Tode zu quälen. Der Pleo ist herausragende Merkmale anders als gewöhnliche Roboter: durch sein Design ruft er ein Kindchenschema auf und weckt den Beschützerinstinkt. In gewissen Situationen ist er hilfsbedürftig und wird auf wenige Personen geprägt. Auch reagiert er direkt auf Aktionen des Menschen, wie streicheln, kraulen oder kitzeln.

Kann ein Roboter in einem Menschen ähnliche Gefühle hervorrufen wie ein Haustier oder sogar ein Mensch? Unweigerlich mag man nun Analogien zu sozial beschränkten oder computerverliebten Menschen heranziehen. Diese ließen sich eher auf eine Beziehung mit einem Nicht-Menschen ein… Wer jedoch weiß, welche Emotionen ein Paar edle Schuhe, ein neues aber leeres Smartphone oder ein frisch gewaschenes Auto hervorrufen kann, wird sicherlich zweimal nachdenken ob diese Überlegung gar so fremd ist.

Roboter mag man auf Grund ihres beschränkten Aktionsradius und Handlungsspielraums auf eine ähnliche Ebene mit Haustieren oder Kleindkindern setzen. In speziellen dafür programmierten Situationen sind sie dem erwachsenen Menschen jedoch ebenbürtig oder bereits heute überlegen. Dessen sollte man sich bewusst werden, wenn es um Konsequenzen aus ihrem Handeln geht. Konsequenzen für den Roboter selbst und für die ihn umgebenden Menschen.

Das Ethik-Dilemma

Dies brachte mich zu einem weiteren Themenfeld rund um autonome Fahrzeuge, wie sie z.B. Google, BMW oder Audi entwickeln. Innerhalb der Gruppe Roboethics in der sich viele Wissenschaftler verschiedenster Universitäten austauschen sorgte eine spezielle Fragestellung für hitzige Diskussion:

Angenommen man fährt als einziger Passagier in einem selbstfahrenden Auto. Das Auto fährt auf einer einspurigen Straße auf einen Tunnel zu. Plötzlich erscheint innerhalb des Tunnels wenige Meter vor dem Auto ein kleines Kind. Nun die Überlegung: 1) das Auto fährt weiter und wird das Kind töten. Der Fahrgast überlebt. 2) das Auto schert aus und prallt gegen die Tunnelwand. Der Fahrgast würde evtl. umkommen, das Kind wäre jedoch vermutlich gerettet.

Die Leser entschieden sich mit einer Zweidrittelmehrheit dafür, dass das Auto weiterfahren sollte um das Leben des Fahrgastes zu schützen. Diese Abwegung führt innerhalb der Asimov-Gesetze zu einem Paradoxon: Einerseits wurden sie eingehalten, andererseits nicht. Es gilt Robotern ethische Abwegungen beizubringen. Wie hätte ein Mensch entschieden? Vermutlich hätte er das Kind nicht wahrgenommen oder hätte im Affekt gehandelt und hätte bremsend das Lenkrad verrissen, was für ihn selbst mit dem möglichen Tod geendet hätte. Gewissensbisse hätte ihn die Situation längere Zeit nachbetrachten lassen.

Genau diese Gewissenbisse hat ein Roboter nicht oder müssen ihm zusätzlich beigebracht werden. Ein Roboter oder besser, dessen Algorithmus kann unzählige Überlegungen blitzschnell abwägen: Wessen mögliche Lebenserwartung würde durch den Tod unnötig verkürzt? Wessen Tod würde einen größeren volkswirschaftlichen Schaden hervorrufen? Wählt man eine Option mit einem sicheren Ausgang oder eher die mit mehreren hypothetischen Ergebnissen? Oder ganz stupide: lässt man den Zufall entscheiden?

Alle möglichen Ausgänge mögen schrecklich sein und wiederstreben dem Menschen darüber entscheiden zu müssen. Alleine über mögliche Optionen nachzudenken widerstrebt einem. Und dennoch: Etliche Male am Tag werden diese Überlegungen auf der Welt getroffen. Im Affekt. Wie bringen wir Affekt einer Maschine bei? Sollte man ihr auch ethische Überlegungen beibringen? Darf ein Programmierer seine Wertevorstellung in einen Algorithmus gießen und diesen über Leben und Tod richten lassen? Stellt sich dann nicht unweigerlich die Frage nach der Haftung? Fahrlässigkeit kann es bei einem programmierten Algorithmus schließlich nicht geben. Oder muss man sich letztlich von den romantischen Asimov-Gesetzen verabschieden.

Um der Haftungsfrage zu entgehen dürfte sich ein Roboter in letzter Konsequenz nur alleine gegen sich selbst oder gegen seinen Besitzer wenden. Hierbei wäre der Schaden begrenzter und kalkulierbarer als gegen sämtliche externen Szenarien die eintreten könnten.

Ein Experiment mit einer weiteren ethischen Falle hat kürzlich Alan Winfield entwickelt: Ein Roboter soll verhindern, dass ein Mensch in ein Loch läuft. Als Menschen fungierten hierbei ebenfalls Roboter. In dieses Szenario wurde ein dritter Roboter gebracht, der ebenfalls auf das Loch zurollte. Schaffte man es im ersten Szenario noch erfolgreich die Aufgabe zu lösen und nur selten jemanden ins Loch stürzen zu lassen, so schlug dies im zweiten Szenario reihenweise fehl. In 14 von 33 Fällen überlegte der Roboter so lange, dass beide Probanden ins Loch fielen. Für einen Algorithmus mit einem einzigen Ziel nicht wirklich zufriedenstellend.

Moral in Algorithmen gießen

Was den Robotern fehlt ist eine Wertvorstellung, Moral oder eben Ethik. Ethische Vorstellungen sind jedoch von Kultur zu Kultur verschieden. In der einen Kultur zählen junge Menschen mehr als alte. Auch verändern sich ethische Vorstellung im Laufe der Zeit. Braucht es je Land die Freigabe eines Ethikrats zum Setzen von Paramatern für Algorithmen? Oder obliegt es dem Besitzer selbst Einstellungen für Egoismus oder Selbstlosigkeit zu setzen?

Ethische Wertvorstellung werden in der Erziehung eines Menschen über Jahrzehnte und über Generationen hinweg vermittelt. Wird man dies in eine einzige Formel gießen können? Oder braucht es einen internationalen Konsens darüber, welche ungeschriebenen Regeln abseits von Gesetzen existieren, wie wir Menschen leben möchte?

Tritt man einen Schritt zurück, dann hat das setzen dieses ethischen Regeln etwas von altgriechisch-philosophischen Überlegungen – das Niederschreiben Parallelen zum Schreiben der Bibel: Welche Regeln gelten untereinander und im Zusammenspiel mit einer neuen, anderen Spezies?

Mit all diesen Fragestellungen kratzen wir erst an der Oberfläche. Dass eine neue Spezies unter uns leben wird, ist nicht mehr aufzuhalten. Wie diese jedoch unter uns weilen soll, haben wir in der Hand. Und doch müssen wir in unser eigenes Innerstes blicken um das Leben dieser anderen neuen Wesen ebnen zu können.

Schreib einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.