Ganz so einfach ist das nicht. Auch das kann man diskutieren: Muss man sich wirklich um jede denkbare Situation kümmern, ganz gleich wie unwahrscheinlich sie auch sein mag?
Gibt es wirklich überhaupt keine Grenze nach unten? Ich meine ich habe viel Phantasie, ich könnte mir Dinge ausdenken, wo du sicher sagen wirst, dass das höchstens 1x in 1 Milliarde Jahren geschehen kann, wenn überhaupt. Wenn man das durchdenkt, dann kommt man zu dem Schluss, dass es so eine Untergrenze auf jeden Fall geben muss, ein Restrisiko, um das man sich nicht mehr kümmern muss, weil es einfach unvernünftig und unverhältnismäßig wäre. Fragt sich dabei nur wo sie liegt und ob unsere Beispiele da noch drüber liegen oder nicht.
Um das konkreter zu machen:
Nehmen wir an das Auto ist so fortentwickelt und hat so gute Sensoren, dass die bisher vorgeschlagenen tragischen Szenarien nach menschlichem Ermessen nicht vorkommen können (z.B. Oma-Kind-Szenario nicht, weil das Auto das praktisch 100% zuverlässig schon so rechtzeitig erkennen kann, dass sein Bremsweg immer ausreichen wird).
In dem Fall ergäbe sich kein Problem.
Nehmen wir nun an, dass das aber nicht genügend ausschließbar wäre, dann muss man sich darum kümmern, ja.
Da sehe ich dann verschiedene Möglichkeiten.
Die einfachste ist folgende:
If "Hindernis auf dem Weg" then mache Vollbremsung.
If "Kollision wahrscheinlich dennoch nicht vermeidbar" then weiche aus, weiche Menschen bevorzugt aus.
If "Menschen ausweichen wahrscheinlich nicht möglich" then weiche so weit wie möglich aus.
Fertig! "Weiche so weit wie möglich aus" hat eine eindeutige Lösung und die Intention den möglichst geringsten Gesamtschaden zu verursachen. Mehr kann aber muss nicht.
Die Welt ist ja auch in Wirklichkeit nicht schwarz/weiß wie im Beispiel angedacht. Man kann im Voraus gar nicht wissen oder ausrechnen was bei der Oma-Kind-Situation die beste Lösung ist, vielleicht ist die beste Lösung auch zwischen beiden durchzufahren, beide zu verletzten, aber keinen so schwer, dass er stirbt? Woher soll die KI die Knochendichte, die Robustheit und den allgemeinen Gesundheitszustand der beiden Menschen kennen und wie sie konkret fallen werden?
Es werden dann zwar in extrem seltenen Fällen Menschen umgefahren, aber das halte ich für akzeptabel, so lange es praktisch nie geschieht, eben mit der Begründung, dass der Einsatz dieser Technik enorm viel mehr Menschenleben rettet.
Alternativ könnte man tatsächlich auch den Zufallsgenerator einsetzen oder eine KI, die eben nicht völlig exakt arbeitet, eine gewisse Unschärfe enthält (tun das übringens nicht alle Rechner, man kann ja nicht mit unendlich vielen Nachkommastellen rechen?).
Eine Lösung besteht darin auch die Grenze selbst unscharf zu machen, also nur ungefähr festzulegen, indem man auch in die Grenze ein Zufallselement mit reinrechnet.Wenn würfeln: wo ziehst du die Grenze zwischen fester Regel und würfen? Bei eins-zu-eins Situationen wie „Oma vs. Kind“? Oder eins-zu-fünf wie „Oma vs Familie“?
Die nächste Möglichkeit sehe ich in negativer Programmierung ("tue nicht", das Fahrzeug tut dann das, was übrigbleibt):
Es ist aber ethisch ein Unterschied. Das Auto fährt in einer Vollbremssituation auch nicht mehr in dem Sinne aktiv, sondern wird von der Trägheit der Masse vorangetrieben.
Warum soll man eine Programmierung, bei den dann nur noch eingeschränkt möglichen Lenkbewegungen dabei nicht negativ formulieren können? Man hält sich dabei einfach an dem, was ein Mensch in der Situation richtigerweise tun würde: Er würde sicher auch nicht auf die Oma zielen, er würde versuchen auszuweichen, dem Kind aber noch mehr, sein Gehirn ist ausschließlich damit beschäftigt einen Weg zum Ausweichen zu finden, den möglichst geringsten Schaden zu verursachen, nicht damit beschäftigt ein Ziel zu suchen, das zu überfahren ist. Wenn es ein Gehirn kann, warum soll das dann eine KI prinzipiell nicht können? Das Ergebnis ist dasselbe und es mag auch äquivalent zur anderen Formulierung der Programmierung sein, aber es ist die die Intention, die hier ethisch zählt, der Rest ist dann einfach Tragödie, an Tragödien hat niemand Schuld. Das ist mein Punkt.
Es ist aber von der Absicht etwas anderes, das ist ethisch gesehen der Punkt, nicht die mathematische Äquivalenz. (s.o.)tomS hat geschrieben: ↑29. Jan 2018, 20:37Das ist aber im Sinne eines Algorithmus vollständig äquivalent zu meinem Code.
Potentielle Ziele einschließlich aller Lücken werden erfasst, und es wird das Ziel mit dem geringsten Wert ausgewählt. Es ist egal, wie du das umgangssprachlich formulierst, es können Situationen auftreten, in denen ausschließlich lebende potentielle Ziele existieren, zwischen denen auszuwählen ist.
Nun haben zwar KIs (bis auf weiteres) keine Absichten, aber die Programmierer haben sie. Wenn also der Programmierer negativ formuliert, dann kommt er da viel besser raus.
Doch, auch das kann ich, auch "nichts weiter tun" ist aus meiner Sicht eine akzeptable Option. Bremsen wird sie sie ja auf jeden Fall, wenn sie in solchen Extremseltenfällen dann dabei geradeaus fährt, dann ist das m. E. ethisch schon ausreichend, immer gedenk der vielen anderen Leben, die gerettet werden. Wichtig dabei ist, dass solche Fälle auch tatsächlich entsprechend selten sein müssen, nur dann funktioniert das Argument, jedoch bin ich da zuversichtlich.tomS hat geschrieben: ↑29. Jan 2018, 20:37Wenn du die Regel „soweit physikalisch möglich: weiche allen lebenden Zielen aus“ implementierst, wie soll die Software sich verhalten, wenn diese Regel keine Lösung zurückgibt? Soll die Software nichts tun? Auch dann „tut sie ja etwas“, z.B. geradeaus weiterfahren. Du kannst das jedenfalls nicht offen lassen.
Ja. Aber zunächst einmal muss man auch herausfinden, worum man sich überhaupt kümmern muss und was man getrost unter den Tisch fallen lassen kann.
Da würde ich pragmatisch vorgehen: Wenn es sich durch Versuch und Erfahrung genügend erwiesen hat, dass das System genügend gut und sicher funktioniert, dann ist es nicht erforderlich bis ins Detail zu wissen, wie es das macht. Man muss einfach nicht alles bis ins kleinste Detail kontrollieren und wissen, so interessant das aus wissenschaftlicher Sicht auch sein mag, weder beim Sicherheitsgurt, noch bei einer KI, man muss das nur ausreichend gut wissen. Was ausreichend ist und was nicht, ist Gegenstand gesellschaftlicher Konvention.tomS hat geschrieben: ↑29. Jan 2018, 20:37Der Algorithmus eines neuronalen Netzes ist m.E. trivialerweise beweisbar korrekt. Was absolut unklar ist, wie sich die Auswahl der Trainingssituationen auf die Reaktion auswirkt. Bereits bei einfachen Situationen wie beim Brettspiel Go ist den menschlichen Experten nicht mehr klar, warum die Software so spielt wie sie spielt; lediglich das Ergebnis zählt. Dann müsstest du mit der Situation leben, dass du keine Regel angeben kannst, wie sich das System in einer bestimmten Klasse von Situationen verhält, weil du sie nicht aus dem System extrahieren kannst; du kannst aber weiterhin in jeder konkreten Situation die Entscheidung nachvollziehen. Es ist – aus heutiger Sicht – natürlich rechtlich fragwürdig, wenn ein System prinzipiell nur noch statistischen Kriterien genügt.
Warum nicht? Findest du es ethisch vertretbar, was weiß ich wie viele Menschenleben zu opfern, indem du sie nicht einsetzt, nur weil sie noch nicht vollkommen ist, obwohl sie dafür schon gut genug wäre?
Ist ein ausgelöschtes Menschenleben, wo du konkret nachvollziehen kannst, dass letztlich ein präziser Algorithmus daran beteiligt war schlimmer, als ein ausgelöschtes Mensschenleben, wo das das nicht kannst, auch noch schlimmer, wenn es viele unkonkrete Menschenleben wären? Warum?tomS hat geschrieben: ↑29. Jan 2018, 20:37Dieser Aussage stimme ich nicht zu.seeker hat geschrieben:In Anbetracht dessen wird für das obige Problem fast jede Lösung akzeptabel sein, weil es sich im Vergleich um Peanuts handelt, man sollte das nicht größer machen als es ist.
Es sind für mich keine Peanuts, dass ein letztlich präziser Algorithmus ein konkretes Lebe ausgelöscht hat.
Warum ist die Entscheidung, tausende von Menschen zu Lasten einiger weniger durch einen Algorithmus zu retten vertretbar, diejenige, tausende von Menschen zu Lasten einiger weniger durch einen Flugzeugabschuss zu retten dagegen verwerflich?
Ich halte es ehrlich gesagt auch für falsch das Flugzeug nicht abzuschießen, wenn völlig sichergestellt ist, dass dadurch deutlich mehr Menschenleben gerettet werden als geopfert werden müssen. Wichtig ist hier der Punkt "sicher": Nur wenn es sicher ist, dann wäre es aus meiner Sicht völlig unethisch die deutlich mehr Menschen im Stadion durch Untätigkeit zu opfern. Viele Menschenleben sind nunmal wichtiger als wenige Menschenleben - oder wo wolltest du sonst die Grenze ziehen? Wann darf man das Flugzeug mit 300 Menschen drin abschießen? Wenn dadurch 10.000 Leben gerettet werden? Nein? Und wenn es eine Million ist? Nein? Und wenn es um die gesamte sonstige Menschheit ginge? Würdest du die gesamte Menschheit durch Untätigkeit opfern, um 300 zu retten? Was würde dann aus der Welt, aus der menschlichen Zivilisation?
Es ist klar, dass so etwas wie ein Passagierflugzeugabschuss eine sehr harte Entscheidung ist, ich wollte sie nicht treffen müssen, aber es sind klare Situationen denkbar, wo kein vernünftiger Weg daran vorbei ginge, wo das richtig und ethisch korrekt ist.
Beim autonomen Auto ist es dasselbe: Wenn dadurch deutlich mehr Menschen gerettet werden können, dann ist es aus meiner Sicht unethisch es nicht zu erlauben, auch dann, wenn die Technik noch nicht perfekt ist.
Allerdings sind dann nat. Anstrengungen zu unternehmen, die "Kollateralschäden" im Zuge der weiteren techn. Entwicklung auf ein möglichst geringes Maß zu drücken.
Dieses Maß hängt aber m. E. bei weitem nicht nur von der Programmierung ab "wo soll das Auto in so einer Situation hinfahren", nicht einmal hauptsächlich, sie hängt viel mehr von dem ganzen drum herum ab, von den Verkehrswegen, den Sensoren des Fahrzeugs, dem Verhalten der Menschen, usw.
Abschließend: Wie ist das eigentlich bei den Autopiloten bei den Flugzeugen geregelt?