tomS hat geschrieben: ↑22. Mai 2018, 22:44
Siehe jetzt die Diskussion um die ersten Unfälle, die durch autonome Fahrzeuge verursacht wurden.
tomS hat geschrieben: ↑22. Mai 2018, 22:44
Das spannende ist weniger die Antwort als vielmehr die Frage bzw. der angelegte Maßstab.
Ja. Wie mir scheint drehen sich diese Diskussionen im Moment noch eher um andere Dinge als die Probleme, die wir hier besprechen.
Sie handeln scheints eher noch davon, wie perfekt die Technik ist. Allgemein scheint man an autonome Fahrzeuge höhere Maßstäbe anzulegen als an Fahrzeuge mit menschlichen Fahrern. Warum eigentlich? Misst man an der Stelle nicht evtl. mit zweierlei Maß?
Ich meine, ein autonomes Fahrzeug sollte natürlich mindestens so sicher für alle Menschen sein wie ein manuell gesteuertes Fahrzeug, sonst wäre es ja kein echter Fortschritt, aber die Gretchenfrage scheint mir: Um wie viel sicherer muss es sein? Muss es wirklich 1000 Mal sicherer sein? Würde ethisch/moralisch gesehen nicht schon ein Sicherheitsplus von wenigen Prozent ausreichen?
Der Nutzen/Fortschritt beschränkt sich ja auch nicht aussschließlich auf das Sicherheitsplus.
tomS hat geschrieben: ↑22. Mai 2018, 22:44
Ich verstehe nicht, wieso gerade dem Fahrer eine Sonderrolle zukommen soll. Das entspricht der heutigen asymmetrischen Situation: der Fahrer kauft und steuert das Auto.
Eben drum,
weil es die heutige asymmetrische Situation wenigstens noch zum Teil abbilden würde.
Ich fände das auch gerecht, denn der Fahrer ist ja auch der direkte Nutznießer: Wer den Nutzen hat, soll auch die Verantwortung für eventuelle Schäden tragen, mindestens zu einem gewissen Teil. Diese Idee ergibt sich mir auch aus unserer Gesellschaftsform, die das Individuum mit allen Rechten und Pflichten ja achtet und hochhebt, in den Mittelpunkt stellt. Es gibt andere Gesellschaftsformen, wo das nicht so ist, in China wird man das vielleicht anders machen wollen.
Außerdem wird es in der Realität eh so sein, dass nicht alle Programmierungen aller autonomen Modelle exakt gleich sein können.
Wenigstens beim Kauf des Fahrzeugs wird der Nutzer also sowieso gewisse Optionen haben, warum nicht auch hinterher noch?
Und es wird selbstverständlich auch Tuningsätze geben, legale und illegale.
Auch wird der Verbraucher es einfordern ein gewisses Maß an Selbstkontrolle zu behalten und sein persönliches Fahrprofil einstellen zu können, wenigstens die Illusion der Kontrolle wird er behalten wollen.
Solche optionalen Fahrprofile haben wir in vielen heutigen höherwertigen Autos schon: da kannst du auch schon sportlich oder ökonomisch, usw. einstellen.
tomS hat geschrieben: ↑22. Mai 2018, 22:44
der Fahrer kauft das Auto, das von einer zuvor programmierten SW gesteuert wird, die unabhängig vom konkreten Fahrer und unabhängig von der Einzelsituation implementiert ist. Das ist der Witz des ganzen.
Das jetzt wieder an den Fahrer zurückzugeben hieße, diverse Vorteile des autonomen Fahrens aufzugeben.
Das sehe ich nicht so, nicht in der Schärfe. Es geht ja darum, wie weit das optionale Mitbestimmungsrecht des Fahrers gehen soll, das kann prinzipiell sehr viel sein aber auch sehr wenig. In deinem Sinne würdest du also argumentieren, dass der Fahrer nur sehr wenig selbst über das Fahrverhalten entscheiden können soll.
tomS hat geschrieben: ↑22. Mai 2018, 22:44
Ein wesentlicher Vorteil bestünde z.B. gerade darin, dass der aktive Gefährder selbst überproportional zu Gunsten des passiven Opfers gefährdet wird. Das empfinden sicher viele als gerechter. Die Idee, den aktive Gefährder weiterhin zu Lasten des passiven Opfers zu schützen und ihm stattdessen anschließend die moralische Schuld zuzuweisen halte ich für widersinnig. Dann kann man’s auch gleich so lassen wie’s jetzt ist.
Das wäre ein Option, die man dem Fahrer in gewissen Grenzen überlassen könnte: Wie soll der Algorithmus die Sicherheit der Insassen vs die Sicherheit der anderen Verkehrsteilnehmer gewichten?
Man muss das nicht unbedingt dem Fahrer überlassen, man muss das vorher diskutieren, aber man könnte es in gewissen Grenzen tun.
Das kann auch sinnvoll sein: Wenn ich alleine fahre, dann ist evtl. eine geringere Gewichting der Insassensicherheit angebracht als wenn ich mit drei kleinen Kindern im Auto rumfahre. Soll das alles der Algorithmus entscheiden, will man sich das als Nutzer wirklich vorschreiben lassen? Und woher soll er das alles wissen, die Daten dafür hernehmen? Wäre dafür nicht eine Totalüberwachung notwendig und wäre das nicht Bevormundung? Ich bin mehr dafür, dass man das Selbstbestimmungsrecht selbstverantwortlicher, mündiger Bürger möglichst achtet.
Und ja, wenn der Nutzer einen gewissen Einfluss auf den Algorithmus haben kann, dann kann er auch Fehler machen, dann kann er ihn auch suboptimal einstellen, ja das ist so. Die Freiheit der Bürger kostet etwas, im Extremfall kann sie sogar Menschenleben kosten, das ist der Preis der Freiheit.
tomS hat geschrieben: ↑22. Mai 2018, 22:44
Ich könnte mir vorstellen, dass man ausgewählte Testpersonen in Simulatoren steckt sowie zusätzliche “Schöffen” zur Begutachtung der Unfallsituationen heranzieht; diese trainieren dann ein neuronales Netz. Ich könnte mir außerdem vorstellen, reale Fahrten aufzuzeichnen und reale Unfallsituationen bewerten zu lassen. Man könnte das auch dahingehend erweitern, dass nicht nur die Unfallfolgen sondern bereits der zum Unfall führende Fahrstil bewertet werden. Man würde dadurch ein stabiles neuronales Netz erhalten, dessen detaillierte Regeln niemand kennt, an dem jedoch alle mitwirken können. Man könnte diese Vorgehensweise auch testen, z.B. indem man mehrere Netze durch unterschiedliche Gruppen (jung/alt, m/w, Einkommen, Wohnort, Stadt/Land, ...) trainieren lässt und diese statistisch vergleicht. Über den Erfolg könnte z.B. eine Ethikkommission entscheiden.
Auch dieser Ansatz ist natürlich problembehaftet: Auswahlkriterien, Datenschutz, ...
Vielleicht. Ja, auch das ist problembehaftet. Am Ende wird es keine einfache Lösung geben, es ist ein evolutionärer Prozess vonnöten, der zu einer vielschichtigen, komplexen Lösung führt.
Das wirklich Neue bei der ganzen Geschichte ist für mich, dass wir durch solche Technik mit ethischen Dilemmas konfrontiert werden, die wir bisher ignorierend unter den Teppich kehren konnten, was nun nicht mehr möglich sein wird. Darin liegt allerdings auch ein gesellschaftlicher Fortschritt, wenigstens die Chance dazu.