Hinweis auf die DSGVO: Auf unserer Seite werden keine Dritt-Anbieter-Cookies verwendet und nur Daten erfasst, welche für das Minimum an Board-Funktionalität notwendig sind.
Bevor Sie sich registrieren oder das Board verwenden, lesen Sie bitte zusätzlich die DSGVO-Erklärung, welche in der Navigationsleiste verlinkt ist.

Kurzfassung der unserer Meinung nach wichtigsten DSGVO-Punkte:
Es kann vorkommen, dass Benutzer eigenverantwortlich Videos oder sonstige Medien in ihren Beiträgen verlinken, welche beim Aufruf der Forenseite als Teil der Seite samt zugehörigem Material mitgeladen werden. Sollten Sie dies nicht wünschen, verwenden Sie beim Benutzen des Forums einen Blocker wie z.B. uMatrix, welcher das Laden von Inhaltsblöcken von Fremd-URLs effektiv unterbinden kann.
Wir blenden keine Werbung ein und schränken die Inhalte in keinster Weise bei Benutzung von Addblockern ein. Dadurch ist die Grundfunktionalität des Forums auch bei vollständigem Blockieren von Drittanbieter-Inhalten stets gegeben.

Cookies werden unsererseits nur verwendet um das Einloggen des Benutzers für die Dauer der Forenbenutzung zu speichern. Es steht dem Benutzer frei die Option 'Angemeldet bleiben' zu verwenden, damit der Cookie dauerhaft gespeichert bleibt und beim nächsten Besuch kein erneutes Einloggen mehr notwendig ist.
EMail-Adressen werden für Kontakt bei wichtigen Mitteilungen und zur Widerherstellung des Passwortes verwendet. Die verwendeten IPs können von uns ohne externe Hilfsmittel mit keiner realen Person in Verbindung gebracht werden und werden nach spätestens 7 Tagen gelöscht. Diese IPs werden höchstens verwendet um Neuanmeldungen unerwünschter oder gesperrter Nutzer zu identfizieren und zu unterbinden. Wir behalten uns daher vor bei Verdacht, die Frist für die IP-Löschung auf maximal 14 Tage zu verlängern.
Unsere Webseite läuft auf einem virtuellen Linux-Server, welcher von einem externen Anbieter gehostet wird. Etwaige Verstöße der DSGVO-Auflagen seitens dieses deutschen Hosters können wir nicht feststellen und somit auch nicht verfolgen.
Wir halten Backups unserer Datenbanken, welche in regelmäßigen Abständen als Schutz vor Katastrophen, Hackerangriffen und sonstigen Ausfällen erstellt werden. Sollte ein Nutzer die Löschung seiner Daten wünschen, betrachten wir es als Unzumutbar die Backups auch von den Daten zu befreien, da es sich hierbei um eine mehrtägiges Unterfangen handelt - dies ist für eine Einzelperson beim Betrieb eines privaten Forums nicht zumutbar möglich ohne das Backup komplett zu löschen.
Sollten Sie etwas gegen die dauerhafte anonyme Speicherung ihrer EMail-Adresse, ihres Pseudonyms und ihrer Beiträge in einem Backup haben, sehen Sie von der Registrierung in diesem Forum ab. Für Mitglieder, welche vor dem 25.05.2018 registriert waren steht jedoch das Recht im Raum, eine Löschung der Datenbank-Backups zu beantragen.



Wenn dies Ihr erster Besuch hier ist, lesen Sie bitte zunächst die FAQs sowie die wesentlichen Regeln zur Benutzung des Forums.
Um an den Diskussionen teilnehmen zu können, müssen Sie sich zunächst registrieren.

Algorithmen auf dem Richterstuhl

Wissenschaftsgeschichte, Wissenschaftstheorie bzw. -philosophie, Technik
positronium
Ehrenmitglied
Ehrenmitglied
Beiträge: 2832
Registriert: 2. Feb 2011, 20:13

Re: Algorithmen auf dem Richterstuhl

Beitrag von positronium » 7. Feb 2018, 11:47

ralfkannenberg hat geschrieben:
6. Feb 2018, 23:35
Aber man kann sich nie sicher sein, dass sie nicht mit dem nächsten Evolutions- bzw. Lernschritt bösartig wird
Man sollte das nicht dem Zufall oder der eigenen Bequemlichkeit überlassen. Statt dessen sollte man der AI ein Umfeld bieten, in der es für sie keinen Sinn macht und auch keinerlei Mehrwert generiert, bösartig zu sein.
Wertungen wie "bösartig" dürften nicht nur so facettenreich, sondern auch völlig von der Perspektive abhängig sein, dass das nicht durch die Umgebung kontrolliert werden kann. Ich gehe sogar davon aus, dass auch eine KI unvorhersehbare und unkontrollierbare "evolutionäre Sprünge" durch ihr Selbstlernen machen wird. Von daher sehe ich eine Kontrolle von außen, oder auch eine gegenseitige Kontrolle verschiedener KI (die nicht alle selbstlernend sein sollten) als unbedingt nötig an.

positronium
Ehrenmitglied
Ehrenmitglied
Beiträge: 2832
Registriert: 2. Feb 2011, 20:13

Re: Algorithmen auf dem Richterstuhl

Beitrag von positronium » 7. Feb 2018, 11:51

seeker hat geschrieben:
7. Feb 2018, 10:43
So, und jetzt überlegt einmal, was passiert, wenn man KIs, also überlegene Mustererkenner auf solche Big Data loslassen würde?
Das könnte auch bei uns geschehen, zunächst vielleicht nicht einmal vom Staat, stattdessen z.B. von Firmen, die einen Score für deine Kreditwürdigkeit generieren.
(Das gibt es ja schon, ist das dahingehend reguliert? Ich glaube nicht, das ist eher ne Black Box, was dort geschieht.) Man kann sich sicher viele weitere Beispiele einfallen lassen.
Was passiert dann?
Die Politik hat das wahrscheinlich noch gar nicht registriert. Die Wirtschaft ist in ihrem Optimierungszwang sehr schnell in der Einführung von Verbesserungen (in ihrem Sinn) jeglicher Art - die anderen schlafen ja auch nicht...

positronium
Ehrenmitglied
Ehrenmitglied
Beiträge: 2832
Registriert: 2. Feb 2011, 20:13

Re: Algorithmen auf dem Richterstuhl

Beitrag von positronium » 7. Feb 2018, 11:58

ralfkannenberg hat geschrieben:
7. Feb 2018, 11:38
Diese "Vorkehrungen" erhöhen die Chancen, bei der nächsten "Umorganisation" (synonym zu: "Stellenabbau") nicht betroffen zu sein. Gab es bis vor 2 Jahren noch einen Aufschrei in der Presse, wenn ein Arbeitgeber einige hundert Stellen abgebaut hat, so ist es inzwischen "normal", wenn einige tausend Stellen abgebaut werden.
Das ist ja auch normal. Was soll ein Unternehmen mit Angestellten, für die keine Arbeit da ist?
Ich weiß nicht, warum diesbezüglich immer Unternehmen kritisiert werden. Wenn das unerwünscht ist, muss eben der Staat eine Erhöhung des Arbeitslosenversicherungsbeitrags beschließen und daran die Unternehmen beteiligen, damit für die Leute nach Entlassung gesorgt werden kann. Aber das geht ja angesichts der globalen Billigkonkurrenz auch nicht. Unnötiges Personal weiter zu beschäftigen aber ebenso wenig.

ralfkannenberg
Ehrenmitglied
Ehrenmitglied
Beiträge: 3587
Registriert: 13. Jan 2017, 10:00

Re: Algorithmen auf dem Richterstuhl

Beitrag von ralfkannenberg » 7. Feb 2018, 12:14

positronium hat geschrieben:
7. Feb 2018, 11:58
Das ist ja auch normal. Was soll ein Unternehmen mit Angestellten, für die keine Arbeit da ist?
Hallo positronium,

dann darf man sich aber nicht wundern, wenn da nach chinesischem Vorbild Datenbanken miteinander verbunden und Informationen über die Belegschaft eingeholt werden, damit man "objektiver" beurteilen kann, wen man behalten will und wen man in die Arbeitslosigkeit und damit verbunden in die Sozialhilfe schicken will. Wobei letzteres kein "Problem" ist, da das für die Firmen "out of scope" ist.

Wobei ich an dieser Stelle keinen Zusammenhang zu den AIs sehe.


Freundliche Grüsse, Ralf

positronium
Ehrenmitglied
Ehrenmitglied
Beiträge: 2832
Registriert: 2. Feb 2011, 20:13

Re: Algorithmen auf dem Richterstuhl

Beitrag von positronium » 7. Feb 2018, 12:20

ralfkannenberg hat geschrieben:
7. Feb 2018, 12:14
positronium hat geschrieben:
7. Feb 2018, 11:58
Das ist ja auch normal. Was soll ein Unternehmen mit Angestellten, für die keine Arbeit da ist?
dann darf man sich aber nicht wundern, wenn da nach chinesischem Vorbild Datenbanken miteinander verbunden und Informationen über die Belegschaft eingeholt werden, damit man "objektiver" beurteilen kann, wen man behalten will und wen man in die Arbeitslosigkeit und damit verbunden in die Sozialhilfe schicken will. Wobei letzteres kein "Problem" ist, da das für die Firmen "out of scope" ist.
Ja, wundern darf man sich tatsächlich nicht. So ein Unternehmen will eben die besten (leistungsfähigsten, gesündesten usw.) behalten. Da muss der Gesetzgeber 'ran und regulieren, was erlaubt ist. Obwohl ich die Gesetzesflut auch nicht begrüße.
Vielleicht helfen eines Tages auch Regierungscomputer so etwas zu regulieren - ja, auch das ist wieder problematisch. Die Welt wird immer komplizierter. :roll:

ralfkannenberg
Ehrenmitglied
Ehrenmitglied
Beiträge: 3587
Registriert: 13. Jan 2017, 10:00

Re: Algorithmen auf dem Richterstuhl

Beitrag von ralfkannenberg » 7. Feb 2018, 16:05

positronium hat geschrieben:
7. Feb 2018, 12:20
Vielleicht helfen eines Tages auch Regierungscomputer so etwas zu regulieren - ja, auch das ist wieder problematisch. Die Welt wird immer komplizierter. :roll:
Hallo positronium,

nein, die Welt wird nicht komplizierter, im Gegenteil sie wird wieder einfach. Und auf der Lösungssuche wird die AI feststellen, dass es derzeitig zu viele Menschen auf der Erde gibt.

Und da schon hier im Forum keine Mehrheit erreicht werden konnte, Tötungen billigend in Kauf zu nehmen prinzipiell zu verbieten, braucht die AI nur noch nach Lücken zu suchen, wo Tötungen erlaubt sind. Das können statistische Gründe sein betreffend Kostenverursachung von Personen hohen Lebensalters, das können grundsätzlich tolierierte Todesopfer während militärischen Auseinandersetzungen, also während Kriegen sein, das können auch hinreichend intelligente autonome Fahrzeuge sein, die auch mal ohne Kollisionsgefahr den "Todesalgorithmus" zur Anwendung bringen, weil das beiträgt, ein anderes Ideal, nämlich demjenigen der Regulierung der Weltbevölkerung, zu erfüllen.

Und warum den kill -9 Befehl tätigen, wenn man doch selber von der Vorgehensweise der AIs profitiert und ohnehin niemand zur Verantwortung gezogen werden kann ?


Freundliche Grüsse, Ralf

ralfkannenberg
Ehrenmitglied
Ehrenmitglied
Beiträge: 3587
Registriert: 13. Jan 2017, 10:00

Re: Algorithmen auf dem Richterstuhl

Beitrag von ralfkannenberg » 7. Feb 2018, 16:28

positronium hat geschrieben:
7. Feb 2018, 11:47
oder auch eine gegenseitige Kontrolle verschiedener KI (die nicht alle selbstlernend sein sollten) als unbedingt nötig an.
Hallo positronium,

tatsächlich bin auch ich der Meinung, dass deren robuste Realisierung die Lösung der ganzen Problematik sein wird. Und zwar ganz genau in der Form, wie Du das vorgeschlagen hast.


Freundliche Grüsse, Ralf

ralfkannenberg
Ehrenmitglied
Ehrenmitglied
Beiträge: 3587
Registriert: 13. Jan 2017, 10:00

Re: Algorithmen auf dem Richterstuhl

Beitrag von ralfkannenberg » 8. Feb 2018, 12:27

Hallo zusammen,

mal etwas Aktuelles "im Kleinen": Eine autonome Verkehrssimulation aus dem Digital Experience Lab am Swiss Testing Day 2018

Ich werde beruflich an diese Konferenz gehen.


Freundliche Grüsse, Ralf

deltaxp
Ehrenmitglied
Ehrenmitglied
Beiträge: 1129
Registriert: 23. Sep 2010, 17:02

Re: Algorithmen auf dem Richterstuhl

Beitrag von deltaxp » 8. Feb 2018, 16:53

interessanter weise hört der ki Chat von bob und aliche oben für mich nicht so unsinnig an

bob will irgendwas haben und Alice soll den ball dafür bekommen.

Alice will den ball nicht, da er keinen wert für sie "balls have Zero to me". die weiteren "to me" sind Verstärkungen dieser aussage.
bob verstärkt wiederum seine aussage. kürz ab (da er weiss das es um den ball gibt) steht dort nur you, statt "You can have the ball"
und seine Verstärkung sind die die vieles i also ichs).

letzlich scheinen beide ki den ball nicht zu wollen, weil er für beide den wert 0 hat, bob versucht Alice den ball anzudrehen und Alice will ihn auch nicht, da er für beide keinen wert hat

sie benutzen weiterhin englisches vocabular nur ihre sätze sind angepasst. auch wenn sie sich für uns bescheuert anhören, wenn sie reinforced learnen und keine wirklichen Grammatikregeln haben generieren sie irgendwann sätze, die mit menschlichen sätzen nicht mehr viel gemein haben. denn das einzige was entscheidet ist der reward also der erfolgreiche abschluss der Verhandlung. und der triggered die sätze.

deltaxp
Ehrenmitglied
Ehrenmitglied
Beiträge: 1129
Registriert: 23. Sep 2010, 17:02

Re: Algorithmen auf dem Richterstuhl

Beitrag von deltaxp » 8. Feb 2018, 17:26

ralfkannenberg hat geschrieben:
7. Feb 2018, 11:38
Was ich sagen will: Du brauchst nicht nach China zu gehen, um solche "Phänomene" vorzufinden und auch ich habe vergangenes Jahr im Rahmen eines wirklich interessanteren Projektes als Nicht Kader-Person während etwa 3 Monaten keine Grenzen zwischen Arbeitsleben und Privatleben gezogen.
Freundliche Grüsse, Ralf
der Unterschied ist wohl nur, dass du das vielleicht freiwillig gemacht hast, während anderere nicht-kader-Personen durch ihr arbeitsumwelt mehr oder weniger dazu gezwungen werden.

deltaxp
Ehrenmitglied
Ehrenmitglied
Beiträge: 1129
Registriert: 23. Sep 2010, 17:02

Re: Algorithmen auf dem Richterstuhl

Beitrag von deltaxp » 8. Feb 2018, 17:27

positronium hat geschrieben:
7. Feb 2018, 11:47
Ich gehe sogar davon aus, dass auch eine KI unvorhersehbare und unkontrollierbare "evolutionäre Sprünge" durch ihr Selbstlernen machen wird.
Machen sie ja jetzt schon, Alpha Zero ist auf erfolgreiche schacheröffnungen gekommen, die bisher von keinem menschen entdeckt wurden.

deltaxp
Ehrenmitglied
Ehrenmitglied
Beiträge: 1129
Registriert: 23. Sep 2010, 17:02

Re: Algorithmen auf dem Richterstuhl

Beitrag von deltaxp » 8. Feb 2018, 17:40

ralfkannenberg hat geschrieben:
7. Feb 2018, 12:14
dann darf man sich aber nicht wundern, wenn da nach chinesischem Vorbild Datenbanken miteinander verbunden und Informationen über die Belegschaft eingeholt werden, damit man "objektiver" beurteilen kann, wen man behalten will und wen man in die Arbeitslosigkeit und damit verbunden in die Sozialhilfe schicken will. Wobei letzteres kein "Problem" ist, da das für die Firmen "out of scope" ist.

Wobei ich an dieser Stelle keinen Zusammenhang zu den AIs sehe.
der ist groß, weil durch KI's wie in anderen foren schon beschrieben wohl in den nächsten jahren nach schätzungen wohl 20-30% der arbeitsplätze ersatzlos wegwallen, was früher halt nicht so war, wo Innovation, um sich einen wettberwerbsvorteil aufgrund gestiegener Arbeitsproduktivität und/oder "unique selling Points" auch immer einen Strukturwandel nach sich zogen wo die freigesetzten arbeitskräfter unterkamen. das wird wohl nicht mehr so sein. dann muss man sich bei einem so grossen Prozentsatz der Bevölkerung ohne arbeit schon Gedanken machen. 30 % der bevölkerung von hartz4 leben zu lassen wird wohl nicht gehen. das ist ja der sogenannte eigene ast an dem der Kapitalismus der heutigen form sägt.

ralfkannenberg
Ehrenmitglied
Ehrenmitglied
Beiträge: 3587
Registriert: 13. Jan 2017, 10:00

Re: Algorithmen auf dem Richterstuhl

Beitrag von ralfkannenberg » 8. Feb 2018, 19:24

deltaxp hat geschrieben:
8. Feb 2018, 16:53
interessanter weise hört der ki Chat von bob und aliche oben für mich nicht so unsinnig an
Hallo deltaxp,

für mich schon.

deltaxp hat geschrieben:
8. Feb 2018, 16:53
Alice will den ball nicht, da er keinen wert für sie "balls have Zero to me". die weiteren "to me" sind Verstärkungen dieser aussage.
Damit das möglich ist muss der AI mitgeteilt werden, was eine "Verstärkung" ist.

deltaxp hat geschrieben:
8. Feb 2018, 16:53
kürz ab (da er weiss das es um den ball gibt) steht dort nur you, statt "You can have the ball"
und seine Verstärkung sind die die vieles i also ichs).
Warum sollte Bob abkürzen: haben sie zu wenig Speicher, um ihren Dialog abzubilden ?

deltaxp hat geschrieben:
8. Feb 2018, 16:53
sie benutzen weiterhin englisches vocabular nur ihre sätze sind angepasst. auch wenn sie sich für uns bescheuert anhören, wenn sie reinforced learnen und keine wirklichen Grammatikregeln haben generieren sie irgendwann sätze, die mit menschlichen sätzen nicht mehr viel gemein haben. denn das einzige was entscheidet ist der reward also der erfolgreiche abschluss der Verhandlung. und der triggered die sätze.
Das macht leider auch wenig Sinn: weder ist der Dialog lang, so dass Diskplatz oder Memory eine Rolle spielen würde, noch die CPU so langsam, dass sie einen Dialog in diesem Umfang nicht speichern könnte. Somit muss das jemand implemetiert haben, dass Bob und Alice nach irgendwelchen Regeln ihren Dialog optimieren sollen, denn ohne Not passiert das nicht. Gleiches gilt für die "Verstärkung": ein Computerprogramm braucht keine Verstärkung, sondern errechnet einfach den optimalen Pfad, um die Lösung zu erzielen. Und wie ich den Text verstanden habe gibt es eine solche Lösung, die sowohl für Alice als auch für Bob optimal ist.


Fazit:
Auch ohne den Code zu kennen sieht das danach aus, dass nicht die gesamte Information vom Hersteller bekannt gegeben wurde. Und zusätzlich sieht es nach einem Programmierfehler aus, da weder Alice noch Bob die optimale Lösung finden.


Freundliche Grüsse, Ralf

Benutzeravatar
seeker
Ehrenadmin
Ehrenadmin
Beiträge: 8098
Registriert: 26. Dez 2009, 10:29

Re: Algorithmen auf dem Richterstuhl

Beitrag von seeker » 22. Mai 2018, 09:49

Mir ist eine Lösung eingefallen, wie man das ethische Problem der Programmierung der Algorithmen bei selbstfahrenden Fahrzeugen in den Griff bekommen könnte:

Ganz einfach, man überlässt das in gewissen Grenzen dem Menschen, der transportiert wird, damit sind die Programmierer, Hersteller, politisch Verantwortlichen, usw. genügend aus dem Schneider. Die "gewisse Grenzen" werden vorher in der gesellschaftlichen Diskussion per Konsens festgelegt.

Ich stelle mir das so vor:
Per App oder sonstwie füllst du einmalig einen Fragebogen aus, wo auch die ethisch kritischen Situationen vorkommen (soll im Extremfall der Oma oder dem Kind ausgewichen werden?, sollen eher die Insassen oder andere Verkehrsteinehmer vor Schaden bewahrt werden?, usw.).
Daraus wird dann dein persönliches Fahrprofil für das autonome Fahrzeug erstellt.
Vor dem Losfahren wird dieses Profil an das autonome Fahrzeug übermittelt.
Im Unglücksfall liegt es dann ethisch in deiner Veranwortung, was dabei passiert, weil du das ja im Vorfeld entschieden hast, prinzipiell ganz analog wie es auch heute schon ist, beim manuellen Fahren.
Grüße
seeker


Wissenschaft ... ist die Methode, kühne Hypothesen aufstellen und sie der schärfsten Kritik auszusetzen, um herauszufinden, wo wir uns geirrt haben.
Karl Popper

Benutzeravatar
tomS
Ehrenmitglied
Ehrenmitglied
Beiträge: 10670
Registriert: 19. Nov 2007, 20:29

Re: Algorithmen auf dem Richterstuhl

Beitrag von tomS » 22. Mai 2018, 12:05

Und wer fragt die Oma?
Gruß
Tom

Der Wert eines Dialogs hängt vor allem von der Vielfalt der konkurrierenden Meinungen ab.
Sir Karl R. Popper

Benutzeravatar
Frank
Ehrenmitglied
Ehrenmitglied
Beiträge: 6164
Registriert: 12. Dez 2005, 23:22
Wohnort: Odenwald

Re: Algorithmen auf dem Richterstuhl

Beitrag von Frank » 22. Mai 2018, 12:28

seeker hat geschrieben:
22. Mai 2018, 09:49

, wo auch die ethisch kritischen Situationen vorkommen (soll im Extremfall der Oma oder dem Kind ausgewichen werden?, sollen eher die Insassen oder andere Verkehrsteinehmer vor Schaden bewahrt werden?, usw.).
Das ist aber nicht dein Ernst oder?
Gaubst du denn das ein Fahrer in einem herkömmlichen Auto(Fahrzeug) noch abwägen kann, was jetzt gerade das Richtige wäre? Das sind Reflexe , Instikt, Erfahrung, aber doch keine rationalen, abgewogenen Entscheidungen. die hier im Falle einer Extremsituation getroffen werden.

Autonomes fahren darf nie komplett von einer Software abhängig sein.(Es darf es also im Grunde gar nicht geben)
Ich werde auch dafür kämpfen, dass dieser "Blödsinn" ohne Murren weiter geführt wird.

Wie wenn es nur auf die Haftungsfrage ankäme..........?
Mit freundlichen Grüßen

Frank

Benutzeravatar
seeker
Ehrenadmin
Ehrenadmin
Beiträge: 8098
Registriert: 26. Dez 2009, 10:29

Re: Algorithmen auf dem Richterstuhl

Beitrag von seeker » 22. Mai 2018, 13:16

tomS hat geschrieben:
22. Mai 2018, 12:05
Und wer fragt die Oma?
Wer fragt die Oma, wenn du in derselben Situation bist und manuell fährst?
Frank hat geschrieben:
22. Mai 2018, 12:28
Gaubst du denn das ein Fahrer in einem herkömmlichen Auto(Fahrzeug) noch abwägen kann, was jetzt gerade das Richtige wäre? Das sind Reflexe , Instikt, Erfahrung, aber doch keine rationalen, abgewogenen Entscheidungen. die hier im Falle einer Extremsituation getroffen werden.
Es ist natürlich etwas anders, aber am Ende ist es dennoch eine Entscheidung, deren Folgen du auch auch hinterher spüren wirst.
Da kann man sich nicht wirklich vor sich selbst mit "waren halt nur Reflexe" und dergleichen herausreden.
Wenn du beim Autofahren einen Unfall baust und beim Ausweichen vor den Kindern dann die Oma über den Haufen gefahren hast, dann wirst du als normaler Mensch hinterher Gewissensbisse haben und dich tausend Mal fragen, ob deine Entscheidung richtig gewesen ist, Reflexe hin oder her: Du wirst das hinterher tausend Mal vor deinem geistigen Auge durchspielen und jede deiner Entscheidungen und der gesamten Abfolge genauestens analysieren und bewerten. "Was wäre gewesen wenn ich nicht so und so sondern so und so gehandelt hätte?"

Die Grundidee ist die:
Es ist falsch die Verantwortung und Entscheidung darüber wie sich das selbstfahrende Auto verhält völlig bei den Programmierern, den Herstellern, den Politikern zu belassen. Deshalb ist es notwendig einen gewissen Teil davon bei Passagier/Fahrer zu belassen.

So ist es heute beim manuellen Fahren auch schon:
Wir haben die Straßenverkehrsordnung, die den Rahmen vorgibt, wie man sich im Straßenverkehr zu verhalten hat.
Innerhalb dieses Rahmens gibt es aber Freiräume, die der persönlichen Verantwortung des Fahrers obliegen: Fahre ich eher defensiv oder agressiv, nutze ich die Geschwindigkeitsvorgaben, usw. 100%ig aus oder nicht, wann tue ich das, wann nicht?
Das ist die persönliche Entscheidung des Fahrers, er trägt aber daher auch die Verantwortung für die möglichen Folgen.

Deshalb halte ich das beim autonomen Fahren auch für einen gangbaren Weg:
Den Rahmen legt die Gesellschaft fest, an dieser Diskussion kann sich dann nicht zuletzt auch die Oma beteiligen.
Damit kann man sicherlich mindestens 99% der Fälle, auch der Un-Fälle abdecken.
Und das letzte Prozent der Freiheit, Entscheidung und auch der Verantwortung überlässt man dann den Leuten, die sich in ein autonomes Fahrzeug reinsetzen.
Das wäre dann eben der geringe Restanteil wo diese ethischen Zwickmühlen vorkommen.

Der Unterschied wäre nicht prinzipiell sondern nur graduell: Man muss sich dann halt vorher schon Gedanken darüber machen und kann (muss nicht! ...auch damit muss man dann leben) eine bewusste, überlegte Entscheidung treffen, anstatt Zentelsekundenentscheidungen treffen zu müssen. Wie gesagt: In beiden Fällen wird man hinterher damit leben müssen, insofern ein solches Unglück dann auch wirklich bei einem eintrifft.
Ich weiß nicht: Das erstere erscheint mir doch fast besser, weil bewusster?
Hat das nicht Ähnlichkeit mit der Entscheidung, ob ich Organspender sein will oder nicht, ob ich eine Patientenverfügung habe oder nicht, ob ich ein Testament mache oder nicht und dergleichen?

Technisch lässt sich das sicher umsetzen.
Grüße
seeker


Wissenschaft ... ist die Methode, kühne Hypothesen aufstellen und sie der schärfsten Kritik auszusetzen, um herauszufinden, wo wir uns geirrt haben.
Karl Popper

Benutzeravatar
tomS
Ehrenmitglied
Ehrenmitglied
Beiträge: 10670
Registriert: 19. Nov 2007, 20:29

Re: Algorithmen auf dem Richterstuhl

Beitrag von tomS » 22. Mai 2018, 14:25

Die Idee “die Verantwortung und Entscheidung darüber wie sich das selbstfahrende Auto verhält ...[zu] einem gewissen Teil bei Passagier/Fahrer zu belassen” halte ich in der o.g. Form für schlecht bzw. falsch.

Gerade weil autonomes Fahren Beteiligte betrifft, die bisher ihre Meinung nicht äußern oder deren Meinungsäußerung nicht berücksichtigt werden konnte, die jetzt jedoch vorab gefragt werden können und deren Meinung durchaus in die Programmierung einfließen kann, müssen diese Beteiligten = die Oma jetzt gefragt werden.

Wie soll ein gesellschaftlicher Konsens entstehen, wenn die strittigen Punkte immer durch den Fahrers entschieden werden - und sei es vorab? Und worin soll dann der gesellschaftliche Nutzen liegen?

Dieser Einwand ändert jedoch nichts an der grundlegenden Problematik: es wird über alle Befragungen keine widerspruchsfreie Programmierung geben, d.h. es wird gezwungenermaßen Entscheidungskriterien oder direkt Entscheidungsvorgaben geben, die nicht direkt von den Befragten stammen - wer auch immer diese Befragten sein mögen. Es bleibt die Frage, wer dazu das Sagen hat.

Möglicherweise ist eine derartige Befragung sogar kontraproduktiv: hätte sich z.B. die heute akzeptierte Straßenverkehrsordnung inkl. Zivil- und Strafrecht auf Basis von Befragungen entwickeln können? Je konkreter die Fragen und Antworten formuliert sind, desto eher treten Widersprüche zu Tage, die man später nicht mehr einfach wegdiskutieren kann.

Bevor man also über die Regeln selbst diskutieren kann, muss über den Prozess der Aufstellung der Regeln Einigkeit herrschen.
Gruß
Tom

Der Wert eines Dialogs hängt vor allem von der Vielfalt der konkurrierenden Meinungen ab.
Sir Karl R. Popper

Benutzeravatar
seeker
Ehrenadmin
Ehrenadmin
Beiträge: 8098
Registriert: 26. Dez 2009, 10:29

Re: Algorithmen auf dem Richterstuhl

Beitrag von seeker » 22. Mai 2018, 16:06

tomS hat geschrieben:
22. Mai 2018, 14:25
Die Idee “die Verantwortung und Entscheidung darüber wie sich das selbstfahrende Auto verhält ...[zu] einem gewissen Teil bei Passagier/Fahrer zu belassen” halte ich in der o.g. Form für schlecht bzw. falsch.
Der Kernpunkt ist dabei, dass es zu einem gewissen Teil in der Verantwortung des betreffenden Menschen (Nutzers) bliebe, welche Lösung wäre stattdessen zu bevorzugen?
tomS hat geschrieben:
22. Mai 2018, 14:25
Gerade weil autonomes Fahren Beteiligte betrifft, die bisher ihre Meinung nicht äußern oder deren Meinungsäußerung nicht berücksichtigt werden konnte, die jetzt jedoch vorab gefragt werden können und deren Meinung durchaus in die Programmierung einfließen kann, müssen diese Beteiligten = die Oma jetzt gefragt werden.
Das ist ja nicht ausgeschlossen, das soll geschehen. Nur wenn man auch solche Befragungen und Untersuchungen durchführt, lässt sich irgendwann ein gesellschaftlicher Konsens erzielen, der dann hinterher auch von der Gesellschaft mehrheitlich akzeptiert werden kann. (Es könnte gut sein, dass herauskommt, dass auch die Omas mehrheitlich dafür sind, die Kinder als schützenswerter anzusehen, wenn es an der Stelle nen deutlichen Konsens gäbe, dann würde der Faher diese Option vielleicht eben gar nicht erhalten, nur Optionen bekommen, wo kein deutlicher Konsens besteht.)
Das heißt aber nicht, dass in diesem Prozess schon alles bis aufs Kleinste festgelegt werden muss. Abgesehen davon, dass das in der Realität in der Genauigkeit eh nicht möglich ist, würde das den Nutzer dann jeglicher moralischer Verantwortung entbinden. D.h. ich halte an der Stelle gewisse Freiräume für den Nutzer für notwendig. Wie groß die sein sollen, darüber lässt sich ja gesondert diskutieren.

Und abgesehen davon, ist das was dir vorschwebt auch heute schon beim manuellen Fahren möglich. Warum befragt man nicht die Omas und führt diese ethischen Diskussionen und teilt mir das Ergebnis mit, damit ich in der nächsten Unglückssituatiuon genau weiß, wie ich mich moralisch korrekt verhalten kann?
tomS hat geschrieben:
22. Mai 2018, 14:25
Wie soll ein gesellschaftlicher Konsens entstehen, wenn die strittigen Punkte immer durch den Fahrers entschieden werden - und sei es vorab?
Es geht hier darum, wie groß sein Freiraum letztlich sein wird. Viele Punkte werden sicher nicht durch den Fahrer entscheidbar sein, z.B. wäre eine Option, wo der Faher potentielle Opfer nach Rasse gewichten darf sicher nicht moralisch vertretbar.
Aber warum soll der Fahrer/Nutzer gar keinen Freiraum haben sollen? Im heutigen Verkehrsleben hat er ihn ja auch.
Warum fordert niemand die Verkehrsregeln so strickt zu gestalten, dass jeglicher Entscheidungsfreiraum der Fahrer möglichst eliminiert wird?
Weil die Fahrer das nicht leisten könnten? Ja, mag sein, aber ich behaupte, das ist nicht der wirkliche Hauptgrund.
tomS hat geschrieben:
22. Mai 2018, 14:25
Und worin soll dann der gesellschaftliche Nutzen liegen?
Der gesellschaftliche Nutzen liegt darin, dass der Fahrer/Nutzer in dem Fall auch dann ein gewisses Maß an Verantwortung trägt, wenn er sich in ein selbstfahredes Auto setzt. Es geht letztlich darum, wer am Ende die Schuld zu tragen hat, wenn etwas passiert (nicht rechtlich, das wäre das leichter zu lösende Problem, sondern moralisch). In einer freiheitlichen, demokratischen, offenen Gesellschaft, die ein Menschenbild halten will, dass sie aus erwachsenen, selbsbestimmten, frei-verantwortlichen In­di­vi­du­en besteht, muss mindestens ein Teil dieser Schuld/Verantwortung am Individuum haften. Sie kann nicht vollständig auf den Staat oder irgendwelche Institutionen übertragen werden, nicht bei unserer Staatsform. Das wäre aber letztlich so, wenn der Fahrer/Nutzer gar keinen Einfluss auf den Algorithmus hätte, denn irgendjemand muss ja die Verantwortung für die Algorithmen tragen.
tomS hat geschrieben:
22. Mai 2018, 14:25
Dieser Einwand ändert jedoch nichts an der grundlegenden Problematik: es wird über alle Befragungen keine widerspruchsfreie Programmierung geben, d.h. es wird gezwungenermaßen Entscheidungskriterien oder direkt Entscheidungsvorgaben geben, die nicht direkt von den Befragten stammen - wer auch immer diese Befragten sein mögen. Es bleibt die Frage, wer dazu das Sagen hat.

Möglicherweise ist eine derartige Befragung sogar kontraproduktiv: hätte sich z.B. die heute akzeptierte Straßenverkehrsordnung inkl. Zivil- und Strafrecht auf Basis von Befragungen entwickeln können? Je konkreter die Fragen und Antworten formuliert sind, desto eher treten Widersprüche zu Tage, die man später nicht mehr einfach wegdiskutieren kann.

Bevor man also über die Regeln selbst diskutieren kann, muss über den Prozess der Aufstellung der Regeln Einigkeit herrschen.
Ja, man muss zunächst den Prozess der Aufstellung der Regeln entwickeln. Dazu ist ein evolutionärer Prozess vonnöten. Gesellschaftlicher Konsens oder auch ein Status Quo entsteht immer auf verschlungenen Pfaden.
Warum über Befragungen, Ausschüsse, Expertengremien, öffentliche Diskussionen, usw. kein Konsens entwicklet werden kann, der in eine widerspruchsfreie Programmierung übersetzt werden kann, ist mir nicht klar. Wie kommst du zu dieser Schlussfolgerung?
Grüße
seeker


Wissenschaft ... ist die Methode, kühne Hypothesen aufstellen und sie der schärfsten Kritik auszusetzen, um herauszufinden, wo wir uns geirrt haben.
Karl Popper

Benutzeravatar
tomS
Ehrenmitglied
Ehrenmitglied
Beiträge: 10670
Registriert: 19. Nov 2007, 20:29

Re: Algorithmen auf dem Richterstuhl

Beitrag von tomS » 22. Mai 2018, 22:44

Ich verstehe nicht, wieso gerade dem Fahrer eine Sonderrolle zukommen soll. Das entspricht der heutigen asymmetrischen Situation: der Fahrer kauft und steuert das Auto. Aber diese Situation ändert sich maßgeblich beim autonomen Fahren: der Fahrer kauft das Auto, das von einer zuvor programmierten SW gesteuert wird, die unabhängig vom konkreten Fahrer und unabhängig von der Einzelsituation implementiert ist. Das ist der Witz des ganzen.

Das jetzt wieder an den Fahrer zurückzugeben hieße, diverse Vorteile des autonomen Fahrens aufzugeben.

Ein wesentlicher Vorteil bestünde z.B. gerade darin, dass der aktive Gefährder selbst überproportional zu Gunsten des passiven Opfers gefährdet wird. Das empfinden sicher viele als gerechter. Die Idee, den aktive Gefährder weiterhin zu Lasten des passiven Opfers zu schützen und ihm stattdessen anschließend die moralische Schuld zuzuweisen halte ich für widersinnig. Dann kann man’s auch gleich so lassen wie’s jetzt ist.

Das eigentliche Dilemma entsteht ja nicht dadurch, dass autonomes Fahren durchschnittlich sicherer wird als nicht-autonomes Fahren, sondern dann, wenn autonomes Fahren in konkreten Einzelfällen Opfer fordert.

Siehe jetzt die Diskussion um die ersten Unfälle, die durch autonome Fahrzeuge verursacht wurden. Man kann grundsätzlich unterschiedliche Fragestellungen betrachten:
1) wären diese konkreten Unfälle auch bei nicht-autonomen Fahren durch verantwortungsbewusste Fahrer verursacht worden - ggf. gewichtet mit den Unfallfolgen?
2) sind im Durchschnitt weniger Unfälle durch autonomes Fahren als durch nicht-autonomen Fahren verursacht worden - dito?
3) werden z.B. über die nächsten 10 Jahre weniger Unfälle durch autonomes Fahren als durch nicht-autonomen Fahren verursacht werden - dito?
4) ...

Das spannende ist weniger die Antwort als vielmehr die Frage bzw. der angelegte Maßstab.

Ich könnte mir vorstellen, dass man ausgewählte Testpersonen in Simulatoren steckt sowie zusätzliche “Schöffen” zur Begutachtung der Unfallsituationen heranzieht; diese trainieren dann ein neuronales Netz. Ich könnte mir außerdem vorstellen, reale Fahrten aufzuzeichnen und reale Unfallsituationen bewerten zu lassen. Man könnte das auch dahingehend erweitern, dass nicht nur die Unfallfolgen sondern bereits der zum Unfall führende Fahrstil bewertet werden. Man würde dadurch ein stabiles neuronales Netz erhalten, dessen detaillierte Regeln niemand kennt, an dem jedoch alle mitwirken können. Man könnte diese Vorgehensweise auch testen, z.B. indem man mehrere Netze durch unterschiedliche Gruppen (jung/alt, m/w, Einkommen, Wohnort, Stadt/Land, ...) trainieren lässt und diese statistisch vergleicht. Über den Erfolg könnte z.B. eine Ethikkommission entscheiden.

Auch dieser Ansatz ist natürlich problembehaftet: Auswahlkriterien, Datenschutz, ...
Gruß
Tom

Der Wert eines Dialogs hängt vor allem von der Vielfalt der konkurrierenden Meinungen ab.
Sir Karl R. Popper

Skeltek
Site Admin
Site Admin
Beiträge: 5081
Registriert: 25. Mär 2008, 23:51
Wohnort: Stuttgart, Germany
Kontaktdaten:

Re: Algorithmen auf dem Richterstuhl

Beitrag von Skeltek » 23. Mai 2018, 06:30

Ich verstehe nicht wieso die Unfälle mit autonomem Fahren in Verbindung gebracht werden. Die Fahrzeuge waren meist nur semi-atonom und haben in der Regel den nicht reagierenden Fahrer zum Eingreifen aufgefordert. Momentan haben wir noch gar keine vollautonomen Fahrzeuge - die brauchen alle noch Überwachung und Betreuung durch Fahrer. Was anderes ist von der heutigen Gesetzeslage her glaube ich auch gar nicht möglich.

Im Übrigen sollte man vor Fahrtantritt sicherlich noch die Sensoren und Reifen prüfen. Aber wer heutzutage prüft vor Fahrtantritt jedes mal seinen Reifendruck und Profil auf Beschädigungen?

Die Straßen sind in der Regel auch oft nicht für autonome Fahrzeuge ausgelegt. Und selbst wenn die KIs perfekt wären: Sie können höchstens das physikalische Optimum herausholen, aber nicht die Gesetze der Physik aushebeln. Wie oft fährt mir z.B. einer auf der Autobahn 2 Meter vor mir in die Lücke?
Gödel für Dummies:
  • Unentscheidbarkeit - Dieser Satz ist wahr.
  • Unvollständig - Aussage A: Es existiert nur ein Element A.
  • Widersprüchlich - Dieser Satz ist falsch.

Benutzeravatar
tomS
Ehrenmitglied
Ehrenmitglied
Beiträge: 10670
Registriert: 19. Nov 2007, 20:29

Re: Algorithmen auf dem Richterstuhl

Beitrag von tomS » 23. Mai 2018, 06:38

Skeltek hat geschrieben:
23. Mai 2018, 06:30
Ich verstehe nicht wieso die Unfälle mit autonomem Fahren in Verbindung gebracht werden.
Wir diskutieren halt diesen Fall.
Gruß
Tom

Der Wert eines Dialogs hängt vor allem von der Vielfalt der konkurrierenden Meinungen ab.
Sir Karl R. Popper

Benutzeravatar
seeker
Ehrenadmin
Ehrenadmin
Beiträge: 8098
Registriert: 26. Dez 2009, 10:29

Re: Algorithmen auf dem Richterstuhl

Beitrag von seeker » 23. Mai 2018, 08:40

tomS hat geschrieben:
22. Mai 2018, 22:44
Siehe jetzt die Diskussion um die ersten Unfälle, die durch autonome Fahrzeuge verursacht wurden.
tomS hat geschrieben:
22. Mai 2018, 22:44
Das spannende ist weniger die Antwort als vielmehr die Frage bzw. der angelegte Maßstab.
Ja. Wie mir scheint drehen sich diese Diskussionen im Moment noch eher um andere Dinge als die Probleme, die wir hier besprechen.
Sie handeln scheints eher noch davon, wie perfekt die Technik ist. Allgemein scheint man an autonome Fahrzeuge höhere Maßstäbe anzulegen als an Fahrzeuge mit menschlichen Fahrern. Warum eigentlich? Misst man an der Stelle nicht evtl. mit zweierlei Maß?
Ich meine, ein autonomes Fahrzeug sollte natürlich mindestens so sicher für alle Menschen sein wie ein manuell gesteuertes Fahrzeug, sonst wäre es ja kein echter Fortschritt, aber die Gretchenfrage scheint mir: Um wie viel sicherer muss es sein? Muss es wirklich 1000 Mal sicherer sein? Würde ethisch/moralisch gesehen nicht schon ein Sicherheitsplus von wenigen Prozent ausreichen?
Der Nutzen/Fortschritt beschränkt sich ja auch nicht aussschließlich auf das Sicherheitsplus.
tomS hat geschrieben:
22. Mai 2018, 22:44
Ich verstehe nicht, wieso gerade dem Fahrer eine Sonderrolle zukommen soll. Das entspricht der heutigen asymmetrischen Situation: der Fahrer kauft und steuert das Auto.
Eben drum, weil es die heutige asymmetrische Situation wenigstens noch zum Teil abbilden würde.
Ich fände das auch gerecht, denn der Fahrer ist ja auch der direkte Nutznießer: Wer den Nutzen hat, soll auch die Verantwortung für eventuelle Schäden tragen, mindestens zu einem gewissen Teil. Diese Idee ergibt sich mir auch aus unserer Gesellschaftsform, die das Individuum mit allen Rechten und Pflichten ja achtet und hochhebt, in den Mittelpunkt stellt. Es gibt andere Gesellschaftsformen, wo das nicht so ist, in China wird man das vielleicht anders machen wollen.

Außerdem wird es in der Realität eh so sein, dass nicht alle Programmierungen aller autonomen Modelle exakt gleich sein können.
Wenigstens beim Kauf des Fahrzeugs wird der Nutzer also sowieso gewisse Optionen haben, warum nicht auch hinterher noch?
Und es wird selbstverständlich auch Tuningsätze geben, legale und illegale.
Auch wird der Verbraucher es einfordern ein gewisses Maß an Selbstkontrolle zu behalten und sein persönliches Fahrprofil einstellen zu können, wenigstens die Illusion der Kontrolle wird er behalten wollen.
Solche optionalen Fahrprofile haben wir in vielen heutigen höherwertigen Autos schon: da kannst du auch schon sportlich oder ökonomisch, usw. einstellen.
tomS hat geschrieben:
22. Mai 2018, 22:44
der Fahrer kauft das Auto, das von einer zuvor programmierten SW gesteuert wird, die unabhängig vom konkreten Fahrer und unabhängig von der Einzelsituation implementiert ist. Das ist der Witz des ganzen.

Das jetzt wieder an den Fahrer zurückzugeben hieße, diverse Vorteile des autonomen Fahrens aufzugeben.
Das sehe ich nicht so, nicht in der Schärfe. Es geht ja darum, wie weit das optionale Mitbestimmungsrecht des Fahrers gehen soll, das kann prinzipiell sehr viel sein aber auch sehr wenig. In deinem Sinne würdest du also argumentieren, dass der Fahrer nur sehr wenig selbst über das Fahrverhalten entscheiden können soll.
tomS hat geschrieben:
22. Mai 2018, 22:44
Ein wesentlicher Vorteil bestünde z.B. gerade darin, dass der aktive Gefährder selbst überproportional zu Gunsten des passiven Opfers gefährdet wird. Das empfinden sicher viele als gerechter. Die Idee, den aktive Gefährder weiterhin zu Lasten des passiven Opfers zu schützen und ihm stattdessen anschließend die moralische Schuld zuzuweisen halte ich für widersinnig. Dann kann man’s auch gleich so lassen wie’s jetzt ist.
Das wäre ein Option, die man dem Fahrer in gewissen Grenzen überlassen könnte: Wie soll der Algorithmus die Sicherheit der Insassen vs die Sicherheit der anderen Verkehrsteilnehmer gewichten?
Man muss das nicht unbedingt dem Fahrer überlassen, man muss das vorher diskutieren, aber man könnte es in gewissen Grenzen tun.
Das kann auch sinnvoll sein: Wenn ich alleine fahre, dann ist evtl. eine geringere Gewichting der Insassensicherheit angebracht als wenn ich mit drei kleinen Kindern im Auto rumfahre. Soll das alles der Algorithmus entscheiden, will man sich das als Nutzer wirklich vorschreiben lassen? Und woher soll er das alles wissen, die Daten dafür hernehmen? Wäre dafür nicht eine Totalüberwachung notwendig und wäre das nicht Bevormundung? Ich bin mehr dafür, dass man das Selbstbestimmungsrecht selbstverantwortlicher, mündiger Bürger möglichst achtet.
Und ja, wenn der Nutzer einen gewissen Einfluss auf den Algorithmus haben kann, dann kann er auch Fehler machen, dann kann er ihn auch suboptimal einstellen, ja das ist so. Die Freiheit der Bürger kostet etwas, im Extremfall kann sie sogar Menschenleben kosten, das ist der Preis der Freiheit.
tomS hat geschrieben:
22. Mai 2018, 22:44
Ich könnte mir vorstellen, dass man ausgewählte Testpersonen in Simulatoren steckt sowie zusätzliche “Schöffen” zur Begutachtung der Unfallsituationen heranzieht; diese trainieren dann ein neuronales Netz. Ich könnte mir außerdem vorstellen, reale Fahrten aufzuzeichnen und reale Unfallsituationen bewerten zu lassen. Man könnte das auch dahingehend erweitern, dass nicht nur die Unfallfolgen sondern bereits der zum Unfall führende Fahrstil bewertet werden. Man würde dadurch ein stabiles neuronales Netz erhalten, dessen detaillierte Regeln niemand kennt, an dem jedoch alle mitwirken können. Man könnte diese Vorgehensweise auch testen, z.B. indem man mehrere Netze durch unterschiedliche Gruppen (jung/alt, m/w, Einkommen, Wohnort, Stadt/Land, ...) trainieren lässt und diese statistisch vergleicht. Über den Erfolg könnte z.B. eine Ethikkommission entscheiden.

Auch dieser Ansatz ist natürlich problembehaftet: Auswahlkriterien, Datenschutz, ...
Vielleicht. Ja, auch das ist problembehaftet. Am Ende wird es keine einfache Lösung geben, es ist ein evolutionärer Prozess vonnöten, der zu einer vielschichtigen, komplexen Lösung führt.

Das wirklich Neue bei der ganzen Geschichte ist für mich, dass wir durch solche Technik mit ethischen Dilemmas konfrontiert werden, die wir bisher ignorierend unter den Teppich kehren konnten, was nun nicht mehr möglich sein wird. Darin liegt allerdings auch ein gesellschaftlicher Fortschritt, wenigstens die Chance dazu.
Grüße
seeker


Wissenschaft ... ist die Methode, kühne Hypothesen aufstellen und sie der schärfsten Kritik auszusetzen, um herauszufinden, wo wir uns geirrt haben.
Karl Popper

Benutzeravatar
tomS
Ehrenmitglied
Ehrenmitglied
Beiträge: 10670
Registriert: 19. Nov 2007, 20:29

Re: Algorithmen auf dem Richterstuhl

Beitrag von tomS » 23. Mai 2018, 12:34

seeker hat geschrieben:
23. Mai 2018, 08:40
Allgemein scheint man an autonome Fahrzeuge höhere Maßstäbe anzulegen als an Fahrzeuge mit menschlichen Fahrern. Warum eigentlich? Misst man an der Stelle nicht evtl. mit zweierlei Maß?
Warum? Weil nur so ein Fortschritt erzielt wird. Und ob man mit zweierlei Maß misst? Ja, natürlich, weil es sich um zwei grundverschiedene Dinge handelt.
seeker hat geschrieben:
23. Mai 2018, 08:40
... die Gretchenfrage scheint mir: Um wie viel sicherer muss es sein? Muss es wirklich 1000 Mal sicherer sein? Würde ethisch/moralisch gesehen nicht schon ein Sicherheitsplus von wenigen Prozent ausreichen?
Wo liegt die Grenze, und wie bewertest und gewichtest du Sicherheit quantitativ?
seeker hat geschrieben:
23. Mai 2018, 08:40
tomS hat geschrieben:
22. Mai 2018, 22:44
Ich verstehe nicht, wieso gerade dem Fahrer eine Sonderrolle zukommen soll. Das entspricht der heutigen asymmetrischen Situation: der Fahrer kauft und steuert das Auto.
Eben drum, weil es die heutige asymmetrische Situation wenigstens noch zum Teil abbilden würde.
Ich fände das auch gerecht, denn der Fahrer ist ja auch der direkte Nutznießer: Wer den Nutzen hat, soll auch die Verantwortung für eventuelle Schäden tragen, mindestens zu einem gewissen Teil.
Die Verantwortung ist aber m.E. ein sekundärer Aspekt. Der primäre Aspekt für mich ist die Erhöhung der Sicherheit.
seeker hat geschrieben:
23. Mai 2018, 08:40
Außerdem wird es in der Realität eh so sein, dass nicht alle Programmierungen aller autonomen Modelle exakt gleich sein können.
Warum nicht? Das wäre absolut denkbar - wenn man das möchte.
seeker hat geschrieben:
23. Mai 2018, 08:40
Wenigstens beim Kauf des Fahrzeugs wird der Nutzer also sowieso gewisse Optionen haben, warum nicht auch hinterher noch?
Weil er die heute in Teilen auch nicht hat, z.B. beim ABS.
seeker hat geschrieben:
23. Mai 2018, 08:40
Und es wird selbstverständlich auch Tuningsätze geben, legale und illegale.
Nein, die sollte es natürlich nicht einfach so geben. Man benötigt einen Zulassungs-, Zertifizierungs- und Verifizierungsprozess.
seeker hat geschrieben:
23. Mai 2018, 08:40
Auch wird der Verbraucher es einfordern ein gewisses Maß an Selbstkontrolle zu behalten und sein persönliches Fahrprofil einstellen zu können, wenigstens die Illusion der Kontrolle wird er behalten wollen.
In gewissen Grenzen, aber nicht beliebig.
seeker hat geschrieben:
23. Mai 2018, 08:40
Solche optionalen Fahrprofile haben wir in vielen heutigen höherwertigen Autos schon: da kannst du auch schon sportlich oder ökonomisch, usw. einstellen.
Kenne ich, und halte ich für bedenklich.

Wenn man das autonome Fahren neu erfindet, muss man mit bestimmten gewohnten Ideen aufräumen. Autonom heißt eben autonom.
seeker hat geschrieben:
23. Mai 2018, 08:40
Es geht ja darum, wie weit das optionale Mitbestimmungsrecht des Fahrers gehen soll, das kann prinzipiell sehr viel sein aber auch sehr wenig. In deinem Sinne würdest du also argumentieren, dass der Fahrer nur sehr wenig selbst über das Fahrverhalten entscheiden können soll.
Auch hier ist es wieder so, dass uns die Bewertungsgrundlage fehlt. Nehmen wir an, wir könnten das Sicherheitsprofil der SW auf einer Skala verändern. Welche quantitative Bewertungsgrundlage wählst du, und welches Sicherheitsniveau wäre dann akzeptabel? Nehmen wir Geld? Menschenleben und körperliche Unversehrtheit? Wieder umgerechnet in Geld? Welcher Schaden ist tolerabel? 10.000 EUR ... 1 Mio. EUR.
tomS hat geschrieben:
22. Mai 2018, 22:44
Ein wesentlicher Vorteil bestünde z.B. gerade darin, dass der aktive Gefährder selbst überproportional zu Gunsten des passiven Opfers gefährdet wird. Das empfinden sicher viele als gerechter. Die Idee, den aktive Gefährder weiterhin zu Lasten des passiven Opfers zu schützen und ihm stattdessen anschließend die moralische Schuld zuzuweisen halte ich für widersinnig. Dann kann man’s auch gleich so lassen wie’s jetzt ist.
Das wäre ein Option, die man dem Fahrer in gewissen Grenzen überlassen könnte: Wie soll der Algorithmus die Sicherheit der Insassen vs die Sicherheit der anderen Verkehrsteilnehmer gewichten?
[/quote]
Es geht nicht darum, dass der Algorithmus das tun soll, sondern darum, dass es nicht alleine die Entscheidung des Fahrers sein kann, welchen Algorithmus er kauft oder verwendet, weil er nicht der alleinig Betroffene ist.
seeker hat geschrieben:
23. Mai 2018, 08:40
tomS hat geschrieben:
22. Mai 2018, 22:44
Ich könnte mir vorstellen, dass man ausgewählte Testpersonen in Simulatoren steckt sowie zusätzliche “Schöffen” zur Begutachtung der Unfallsituationen heranzieht; diese trainieren dann ein neuronales Netz. Ich könnte mir außerdem vorstellen, reale Fahrten aufzuzeichnen und reale Unfallsituationen bewerten zu lassen. Man könnte das auch dahingehend erweitern, dass nicht nur die Unfallfolgen sondern bereits der zum Unfall führende Fahrstil bewertet werden. Man würde dadurch ein stabiles neuronales Netz erhalten, dessen detaillierte Regeln niemand kennt, an dem jedoch alle mitwirken können. Man könnte diese Vorgehensweise auch testen, z.B. indem man mehrere Netze durch unterschiedliche Gruppen (jung/alt, m/w, Einkommen, Wohnort, Stadt/Land, ...) trainieren lässt und diese statistisch vergleicht. Über den Erfolg könnte z.B. eine Ethikkommission entscheiden.

Auch dieser Ansatz ist natürlich problembehaftet: Auswahlkriterien, Datenschutz, ...
Vielleicht. Ja, auch das ist problembehaftet. Am Ende wird es keine einfache Lösung geben, es ist ein evolutionärer Prozess vonnöten, der zu einer vielschichtigen, komplexen Lösung führt.
Meine Vorgehensweise entspräche letztlich einem beschleunigten evolutionären und selbstlernender Prozess; sowas wie alphaCar. Der Vorteil wäre, dass man nicht nur die Entwicklung der SW sondern auch die Entwicklung und Verantwortung des Bewertungsmaßstabes vor dessen Einführung veröffentlicht und in Teilen an die Gesellschaft überträgt.
seeker hat geschrieben:
23. Mai 2018, 08:40
Das wirklich Neue bei der ganzen Geschichte ist für mich, dass wir durch solche Technik mit ethischen Dilemmas konfrontiert werden, die wir bisher ignorierend unter den Teppich kehren konnten, was nun nicht mehr möglich sein wird. Darin liegt allerdings auch ein gesellschaftlicher Fortschritt, wenigstens die Chance dazu.
Richtig.
Gruß
Tom

Der Wert eines Dialogs hängt vor allem von der Vielfalt der konkurrierenden Meinungen ab.
Sir Karl R. Popper

Skeltek
Site Admin
Site Admin
Beiträge: 5081
Registriert: 25. Mär 2008, 23:51
Wohnort: Stuttgart, Germany
Kontaktdaten:

Re: Algorithmen auf dem Richterstuhl

Beitrag von Skeltek » 23. Mai 2018, 18:52

Die Sache ist doch auch die, dass es zu viele Verantwortungs-lose Fahrer gibt. Setzt man jemanden in ein autonomes Fahrzeug, würde sicherlich ein hoher Prozentsatz die gefahrere Geschwindigkeit bereits vor Fahrtbegin auf 20-30% schneller als erlaubt setzen... wenn er könnte.
Bei solchen Fahrern würde ich mir sogar eher wünschen ihn in ein autonomes Auto zu setzen... wobei der Nacteil wäre, dass man ihn dann unter Umständen für mögliche Vergehen irgendeiner Art nicht mehr zur Rechenschaft ziehen könnte.
Gödel für Dummies:
  • Unentscheidbarkeit - Dieser Satz ist wahr.
  • Unvollständig - Aussage A: Es existiert nur ein Element A.
  • Widersprüchlich - Dieser Satz ist falsch.

Antworten