Hinweis auf die DSGVO: Auf unserer Seite werden keine Dritt-Anbieter-Cookies verwendet und nur Daten erfasst, welche für das Minimum an Board-Funktionalität notwendig sind.
Bevor Sie sich registrieren oder das Board verwenden, lesen Sie bitte zusätzlich die DSGVO-Erklärung, welche in der Navigationsleiste verlinkt ist.

Kurzfassung der unserer Meinung nach wichtigsten DSGVO-Punkte:
Es kann vorkommen, dass Benutzer eigenverantwortlich Videos oder sonstige Medien in ihren Beiträgen verlinken, welche beim Aufruf der Forenseite als Teil der Seite samt zugehörigem Material mitgeladen werden. Sollten Sie dies nicht wünschen, verwenden Sie beim Benutzen des Forums einen Blocker wie z.B. uMatrix, welcher das Laden von Inhaltsblöcken von Fremd-URLs effektiv unterbinden kann.
Wir blenden keine Werbung ein und schränken die Inhalte in keinster Weise bei Benutzung von Addblockern ein. Dadurch ist die Grundfunktionalität des Forums auch bei vollständigem Blockieren von Drittanbieter-Inhalten stets gegeben.

Cookies werden unsererseits nur verwendet um das Einloggen des Benutzers für die Dauer der Forenbenutzung zu speichern. Es steht dem Benutzer frei die Option 'Angemeldet bleiben' zu verwenden, damit der Cookie dauerhaft gespeichert bleibt und beim nächsten Besuch kein erneutes Einloggen mehr notwendig ist.
EMail-Adressen werden für Kontakt bei wichtigen Mitteilungen und zur Widerherstellung des Passwortes verwendet. Die verwendeten IPs können von uns ohne externe Hilfsmittel mit keiner realen Person in Verbindung gebracht werden und werden nach spätestens 7 Tagen gelöscht. Diese IPs werden höchstens verwendet um Neuanmeldungen unerwünschter oder gesperrter Nutzer zu identfizieren und zu unterbinden. Wir behalten uns daher vor bei Verdacht, die Frist für die IP-Löschung auf maximal 14 Tage zu verlängern.
Unsere Webseite läuft auf einem virtuellen Linux-Server, welcher von einem externen Anbieter gehostet wird. Etwaige Verstöße der DSGVO-Auflagen seitens dieses deutschen Hosters können wir nicht feststellen und somit auch nicht verfolgen.
Wir halten Backups unserer Datenbanken, welche in regelmäßigen Abständen als Schutz vor Katastrophen, Hackerangriffen und sonstigen Ausfällen erstellt werden. Sollte ein Nutzer die Löschung seiner Daten wünschen, betrachten wir es als Unzumutbar die Backups auch von den Daten zu befreien, da es sich hierbei um eine mehrtägiges Unterfangen handelt - dies ist für eine Einzelperson beim Betrieb eines privaten Forums nicht zumutbar möglich ohne das Backup komplett zu löschen.
Sollten Sie etwas gegen die dauerhafte anonyme Speicherung ihrer EMail-Adresse, ihres Pseudonyms und ihrer Beiträge in einem Backup haben, sehen Sie von der Registrierung in diesem Forum ab. Für Mitglieder, welche vor dem 25.05.2018 registriert waren steht jedoch das Recht im Raum, eine Löschung der Datenbank-Backups zu beantragen.



Wenn dies Ihr erster Besuch hier ist, lesen Sie bitte zunächst die FAQs sowie die wesentlichen Regeln zur Benutzung des Forums.
Um an den Diskussionen teilnehmen zu können, müssen Sie sich zunächst registrieren.

Algorithmen auf dem Richterstuhl

Wissenschaftsgeschichte, Wissenschaftstheorie bzw. -philosophie, Technik
Benutzeravatar
ralfkannenberg
Ehrenmitglied
Ehrenmitglied
Beiträge: 1899
Registriert: 13. Jan 2017, 10:00

Re: Algorithmen auf dem Richterstuhl

Beitrag von ralfkannenberg » 1. Feb 2018, 09:42

tomS hat geschrieben:
1. Feb 2018, 09:23
Frank hat geschrieben:
1. Feb 2018, 08:12
tomS hat geschrieben:
1. Feb 2018, 07:08
Wobei seeker der Meinung ist, dass meine Aussage "jede derartige algorithmische Regel sei in bestimmten Fällen mathematisch äquivalent zu einem gezielten Tötungsbefehl" nicht zutreffend ist.
Womit er auch sowas von Recht hat
Eine Meinung, die mir noch keiner von euch schlüssig erklären konnte. Ich sehe einer präzisen Erklärung oder einem alternativen Algorithmus mit Spannung entgegen :-)
Hallo Tom,

ehe das möglich ist muss noch Einigkeit herrschen, was "Tötung" bedeutet. So ist beispielsweise das 5.Gebot "du sollst nicht töten" unzutreffend übersetzt; näher am Urtext liegt die Übersetzung "du wirst nicht morden". Töten in seiner allgemeinsten Bedeutung ist also nicht ausdrücklich verboten, kann sinnvoll sein, beispielsweise beim "finalen Rettungsschuss" und bleibt beispielsweise im Fall der Notwehr auch straffrei.


Freundliche Grüsse, Ralf

Benutzeravatar
tomS
Administrator
Administrator
Beiträge: 10489
Registriert: 19. Nov 2007, 20:29
Wohnort: Nürnberg

Re: Algorithmen auf dem Richterstuhl

Beitrag von tomS » 1. Feb 2018, 10:05

seeker hat geschrieben:
1. Feb 2018, 08:59
tomS hat geschrieben:
31. Jan 2018, 23:53
1) Zu der Frage, wer im Konfliktfall zu bevorzugen ist: mein Problem ist nicht erst, welche konkrete Regel festlegt, dass X (oder Y, oder Z) bevorzugt werden soll, sondern bereits die Tatsache, dass irgendeine Regel festzulegen ist, in der dies entschieden wird. Jede derartige algorithmische Regel
i) ist in bestimmten Fällen mathematisch äquivalent zu einem gezielten Tötungsbefehl, oder
ii) unpräzise im Sinne eines Zufallsgenerators, oder
iii) unverständlich im Sinne eines neuronalen Netzwerkes (dessen Entscheidungen nicht im Algorithmus sondern in den Parametern stecken)
Ich halte alle drei Varianten für hochproblematisch.
Kann man also sagen, dass man deshalb diese Technik recht sicher nicht mit den heute geltenden Regeln (Industrienormen, Spezifikationen, usw.) zusammenbekommen kann, mindestens nicht in sicherheitskritischen Bereichen?
(i) entspräche in einigen Bereichen den heute geltenden Regeln; z.B. würde
1) ein Kamerasystem plus Mustererkennungs-SW potentielle Ziele identifizieren und
2) nach einem präzisen Algorithmus auswählen
(2) entspräche bzgl. der Umsetzung dem, was heute schon Stand der Technik ist. (1) ist aufgrund der Mustererkennung natürlich völlig anders geartet.
Mein Punkt (i) bezieht sich auf (2)

(iii) entspräche insbs. einer Situation, bei der auch die Zielauswahl (2') z.B. durch ein neuronales Netz erfolgen würde; das Training würde dann nicht wie bei (2) auf Erkennung von Menschen bzw. Unterscheidung von Menschen und Bäumen erfolgen, sondern z.B. auf Anzahl getroffener Menschen (was stark vereinfacht ist, da Treffen nicht unbedingt töten bedeutet, weil z.B. auch der Grad der Schwere der Verletzung mit zu bewerten wäre)

Ich denke, wir können einen vollumfänglich präzisen Algorithmus ausschließen; es geht immer um eine irgendwie geartete Kombination mit einer KI / einem neuronalen Netz o.ä.

D.h. dass die heutigen Normen, die in sicherheitskritischen Bereichen beweisbar korrekte (= in Übereinstimmung mit einer gesetzlichen oder normativen Vorgabe befindliche) Algorithmen fordern, nicht mehr greifen. Man müsste diese sozusagen dahingehend aufweichen, dass nicht mehr der Algorithmus, sondern die Ziele = das Vermeiden oder zumindest Minimieren von Schäden im Vordergrund steht.

Ein Problem für mich ist, dass für den Algorithmus im Sinne von (i) sowie für das Training des neuronalen Netzes im Sinne von (iii) eine Bewertungsfunktion für menschliches Leben bzw. körperliche Unversehrtheit vorzugeben ist. Wer legt diese nach welchen Kriterien fest?
seeker hat geschrieben:
1. Feb 2018, 08:59
a) diese Technik kann, darf und wird mindestens in bestimmten, insbes. sicherheitskritischen Bereichen nicht eingesetzt werden
oder
b) diese Technik kann und wird eingesetzt werden, das lässt sich gar nicht vermeiden, wir brauchen dafür aber veränderte Regeln
Das ist ein bisschen selbstbezüglich.

Wie oben ausgeführt benötige ich zur Einführung zunächst Regeln, insbs., eine andere Art von Normen sowie eine Bewertungsfunktion. D.h. (a) trifft insofern zu, dass diese Technik nicht eingeführt werden kann, solange diese Regeln nicht vorliegen; es ist zumindest nicht denkbar, dass sich alle Regeln erst im Nachhinein in einem Diskurs ergeben. Wenn in sicherheitskritische Bereichen bessere Ergebnisse erzielt werden können, würde ich die Einführung nicht kategorisch ausschließen. (b) würde ich zumindest für kritische Bereiche ausschließen, solange bestimmte Regeln nicht fixiert sind (Routenplanung kann man iterativ optimieren, dann gibt's halt auch mal mehr Staus; bei autonomen Fahren und Ausweichmanövern wüsste ich schon gerne vorher, was geschehen wird).

Die Nachvollziehbarkeit der Regeln sowie deren Überprüfung bzw. den konkreten Test bzgl. Übereinstimmung mit den Vorgaben halte ich ebenfalls für schwierig. Wenn man eineinen klassischen sicherheitskritischen Algorithmus betrachtet, kann man z.B. in endlicher Zeit eine 100% Testabdeckung erreichen. Dabei werden analoge Inputs dahingehend "digitalisiert", dass sie eben entweder in einen bestimmten Bereich fallen oder nicht. Z.B. ist es für ein Ausweichmanöver relevant, ob dieses Ausweichmanöver im stabilen Fahrbetrieb durchführbar ist oder nicht; dazu muss ich lediglich den Parameterbereich des stabilen Fahrens und Lenkens kennen (Geschwindigkeit und Lenkeinschlag), alles folgende ist dann rein digital, d.h. mittels ja-nein-Entscheidungen modellierbar (siehe dazu auch die o.g. Safety-Matrix).

Diese Vorgehensweise funktioniert nicht für ein neuronales Netzwerk. D.h. ich kann zwar statistisch belegen, dass die normative Vorgabe erfüllt wird (also z.B. Minimierung der Anzahl getroffener Personen), ich muss jedoch zwingend davon ausgehen, dass dies in Einzelfällen nicht gegeben sein wird, d.h. ich muss davon ausgehen, dass die KI in Ausnahmefällen diese Vorgabe verletzen wird. Ich kann diese Ausnahmefälle jedoch prinzipbedingt vorher nicht erkennen. Darüberhinaus ist offensichtlich klar, dass die Auswahl der Trainingssituationen diese Ausnahmefällen beeinflussen wird, ohne dass jemand weiß, wie. Nehmen wir als Beispiel die Hinzunahme von Trainingssituationen mit dreiradfahrenden Kindern; diese wird die Sicherheit dieser Kinder erhöhen; wie wirkt sie sich auf die Sicherheit einer konkreten Person in einer konkreten Situation aus? Evtl. verschlechtert sie diese. Diese Effekte sind prinzipiell nicht verstehbar; wir wissen nicht, warum die KI so entscheidet, wie sie entscheidet (das ist bereits heute bei Schach und Go der Fall).

Zusammenfassend: als Knackpunkte sehe ich die Entwicklung neuer normativer Regeln, die Bewertungsfunktion für Personenschäden sowie die Nachvollziehbarkeit der Entscheidung einer KI.
Gruß
Tom

Niels Bohr brainwashed a whole generation of theorists into thinking that the job (interpreting quantum theory) was done 50 years ago.

Benutzeravatar
Frank
Ehrenmitglied
Ehrenmitglied
Beiträge: 3856
Registriert: 12. Dez 2005, 23:22
Wohnort: Odenwald

Re: Algorithmen auf dem Richterstuhl

Beitrag von Frank » 1. Feb 2018, 10:11

tomS hat geschrieben:
1. Feb 2018, 09:23
Frank hat geschrieben:
1. Feb 2018, 08:12
tomS hat geschrieben:
1. Feb 2018, 07:08
Wobei seeker der Meinung ist, dass meine Aussage "jede derartige algorithmische Regel sei in bestimmten Fällen mathematisch äquivalent zu einem gezielten Tötungsbefehl" nicht zutreffend ist.
Womit er auch sowas von Recht hat
Eine Meinung, die mir noch keiner von euch schlüssig erklären konnte. Ich sehe einer präzisen Erklärung oder einem alternativen Algorithmus mit Spannung entgegen.
So, ich glaube wir sind jetzt mal an einem Punkt angelangt, wo man mal etwas direkter werden sollte....

Seitenweise wurde hier versucht, mit allen möglichen Bereichen eine Näherung an deine Frage herzustellen.
- Ob die Haftung,
- der Zufall,
- Mennschen (indem Fall Programmierer) können nur bis zu einem gewissen Grat dafür verantwortlich gemacht werden
- ethische Sichtweisen,
- Vorgehensweisen in anderen Firmen/Breichen und wie dort mit Grenzgebieten umgegangen wird,
- psychologische Erklärungsversuche bis tief in die Psyche des Menschen,


.....etc....pp

Nichts aber hat im mit deiner Sache zu tun, wie du immer wieder schreibst. Des Weiteren sagst du ja auch, dass du es ja im Grunde selbst nicht weist, wie du es ausdrücken sollst.

Ich oute mich jetzt mal und sage dir, dass ich inzwischen keine Idee mehr habe, um was es dir überhaupt geht. :wn:

Eine zweite Komponente ist auch, was ich schon in dem "Gehirn-Computerkopierthread" feststellen konnte, dass solche Diskussionen dann irgendwann zu einer Zweimannveranstaltung zwischen Seeker und dir werden. Einige User geben sich die Mühe, denken eine halbe Stunde nach und schreiben es ins Forum und auf diese Thesen wird überhaupt nicht eingegangen.

Also bitte mehr die Anderen mit ins Boot nehmen und darauf achten, dass nicht alle solche Bildung genossen haben, wie man vieleicht selbst. :wink: :)

In diesem Sinne.....
Mit freundlichen Grüßen

Frank

Benutzeravatar
tomS
Administrator
Administrator
Beiträge: 10489
Registriert: 19. Nov 2007, 20:29
Wohnort: Nürnberg

Re: Algorithmen auf dem Richterstuhl

Beitrag von tomS » 1. Feb 2018, 10:21

ralfkannenberg hat geschrieben:
1. Feb 2018, 09:42
ehe das möglich ist muss noch Einigkeit herrschen, was "Tötung" bedeutet.
Töten bedeutet hier ganz einfach, dass eine Software ein Ausweichmanöver einleitet oder unterlässt, in dessen Folge eine Person zu Tode kommt.
Gruß
Tom

Niels Bohr brainwashed a whole generation of theorists into thinking that the job (interpreting quantum theory) was done 50 years ago.

Benutzeravatar
tomS
Administrator
Administrator
Beiträge: 10489
Registriert: 19. Nov 2007, 20:29
Wohnort: Nürnberg

Re: Algorithmen auf dem Richterstuhl

Beitrag von tomS » 1. Feb 2018, 10:24

Frank hat geschrieben:
1. Feb 2018, 10:11
Nichts aber hat im mit deiner Sache zu tun, wie du immer wieder schreibst. Des Weiteren sagst du ja auch, dass du es ja im Grunde selbst nicht weist, wie du es ausdrücken sollst.
Das habe ich in meinen letzten Beiträgen zusammengefasst.
Frank hat geschrieben:
1. Feb 2018, 10:11
Ich oute mich jetzt mal und sage dir, dass ich inzwischen keine Idee mehr habe, um was es dir überhaupt geht
Um den Problemkomplex autonomer KIs und deren Auswirkungen auf die Gesellschaft - anhand einiger expliziter Beispiele.
Frank hat geschrieben:
1. Feb 2018, 10:11
Eine zweite Komponente ist auch, was ich schon in dem "Gehirn-Computerkopierthread" feststellen konnte, dass solche Diskussionen dann irgendwann zu einer Zweimannveranstaltung zwischen Seeker und dir werden. Einige User geben sich die Mühe, denken eine halbe Stunde nach und schreiben es ins Forum und auf diese Thesen wird überhaupt nicht eingegangen.
Ich habe versucht, auf jeden Beitrag einzugehen.
Frank hat geschrieben:
1. Feb 2018, 10:11
tomS hat geschrieben:
1. Feb 2018, 09:23
Frank hat geschrieben:
1. Feb 2018, 08:12


Womit er auch sowas von Recht hat
Eine Meinung, die mir noch keiner von euch schlüssig erklären konnte. Ich sehe einer präzisen Erklärung oder einem alternativen Algorithmus mit Spannung entgegen.
So, ich glaube wir sind jetzt mal an einem Punkt angelangt, wo man mal etwas direkter werden sollte....
Ja.

Ich hatte oben einen sehr einfachen Algorithmus vorgestellt. Dieser ist in bestimmten Situationen (*) offensichtlich äquivalent zu einem Tötungsbefehl.


OnImminentCrash()
{
...

allObjects.sort( value );
target = allObjects.front();
setDirection( target );

...
}


Die Situation (*) gestaltet sich wie folgt: Wenn target einem Menschen entspricht - was die SW bereits weiß, denn sie hat dieses Wissen im Rahmen der Mustererkennung und der Bewertungsfunktion verwendet - dann wird sie ein Lenkmanöver einleiten, das diesen Menschen mit einer gewissen Wahrscheinlichkeit tötet, wobei letztere von der in der SW bekannten Geschwindigkeit abhängt.

Die SW kann die Zahl der getroffenen bzw. wahrscheinlich getöten Menschen zu Trainings- und Testzwecken auch explizit errechnen und ausgeben:


OnImminentCrash()
{
...

if ( target.value() >= valueHuman )
{
++countHumanTargets;
}
}


Es ist also für den externen Prüfer (TÜV, ...), den Produktmanager, den SW-Tester usw. explizit klar, was da in der Software vorgeht. Die Namen von Variablen spielen keine Rolle; ob countHumanTargets berechnet und ausgegeben wird oder nicht spielt keine Rolle; die Information ist prinzipiell vorhanden. Insbs. während der Entwicklungs- und der Trainingsphase wird diese Zahl eine wichtige Rolle spielen. Sie wird natürlich geheim bleiben sollen; auch ihre Existenz wird eher verschwiegen werden, aber Fachleute werden wissen, dass sie existiert oder existieren könnte. Darüberhinaus werden Prüfkriterien und Prüfprotokolle natürlich in gewissem Rahmen öffentlich zugänglich sein. Im Realbetrieb der SW können derartige Prüfungen weiterhin enthalten sein oder auch abgeschaltet werden; wenn sie enthalten sind, werden sie exakt den tatsächlich getroffene Menschen entsprechen (bis auf statistische Schwankungen in Grenzbereichen).

Das ist die Situation, die ich meine, wenn ich von der Äquivalenz zu einem expliziten Tötungsbefehl in bestimmten Situationen spreche.

Ich würde mich freuen, wenn mir konkret an diesem Beispiel zeigen würdest, wo ich deiner Meinung nach in die Irre gehe.
Gruß
Tom

Niels Bohr brainwashed a whole generation of theorists into thinking that the job (interpreting quantum theory) was done 50 years ago.

Benutzeravatar
ralfkannenberg
Ehrenmitglied
Ehrenmitglied
Beiträge: 1899
Registriert: 13. Jan 2017, 10:00

Re: Algorithmen auf dem Richterstuhl

Beitrag von ralfkannenberg » 1. Feb 2018, 10:33

tomS hat geschrieben:
1. Feb 2018, 10:21
Töten bedeutet hier ganz einfach, dass eine Software ein Ausweichmanöver einleitet oder unterlässt, in dessen Folge eine Person zu Tode kommt.
Hallo Tom,

das ist ungenau, denn das Ausweichmanöver braucht nicht in jedem Fall zum Todesfall zu führen.

Ich denke, das sollte korrekt wie folgt lauten: "dass eine Software ein Ausweichmanöver einleitet oder unterlässt, in dessen Folge der Tod einer Person billigend in Kauf genommen wird."

Dann sind wir einmal weg vom Begriff der Tötung und auch weg vom Begriff des gezielten Abschussbefehls.


Und dann stellt sich auch ganz zwanglos die Frage, wie die Wahrscheinlichkeit erhöht werden kann, dass es gar nicht erst zum Todesfall kommt, denn das Ziel ist nicht die Tötung, sondern das Ziel ist das Ausweichmanöver.


Freundliche Grüsse, Ralf

Benutzeravatar
tomS
Administrator
Administrator
Beiträge: 10489
Registriert: 19. Nov 2007, 20:29
Wohnort: Nürnberg

Re: Algorithmen auf dem Richterstuhl

Beitrag von tomS » 1. Feb 2018, 10:46

ralfkannenberg hat geschrieben:
1. Feb 2018, 10:33
tomS hat geschrieben:
1. Feb 2018, 10:21
Töten bedeutet hier ganz einfach, dass eine Software ein Ausweichmanöver einleitet oder unterlässt, in dessen Folge eine Person zu Tode kommt.
Hallo Tom,

das ist ungenau,
Nee, ist es nicht, es bezieht sich nur auf eine andere Phase:

Trainingsphase: dass eine Software ein simuliertes Ausweichmanöver einleitet oder unterlässt, in dessen Folge der Tod einer Person billigend in Kauf genommen wird.
Betriebsphase : dass eine Software ein tatsächliches Ausweichmanöver einleitet oder unterlässt, in dessen Folge eine Person tatsächlich zu Tode kommt.

ralfkannenberg hat geschrieben:
1. Feb 2018, 10:33
Und dann stellt sich auch ganz zwanglos die Frage, wie die Wahrscheinlichkeit erhöht werden kann, dass es gar nicht erst zum Todesfall kommt, denn das Ziel ist nicht die Tötung, sondern das Ziel ist das Ausweichmanöver.
Siehe dazu meinen sehr einfachen Algorithmus.
Gruß
Tom

Niels Bohr brainwashed a whole generation of theorists into thinking that the job (interpreting quantum theory) was done 50 years ago.

Benutzeravatar
Frank
Ehrenmitglied
Ehrenmitglied
Beiträge: 3856
Registriert: 12. Dez 2005, 23:22
Wohnort: Odenwald

Re: Algorithmen auf dem Richterstuhl

Beitrag von Frank » 1. Feb 2018, 11:06

tomS hat geschrieben:
1. Feb 2018, 10:21
ralfkannenberg hat geschrieben:
1. Feb 2018, 09:42
ehe das möglich ist muss noch Einigkeit herrschen, was "Tötung" bedeutet.
Töten bedeutet hier ganz einfach, dass eine Software ein Ausweichmanöver einleitet oder unterlässt, in dessen Folge eine Person zu Tode kommt.
Geht es dir um das, oder um die Prgrammierung der Algorithmen?
Mit freundlichen Grüßen

Frank

Benutzeravatar
seeker
Ehrenadmin
Ehrenadmin
Beiträge: 6309
Registriert: 26. Dez 2009, 10:29

Re: Algorithmen auf dem Richterstuhl

Beitrag von seeker » 1. Feb 2018, 11:07

Ich versuche weiterhin die Sache zu strukturieren, einen roten Faden herauszuarbeiten, im Vordergrund steht dabei für mich, dass wir das Thema besser zu greifen bekommen, ich bitte um Nachsicht, wenn ich deshalb nicht immer allen gleich antworte.

Wir brauchen also Regeln, wie wir das mit den KIs handhaben wollen, besonders in sicherheitskritischen Bereichen.
Wir können zumindest dort nicht einfach KIs einführen, bevor wir diese Regeln nicht festgelegt haben. Also muss man sich Gedanken machen, wie die aussehen sollen.
tomS hat geschrieben:
1. Feb 2018, 10:05
Ich denke, wir können einen vollumfänglich präzisen Algorithmus ausschließen; es geht immer um eine irgendwie geartete Kombination mit einer KI / einem neuronalen Netz o.ä.
Sagen wir mal so:
Einen speziellen Algorithmus , der bei allen möglichen ganz konkreten Situationen mit ganz konkreten Menschen im Vorfeld schon festlegt, was wann zu tun ist, können wir ausschließen (z.B.: "Wenn du in Hamburg in der Hansestraße in einer kritischen Situation nur die Wahl hast entweder Lieschen M. oder Peter S. zu rammen, dann ramme Lieschen M." (z.B. weil Peter S. mit einem höheren gesellschaftlichen Nutzen bewertet wurde, wobei das Warum erst einmal egal ist, es geht mir um das Spezielle)). Das kann man sicher nicht machen, aber so etwas wird auch nicht möglich sein, man kann nicht alles denkbare Spezielle programmieren, man muss sich auf die Programmierung des Allgemeinen beschränken, insofern kann es auch z.B. im Automobilverkeher keine speziell-präzisen Algorithmen geben, höchstens allgemein-präzise, insofern gibt es hier eine Einschränkung der überhaupt denkbaren Präzision, egal ob nun KI oder nicht-KI. Das Problem löst sich dadurch nicht auf, aber ich denke, man kann das einmal festhalten.

Gehen wir weiter zu i) ii) iii):
tomS hat geschrieben:
31. Jan 2018, 23:53
1) Zu der Frage, wer im Konfliktfall zu bevorzugen ist: mein Problem ist nicht erst, welche konkrete Regel festlegt, dass X (oder Y, oder Z) bevorzugt werden soll, sondern bereits die Tatsache, dass irgendeine Regel festzulegen ist, in der dies entschieden wird. Jede derartige algorithmische Regel

i) ist in bestimmten Fällen mathematisch äquivalent zu einem gezielten Tötungsbefehl, oder
ii) unpräzise im Sinne eines Zufallsgenerators, oder
iii) unverständlich im Sinne eines neuronalen Netzwerkes (dessen Entscheidungen nicht im Algorithmus sondern in den Parametern stecken)
Das Problem ist so dargestellt für mich verständlich und nachvollziehbar, ich stimme dem prinzipiell zu, zu erörtern ist hier für mich eher nur die Wortwahl bzw. wie dramatisch das nun ist oder auch nicht. Zu bedenken wären vielleicht auch noch Lösungen die eine Kombination aus klassischer Programmierung und KI darstellen, also Kombinationen aus i), ii) und iii).

Es ergeben sich für mich folgende Fragen:

- Handelt es sich bei i) tatsächlich um einen Tötungsbefehl? Was ist ein Tötungsbefehl? Was bedeutet "mathematisch äquivalent zu einem Tötungsbefehl"? Wie ist das im Vergleich zu Menschen und deren Verhalten zu sehen?
(...die ja nicht wenige Fehler machen und wo wir sicher davon ausgehen können, dass sie in bestimmten klar darstellbaren tragischen Situationen einen Menschen überfahren werden, durch bewusste Entscheidung und Auswahl. Warum dürfen Menschen dann Auto fahren?)
Und daraus ableitend: Wäre i) dramatisch schlimm, falls ja warum und wann?

- Wäre der Verzicht auf Präzision im Sinne von ii) dramatisch schlimm, falls ja warum und wann?

- Wäre der Verzicht auf völlige Verständlichkeit im Sinne von iii) dramatisch schlimm, falls ja warum und wann?
Grüße
seeker


Kritisches Denken bedeutet nicht, sich einseitig nur aus kritischen Quellen zu versorgen und die dortigen Darstellungen unkritisch zu übernehmen. Viele überschätzen ihre eigene Medienkompetenz massiv. Dies wird von Verführern ausgenutzt.

Benutzeravatar
ralfkannenberg
Ehrenmitglied
Ehrenmitglied
Beiträge: 1899
Registriert: 13. Jan 2017, 10:00

Re: Algorithmen auf dem Richterstuhl

Beitrag von ralfkannenberg » 1. Feb 2018, 11:23

tomS hat geschrieben:
1. Feb 2018, 10:24
Es ist also für den externen Prüfer (TÜV, ...), den Produktmanager, den SW-Tester usw. explizit klar, was da in der Software vorgeht. Die Namen von Variablen spielen keine Rolle; ob countHumanTargets berechnet und ausgegeben wird oder nicht spielt keine Rolle; die Information ist prinzipiell vorhanden. Insbs. während der Entwicklungs- und der Trainingsphase wird diese Zahl eine wichtige Rolle spielen. Sie wird natürlich geheim bleiben sollen; auch ihre Existenz wird eher verschwiegen werden, aber Fachleute werden wissen, dass sie existiert oder existieren könnte. Darüberhinaus werden Prüfkriterien und Prüfprotokolle natürlich in gewissem Rahmen öffentlich zugänglich sein. Im Realbetrieb der SW können derartige Prüfungen weiterhin enthalten sein oder auch abgeschaltet werden; wenn sie enthalten sind, werden sie exakt den tatsächlich getroffene Menschen entsprechen (bis auf statistische Schwankungen in Grenzbereichen).

Das ist die Situation, die ich meine, wenn ich von der Äquivalenz zu einem expliziten Tötungsbefehl in bestimmten Situationen spreche.
Hallo Tom,

ich fürchte, dass ist die Stelle, an der ich die Seiten wechsle: eine solche Software ist für mich inakzeptabel.

Eine künstliche Intelligenz muss defensiv sein, d.h. wenn das Auto in die Gefahr kommt, einen solchen Algorithmus anwenden zu müssen, dann muss es eben:

- langsamer fahren oder wenn das Risiko nach wie vor vorhanden ist, anhalten
- eine weniger gefährliche Route wählen
- vor der Abfahrt: das Auto, in dem die Software eingesetzt wird, zunächst auf Sicherheit prüfen, d.h. ob im Crash-Fall die Insassen hinreichend gut geschützt sind; wenn nicht startet die Software das Auto nicht


Freundliche Grüsse, Ralf

positronium
Ehrenmitglied
Ehrenmitglied
Beiträge: 2832
Registriert: 2. Feb 2011, 20:13

Re: Algorithmen auf dem Richterstuhl

Beitrag von positronium » 1. Feb 2018, 12:24

Tom hat im großen und ganzen (habe nicht über jede Aussage nachgedacht) völlig Recht. Vielleicht muss man Programmierer sein, um das so einzuschätzen, aber ich würde sogar sagen, dass das offensichtlich ist.

Weil man bei einer KI nie mit absoluter Gewissheit den genauen Algorithmus kennt, bin ich der Meinung, dass man um eine Mischung aus KI und klassischer Programmierung nicht herum kommt.
Ich sehe gerade bei der Sensorauswertung, insbesondere der Bildanalyse die KI, genauer: dort mehrere neuronale Netze. Diese müssen mehrdimensionale Distributionen ausgeben, welche die identifizierten Objekte beschreiben. Das heißt z.B.: es wurde ein Mensch mit einer gewissen Wahrscheinlichkeit erkannt, der mit einer gewissen Wahrscheinlichkeit in eine bestimmte Richtung geht. Dann wird es ethisch schwieriger: ist er mit einer gewissen Wahrscheinlichkeit sportlich, so dass er eher ausweichen könnte. Und so weiter.
Diese Daten müssen mit klassischer Programmierung gesetzeskonform und ethisch vertretbar geprüft werden, und an eine "Routenplanung" übergeben werden. Diese kann klassisch programmiert oder eine KI sein. Auch hier bekommt man Distributionen, wie z.B. Route1: sicher zu fahren (Spur halten...) mit einer gewissen Wahrscheinlichkeit, Zahl toter und verletzter mit der und der Wahrscheinlichkeit, Sachschäden mit Wahrscheinlichkeit usw..
Dann muss wieder mit klassischer Programmierung gesetzeskonform (d.h. mit entsprechenden Gewichten, um den "Preis" für die Route zu ermitteln) der beste Weg bestimmt werden.

Übrigens sehe ich es auch so wie Tom, dass es egal ist, ob man von ausweichen oder darauf zu fahren bzw. leben lassen und Tod in Kauf nehmen spricht. Es geht dabei nämlich darum, dass man alle zur Verfügung stehenden Daten auswertet, und wenn man das macht, gibt es keinen Code wie:
If (es gibt eine Route ohne tote) {
fahre dort lang;
else {
// in der nächsten Version implementieren
}
Es lautet zumindest immer so:
If (es gibt eine Route ohne tote) {
fahre dort lang;
else {
if (besser(A,B)) {
fahre weiter und nimm Tod von B in Kauf
} else {
fahre weiter und nimm Tod von A in Kauf
}
}
Die Funktion "besser" muss implementiert werden. Ethisch korrekt fände ich, wenn man die Überlebenschance und Chance auf Unversehrtheit dafür heranziehen würde. Wenn also eine Person weiter weg ist, hat sie wegen der Bremsung eine geringer Aufprallgeschwindigkeit zu erwarten und daher die besseren Chancen. Es gibt aber noch viele andere Faktoren, die eine Rolle spielen können - da wird es schwierig.
Und natürlich noch das Training der KI/NN.

Benutzeravatar
ralfkannenberg
Ehrenmitglied
Ehrenmitglied
Beiträge: 1899
Registriert: 13. Jan 2017, 10:00

Re: Algorithmen auf dem Richterstuhl

Beitrag von ralfkannenberg » 1. Feb 2018, 12:33

positronium hat geschrieben:
1. Feb 2018, 12:24
Es lautet zumindest immer so:
If (es gibt eine Route ohne tote) {
fahre dort lang;
else {
if (besser(A,B)) {
fahre weiter und nimm Tod von B in Kauf
} else {
fahre weiter und nimm Tod von A in Kauf
}
}
Die Funktion "besser" muss implementiert werden. Ethisch korrekt fände ich, wenn man die Überlebenschance und Chance auf Unversehrtheit dafür heranziehen würde. Wenn also eine Person weiter weg ist, hat sie wegen der Bremsung eine geringer Aufprallgeschwindigkeit zu erwarten und daher die besseren Chancen. Es gibt aber noch viele andere Faktoren, die eine Rolle spielen können - da wird es schwierig.
Und natürlich noch das Training der KI/NN.
Hallo positronium,

warum eigentlich ? Was spricht dagegen, den else-Fall wie folgt zu implementieren:


else {
halte an, zeige Warnung an und überlasse einem Menschen das Steuer
}
}


Freundliche Grüsse, Ralf

positronium
Ehrenmitglied
Ehrenmitglied
Beiträge: 2832
Registriert: 2. Feb 2011, 20:13

Re: Algorithmen auf dem Richterstuhl

Beitrag von positronium » 1. Feb 2018, 12:39

ralfkannenberg hat geschrieben:
1. Feb 2018, 12:33
warum eigentlich ? Was spricht dagegen, den else-Fall wie folgt zu implementieren:


else {
halte an, zeige Warnung an und überlasse einem Menschen das Steuer
}
}
Wir diskutieren hier doch immer über den Fall, in dem eine Kollission nicht mehr zu vermeiden ist. Nicht darüber, dass ein selbstfahrendes Auto keinen Ausweg mehr aus einer Situation findet. Das wäre ja so als würde z.B. ein zugeparktes Auto sich freirammen wollen.
Geht die Diskussion deswegen hier aneinander vorbei?

Es könnte auch noch andere Alternativen geben, z.B. wenn man die Insassen des Fahrzeugs mitberücksichtigt.
if (Insasses weniger Wert als A und B) {
fahre gegen den Betonpfeiler
} else...

Benutzeravatar
Frank
Ehrenmitglied
Ehrenmitglied
Beiträge: 3856
Registriert: 12. Dez 2005, 23:22
Wohnort: Odenwald

Re: Algorithmen auf dem Richterstuhl

Beitrag von Frank » 1. Feb 2018, 12:41

positronium hat geschrieben:
1. Feb 2018, 12:24

Die Funktion "besser" muss implementiert werden. Ethisch korrekt fände ich, wenn man die Überlebenschance und Chance auf Unversehrtheit dafür heranziehen würde. Wenn also eine Person weiter weg ist, hat sie wegen der Bremsung eine geringer Aufprallgeschwindigkeit zu erwarten und daher die besseren Chancen. Es gibt aber noch viele andere Faktoren, die eine Rolle spielen können - da wird es schwierig.
Und natürlich noch das Training der KI/NN.
Das ist jetzt aber nicht wirklich dein Ernst, oder?
Mit freundlichen Grüßen

Frank

positronium
Ehrenmitglied
Ehrenmitglied
Beiträge: 2832
Registriert: 2. Feb 2011, 20:13

Re: Algorithmen auf dem Richterstuhl

Beitrag von positronium » 1. Feb 2018, 12:47

Frank hat geschrieben:
1. Feb 2018, 12:41
positronium hat geschrieben:
1. Feb 2018, 12:24

Die Funktion "besser" muss implementiert werden. Ethisch korrekt fände ich, wenn man die Überlebenschance und Chance auf Unversehrtheit dafür heranziehen würde. Wenn also eine Person weiter weg ist, hat sie wegen der Bremsung eine geringer Aufprallgeschwindigkeit zu erwarten und daher die besseren Chancen. Es gibt aber noch viele andere Faktoren, die eine Rolle spielen können - da wird es schwierig.
Und natürlich noch das Training der KI/NN.
Das ist jetzt aber nicht wirklich dein Ernst, oder?
Wenn wegen der Situation trotz Bremsung auf jeden Fall eine Person angefahren wird, und keine anderen Kriterien eine bessere Lösung erlauben: Doch, das ist mein Ernst!
Wie sollte man das anders lösen? Wie würdest Du das lösen?

Ich schreibe das noch einmal: Wir diskutieren hier doch immer über den Fall, in dem eine Kollission nicht mehr zu vermeiden ist.

Benutzeravatar
ralfkannenberg
Ehrenmitglied
Ehrenmitglied
Beiträge: 1899
Registriert: 13. Jan 2017, 10:00

Re: Algorithmen auf dem Richterstuhl

Beitrag von ralfkannenberg » 1. Feb 2018, 12:54

positronium hat geschrieben:
1. Feb 2018, 12:39
Wir diskutieren hier doch immer über den Fall, in dem eine Kollission nicht mehr zu vermeiden ist. Nicht darüber, dass ein selbstfahrendes Auto keinen Ausweg mehr aus einer Situation findet. Das wäre ja so als würde z.B. ein zugeparktes Auto sich freirammen wollen.
Geht die Diskussion deswegen hier aneinander vorbei?
Hallo positronium,

Dein Argument erinnert mich an einen Berggänger, der weder klettern kann noch einen Bergführer bei sich hat und der sich nun 100 m unter dem Gipfel des Matterhorns befindet und realisiert, dass er abstürzen wird. - Und nun ergreift der irgendwelche klugen Massnahmen, bei denen Menschenleben bewertet werden und der Verlust einiger von denen billigend in Kauf genommen wird.

Dabei ginge es doch ganz einfach: wenn man nicht klettern kann, dann steigt man gar nicht erst ins Matterhorn ein !


Zurück zur Kollision: wenn das Auto gut genug geschützt ist und die Software umsichtig genügend fährt, dann kommt es zu keiner selbstverschuldeten Kollision. Auch das kleine Kind oder die behinderte ältere Dame mit ihrem Rollator können nicht "plötzlich" vor das Auto geraten, weil die AI erkennen kann, dass ein solches Risiko besteht und dann eben auf 30 km/h oder notfalls auf 10 km/h runtergeht.

Verbleibt also nur noch der Raser, der auf der eigenen Spur entgegenkommt und eine Kollision verursacht, aber für den Fall ist das Auto der AI so gut ausgerüstet, dass den Insassen nichts passiert. Also reagiert die AI defensiv und leitet Schnellbremsung ein; wenn der Raser ausweichen kann, gut, und wenn nicht, dann kommt der Raser dabei selbstverschuldet möglicherweise zu Tode. Wo ist das Problem ?


Was ich sagen will: es gibt in diesem Falle nichts zu bewerten ! Alles andere ist Bequemlichkeit, weil es vielleicht lästig ist, so langsam durch Wohngebiete zu fahren, weil es vielleicht teuer ist, Autos innen sicher auszustatten u.s.w. Aber man kann doch der AI nicht zumuten, dass sie wegen der Bequemlichkeit der Menschen "Tötungsaktivitäten" implementiert !!


Freundliche Grüsse, Ralf

Benutzeravatar
seeker
Ehrenadmin
Ehrenadmin
Beiträge: 6309
Registriert: 26. Dez 2009, 10:29

Re: Algorithmen auf dem Richterstuhl

Beitrag von seeker » 1. Feb 2018, 13:02

Hier etwas zum einlesen, guter umfassender Text, um was es geht:

Künstliche Intelligenz:
Der Todesalgorithmus
Künstliche Intelligenz wird vornehmlich zum Eliminieren eingesetzt, etwa bei Spammails. Im selbstfahrenden Auto wird sie über Leben und Tod von Menschen entscheiden.
http://www.zeit.de/kultur/2017-09/kuens ... mes-fahren
Grüße
seeker


Kritisches Denken bedeutet nicht, sich einseitig nur aus kritischen Quellen zu versorgen und die dortigen Darstellungen unkritisch zu übernehmen. Viele überschätzen ihre eigene Medienkompetenz massiv. Dies wird von Verführern ausgenutzt.

Benutzeravatar
seeker
Ehrenadmin
Ehrenadmin
Beiträge: 6309
Registriert: 26. Dez 2009, 10:29

Re: Algorithmen auf dem Richterstuhl

Beitrag von seeker » 1. Feb 2018, 13:13

Das hier könnte auch interessant sein:

Ergebnisse und Abschlussbericht

Mehr agieren, weniger reagieren: Der HumanIThesia-Kongress „Ethik und KI“ begibt sich auf die schwierige Suche nach einer Ethik für künstliche Intelligenz.
https://integrata-kongress.de/kongress/ ... ussbericht
Grüße
seeker


Kritisches Denken bedeutet nicht, sich einseitig nur aus kritischen Quellen zu versorgen und die dortigen Darstellungen unkritisch zu übernehmen. Viele überschätzen ihre eigene Medienkompetenz massiv. Dies wird von Verführern ausgenutzt.

positronium
Ehrenmitglied
Ehrenmitglied
Beiträge: 2832
Registriert: 2. Feb 2011, 20:13

Re: Algorithmen auf dem Richterstuhl

Beitrag von positronium » 1. Feb 2018, 14:40

ralfkannenberg hat geschrieben:
1. Feb 2018, 12:54
Zurück zur Kollision: wenn das Auto gut genug geschützt ist und die Software umsichtig genügend fährt, dann kommt es zu keiner selbstverschuldeten Kollision.
Der Begriff "selbstverschuldet" ist problematisch, aber wer die Schuld trägt ist erst einmal irrelevant, weil es darum geht, jede Situation möglichst optimal zu lösen.
ralfkannenberg hat geschrieben:
1. Feb 2018, 12:54
Auch das kleine Kind oder die behinderte ältere Dame mit ihrem Rollator können nicht "plötzlich" vor das Auto geraten, weil die AI erkennen kann, dass ein solches Risiko besteht und dann eben auf 30 km/h oder notfalls auf 10 km/h runtergeht.
Das ist in der Realität leider nicht so. Es gibt immer Situationen, die erst zu spät erkannt werden. - Auch eine KI ist bzgl. der verfügbaren Informationen beschränkt.
Das kann z.B. eine sich öffnende Türe an einem Auto sein, das kann ein Kind sein, das hinter einem Hauseck hervor huscht, das kann ein stürzender Mensch sein usw..
ralfkannenberg hat geschrieben:
1. Feb 2018, 12:54
Verbleibt also nur noch der Raser, der auf der eigenen Spur entgegenkommt und eine Kollision verursacht, aber für den Fall ist das Auto der AI so gut ausgerüstet, dass den Insassen nichts passiert.
Da denkst Du zu optimistisch, ...
ralfkannenberg hat geschrieben:
1. Feb 2018, 12:54
Also reagiert die AI defensiv und leitet Schnellbremsung ein; wenn der Raser ausweichen kann, gut, ...
...weil die Beschleunigungskräfte, die auf ein stehendes Auto und dessen Insassen bei einem Aufprall durch einen Raser wirken, auch lebensgefährlich sein können.
ralfkannenberg hat geschrieben:
1. Feb 2018, 12:54
...und wenn nicht, dann kommt der Raser dabei selbstverschuldet möglicherweise zu Tode. Wo ist das Problem ?
Das Problem ist, dass der Straßenverkehr eine so hohe Komplexität hat, dass für eine vollständige Bewertung der Situation niemals alle Daten vorliegen und ausgewertet werden können. Deshalb ist es auch nicht möglich, davon auszugehen, dass eine KI so weit vorausschauend agiert, dass Unfälle ausgeschlossen sind. Folglich wird es immer zu kritischen Situationen kommen.

Es geht ja auch nicht um spezielle Beispiele; diese dienen nur dazu, die möglichen Probleme aufzuzeigen, was geschehen könnte, um eine grobe Vorstellung davon entwickeln zu können, welche Parameter bedacht werden müssen. Am Ende geht es darum, alle möglichen Routen zu bewerten, und die bestmögliche (rechtlich und ethisch) zu wählen. Man braucht also eine Funktion, welche einen sortierbaren Wert liefert - einen "Preis" für die Route, wenn man so will. Du als Mathematiker weißt, wie so eine Funktion aussieht: Man rechnet den Weg durch, und summiert alle "Kosten"/Schäden. Vom Prinzip her so:

mu: Sicherheit, das Objekt richtig erkannt zu haben.
rho: Gewichtungsfaktor.
mu kommt von der KI/Bildanalyse; rho ist hingegen eine Funktion, in der viele Konstanten vorkommen, für die der Gesetzgeber Werte vorgeben muss:

Code: Alles auswählen

rho(objekt) {
 switch(objekt) {
  case Mensch: {
    return 1; // teuer
//ODER - hier liegen einige ethische Probleme:
// if (Eigenschaften des Menschen, evtl. Fehlverhalten in der Verkehrssituation...) {
//  return 1;
// } else {
//  return 0.9;
// }
  }
  case Auto: {
   return 0.3;
  }
  case Mülltonne: {
   return 0.1; // billig
  }
  default: { //leere Straße
   return 0; //keine Kosten
  }
 }
}
ralfkannenberg hat geschrieben:
1. Feb 2018, 12:54
Was ich sagen will: es gibt in diesem Falle nichts zu bewerten ! Alles andere ist Bequemlichkeit, weil es vielleicht lästig ist, so langsam durch Wohngebiete zu fahren, weil es vielleicht teuer ist, Autos innen sicher auszustatten u.s.w. Aber man kann doch der AI nicht zumuten, dass sie wegen der Bequemlichkeit der Menschen "Tötungsaktivitäten" implementiert !!
Du gehst von einer idealen Welt aus, aber die gibt es leider nicht.

Benutzeravatar
tomS
Administrator
Administrator
Beiträge: 10489
Registriert: 19. Nov 2007, 20:29
Wohnort: Nürnberg

Re: Algorithmen auf dem Richterstuhl

Beitrag von tomS » 1. Feb 2018, 15:30

ralfkannenberg hat geschrieben:
1. Feb 2018, 11:23
ich fürchte, dass ist die Stelle, an der ich die Seiten wechsle: eine solche Software ist für mich inakzeptabel.

Eine künstliche Intelligenz muss defensiv sein, d.h. wenn das Auto in die Gefahr kommt, einen solchen Algorithmus anwenden zu müssen, dann muss es eben:

- langsamer fahren oder wenn das Risiko nach wie vor vorhanden ist, anhalten
- eine weniger gefährliche Route wählen
Wie soll das funktionieren? Das würde den heutigen Verkehr massiv beeinträchtigen. Wäre z.B. Tempo 30 in einer entsprechend ausgewiesenen Zone immer nachweislich sicher? Ich denke nein. Gleiches gilt für Tempo 50 in der Stadt oder Tempo 130.

Z.B. ist in meinem Wohngebiet bei Tempo 30 sicher kein gesichertes Bremsen möglich, wenn ein Kind zwischen parkenden Autos auf die Straße springt; Tempo 30 müsste also gefühlt auf Tempo 10 verringert werden.

Das ist natürlich eine sinnvolle Maßnahme, aber wohl eher nicht die Intention der meisten Autofahrer :-)
Gruß
Tom

Niels Bohr brainwashed a whole generation of theorists into thinking that the job (interpreting quantum theory) was done 50 years ago.

Benutzeravatar
tomS
Administrator
Administrator
Beiträge: 10489
Registriert: 19. Nov 2007, 20:29
Wohnort: Nürnberg

Re: Algorithmen auf dem Richterstuhl

Beitrag von tomS » 1. Feb 2018, 15:33

Frank hat geschrieben:
1. Feb 2018, 11:06
tomS hat geschrieben:
1. Feb 2018, 10:21
ralfkannenberg hat geschrieben:
1. Feb 2018, 09:42
ehe das möglich ist muss noch Einigkeit herrschen, was "Tötung" bedeutet.
Töten bedeutet hier ganz einfach, dass eine Software ein Ausweichmanöver einleitet oder unterlässt, in dessen Folge eine Person zu Tode kommt.
Geht es dir um das, oder um die Prgrammierung der Algorithmen?
Ich verstehe die Frage nicht. Ein Mensch kommt durch Einwirkung eines "Systems" Auto zu Tode. Das bezeichne ich als Töten - zunächst wertfrei und ohne Diskussion von Schuld, Verantwortung o.ä.

Mittelbar beteiligt sind alle, die mit dem System Auto befasst waren, also Entwickler, Produktmanager usw.
Gruß
Tom

Niels Bohr brainwashed a whole generation of theorists into thinking that the job (interpreting quantum theory) was done 50 years ago.

Benutzeravatar
tomS
Administrator
Administrator
Beiträge: 10489
Registriert: 19. Nov 2007, 20:29
Wohnort: Nürnberg

Re: Algorithmen auf dem Richterstuhl

Beitrag von tomS » 1. Feb 2018, 15:37

positronium hat geschrieben:
1. Feb 2018, 12:24
Tom hat im großen und ganzen (habe nicht über jede Aussage nachgedacht) völlig Recht. Vielleicht muss man Programmierer sein, um das so einzuschätzen, aber ich würde sogar sagen, dass das offensichtlich ist.
Danke

Weil man bei einer KI nie mit absoluter Gewissheit den genauen Algorithmus kennt, bin ich der Meinung, dass man um eine Mischung aus KI und klassischer Programmierung nicht herum kommt.
Ich sehe gerade bei der Sensorauswertung, insbesondere der Bildanalyse die KI, genauer: dort mehrere neuronale Netze. Diese müssen mehrdimensionale Distributionen ausgeben, welche die identifizierten Objekte beschreiben. Das heißt z.B.: es wurde ein Mensch mit einer gewissen Wahrscheinlichkeit erkannt, der mit einer gewissen Wahrscheinlichkeit in eine bestimmte Richtung geht. Dann wird es ethisch schwieriger: ist er mit einer gewissen Wahrscheinlichkeit sportlich, so dass er eher ausweichen könnte. Und so weiter.
Diese Daten müssen mit klassischer Programmierung gesetzeskonform und ethisch vertretbar geprüft werden, und an eine "Routenplanung" übergeben werden. Diese kann klassisch programmiert oder eine KI sein. Auch hier bekommt man Distributionen, wie z.B. Route1: sicher zu fahren (Spur halten...) mit einer gewissen Wahrscheinlichkeit, Zahl toter und verletzter mit der und der Wahrscheinlichkeit, Sachschäden mit Wahrscheinlichkeit usw..
Dann muss wieder mit klassischer Programmierung gesetzeskonform (d.h. mit entsprechenden Gewichten, um den "Preis" für die Route zu ermitteln) der beste Weg bestimmt werden.
positronium hat geschrieben:
1. Feb 2018, 12:24
If (es gibt eine Route ohne tote) {
fahre dort lang;
else {
if (besser(A,B)) {
fahre weiter und nimm Tod von B in Kauf
} else {
fahre weiter und nimm Tod von A in Kauf
}
}
Die Funktion "besser" muss implementiert werden. Ethisch korrekt fände ich, wenn man die Überlebenschance und Chance auf Unversehrtheit dafür heranziehen würde. Wenn also eine Person weiter weg ist, hat sie wegen der Bremsung eine geringer Aufprallgeschwindigkeit zu erwarten und daher die besseren Chancen. Es gibt aber noch viele andere Faktoren, die eine Rolle spielen können - da wird es schwierig.
Und natürlich noch das Training der KI/NN.
Ja, mit einer kleinen Korrektur:

If (es gibt eine Route ohne Crashs) {
fahre dort lang;
else {
if (besser(A,B)) {
fahre weiter und nimm den Crash mit B
} else {
fahre weiter und nimm den Crash mit A in Kauf
}
}


Crash ist neutraler und allgemeiner; es kann sich ja z.B. auch um schwere Verletzungen handeln.
Gruß
Tom

Niels Bohr brainwashed a whole generation of theorists into thinking that the job (interpreting quantum theory) was done 50 years ago.

Benutzeravatar
tomS
Administrator
Administrator
Beiträge: 10489
Registriert: 19. Nov 2007, 20:29
Wohnort: Nürnberg

Re: Algorithmen auf dem Richterstuhl

Beitrag von tomS » 1. Feb 2018, 15:39

ralfkannenberg hat geschrieben:
1. Feb 2018, 12:33
warum eigentlich ? Was spricht dagegen, den else-Fall wie folgt zu implementieren:


else {
halte an, zeige Warnung an und überlasse einem Menschen das Steuer
}
}
Es geht um Situationen, in denen ein Crash unvermeidlich bzw. ein Anhalten unmöglich ist.
Gruß
Tom

Niels Bohr brainwashed a whole generation of theorists into thinking that the job (interpreting quantum theory) was done 50 years ago.

Benutzeravatar
ralfkannenberg
Ehrenmitglied
Ehrenmitglied
Beiträge: 1899
Registriert: 13. Jan 2017, 10:00

Re: Algorithmen auf dem Richterstuhl

Beitrag von ralfkannenberg » 1. Feb 2018, 16:11

tomS hat geschrieben:
1. Feb 2018, 15:39
Es geht um Situationen, in denen ein Crash unvermeidlich bzw. ein Anhalten unmöglich ist.
Hallo Tom,

ich bin mit dieser pauschalen Aussage nicht einverstanden. Da es sich bei der vorliegenden Diskussion per Voraussetzung aber um Situationen handelt, in der eine solche Kollision unvermeidbar ist, habe ich die Thematik in einen eigenen Thread ausgelagert:

Darf künstliche Intelligenz Tötungen billigend in Kauf nehmen ?


Freundliche Grüsse, Ralf

Benutzeravatar
Dgoe
wohnt hier!
wohnt hier!
Beiträge: 399
Registriert: 20. Nov 2017, 17:32

Re: Algorithmen auf dem Richterstuhl

Beitrag von Dgoe » 1. Feb 2018, 17:01

tomS hat geschrieben:
1. Feb 2018, 15:39
Es geht um Situationen, in denen ein Crash unvermeidlich bzw. ein Anhalten unmöglich ist.
Wenn die Bremsen versagen, beispielsweise, nicht wahr?

Im Grunde hat die Vorgabe der Bundesgerichtshof schon getroffen, mit dem Urteil den Flugzeugabschuß zu verbieten, weil das gegen die Würde des Menschen verstößt. Demnach dürfte der Schaffner die Schranke nicht umlegen beim Weichenproblem und hier keine Lenkung nach Abwägung stattfinden.
So ein Code wäre illegal, sozusagen.

Siehe dazu auch seekers Link von weiter oben.

Gruß,
Dgoe
Der Optimist glaubt, dass wir in der besten aller möglichen Welten leben. Der Pessimist befürchtet, dass der Optimist damit Recht hat.

Antworten