seeker hat geschrieben: ↑1. Feb 2018, 08:59
tomS hat geschrieben: ↑31. Jan 2018, 23:53
1) Zu der Frage, wer im Konfliktfall zu bevorzugen ist: mein Problem ist nicht erst, welche konkrete Regel festlegt, dass X (oder Y, oder Z) bevorzugt werden soll, sondern bereits die Tatsache, dass irgendeine Regel festzulegen ist, in der dies entschieden wird. Jede derartige algorithmische Regel
i) ist in bestimmten Fällen mathematisch äquivalent zu einem gezielten Tötungsbefehl, oder
ii) unpräzise im Sinne eines Zufallsgenerators, oder
iii) unverständlich im Sinne eines neuronalen Netzwerkes (dessen Entscheidungen nicht im Algorithmus sondern in den Parametern stecken)
Ich halte alle drei Varianten für hochproblematisch.
Kann man also sagen, dass man deshalb diese Technik recht sicher nicht mit den heute geltenden Regeln (Industrienormen, Spezifikationen, usw.) zusammenbekommen kann, mindestens nicht in sicherheitskritischen Bereichen?
(i) entspräche in einigen Bereichen den heute geltenden Regeln; z.B. würde
1) ein Kamerasystem plus Mustererkennungs-SW potentielle Ziele identifizieren und
2) nach einem präzisen Algorithmus auswählen
(2) entspräche bzgl. der Umsetzung dem, was heute schon Stand der Technik ist. (1) ist aufgrund der Mustererkennung natürlich völlig anders geartet.
Mein Punkt (i) bezieht sich auf (2)
(iii) entspräche insbs. einer Situation, bei der auch die Zielauswahl (2') z.B. durch ein neuronales Netz erfolgen würde; das Training würde dann nicht wie bei (2) auf Erkennung von Menschen bzw. Unterscheidung von Menschen und Bäumen erfolgen, sondern z.B. auf Anzahl getroffener Menschen (was stark vereinfacht ist, da Treffen nicht unbedingt töten bedeutet, weil z.B. auch der Grad der Schwere der Verletzung mit zu bewerten wäre)
Ich denke, wir können einen vollumfänglich präzisen Algorithmus ausschließen; es geht immer um eine irgendwie geartete Kombination mit einer KI / einem neuronalen Netz o.ä.
D.h. dass die heutigen Normen, die in sicherheitskritischen Bereichen beweisbar korrekte (= in Übereinstimmung mit einer gesetzlichen oder normativen Vorgabe befindliche) Algorithmen fordern, nicht mehr greifen. Man müsste diese sozusagen dahingehend aufweichen, dass nicht mehr der
Algorithmus, sondern die
Ziele = das Vermeiden oder zumindest Minimieren von Schäden im Vordergrund steht.
Ein Problem für mich ist, dass für den Algorithmus im Sinne von (i) sowie für das Training des neuronalen Netzes im Sinne von (iii) eine
Bewertungsfunktion für menschliches Leben bzw. körperliche Unversehrtheit vorzugeben ist. Wer legt diese nach welchen Kriterien fest?
seeker hat geschrieben: ↑1. Feb 2018, 08:59
a) diese Technik kann, darf und wird mindestens in bestimmten, insbes. sicherheitskritischen Bereichen nicht eingesetzt werden
oder
b) diese Technik kann und wird eingesetzt werden, das lässt sich gar nicht vermeiden, wir brauchen dafür aber veränderte Regeln
Das ist ein bisschen selbstbezüglich.
Wie oben ausgeführt benötige ich zur Einführung zunächst Regeln, insbs., eine andere Art von Normen sowie eine Bewertungsfunktion. D.h. (a) trifft insofern zu, dass diese Technik nicht eingeführt werden kann, solange diese Regeln nicht vorliegen; es ist zumindest nicht denkbar, dass sich alle Regeln erst im Nachhinein in einem Diskurs ergeben. Wenn in sicherheitskritische Bereichen bessere Ergebnisse erzielt werden können, würde ich die Einführung nicht kategorisch ausschließen. (b) würde ich zumindest für kritische Bereiche ausschließen, solange bestimmte Regeln nicht fixiert sind (Routenplanung kann man iterativ optimieren, dann gibt's halt auch mal mehr Staus; bei autonomen Fahren und Ausweichmanövern wüsste ich schon gerne vorher, was geschehen wird).
Die Nachvollziehbarkeit der Regeln sowie deren Überprüfung bzw. den konkreten Test bzgl. Übereinstimmung mit den Vorgaben halte ich ebenfalls für schwierig. Wenn man eineinen klassischen sicherheitskritischen Algorithmus betrachtet, kann man z.B. in endlicher Zeit eine 100% Testabdeckung erreichen. Dabei werden analoge Inputs dahingehend "digitalisiert", dass sie eben entweder in einen bestimmten Bereich fallen oder nicht. Z.B. ist es für ein Ausweichmanöver relevant, ob dieses Ausweichmanöver im stabilen Fahrbetrieb durchführbar ist oder nicht; dazu muss ich lediglich den Parameterbereich des stabilen Fahrens und Lenkens kennen (Geschwindigkeit und Lenkeinschlag), alles folgende ist dann rein digital, d.h. mittels ja-nein-Entscheidungen modellierbar (siehe dazu auch die o.g. Safety-Matrix).
Diese Vorgehensweise funktioniert nicht für ein neuronales Netzwerk. D.h. ich kann zwar statistisch belegen, dass die normative Vorgabe erfüllt wird (also z.B. Minimierung der Anzahl getroffener Personen), ich muss jedoch zwingend davon ausgehen, dass dies in Einzelfällen nicht gegeben sein wird, d.h. ich muss davon ausgehen, dass die KI in Ausnahmefällen diese Vorgabe verletzen wird. Ich kann diese Ausnahmefälle jedoch prinzipbedingt vorher nicht erkennen. Darüberhinaus ist offensichtlich klar, dass die Auswahl der Trainingssituationen diese Ausnahmefällen beeinflussen wird, ohne dass jemand weiß, wie. Nehmen wir als Beispiel die Hinzunahme von Trainingssituationen mit dreiradfahrenden Kindern; diese wird die Sicherheit dieser Kinder erhöhen; wie wirkt sie sich auf die Sicherheit einer konkreten Person in einer konkreten Situation aus? Evtl. verschlechtert sie diese. Diese Effekte sind prinzipiell nicht verstehbar; wir wissen nicht, warum die KI so entscheidet, wie sie entscheidet (das ist bereits heute bei Schach und Go der Fall).
Zusammenfassend: als Knackpunkte sehe ich die Entwicklung neuer normativer Regeln, die Bewertungsfunktion für Personenschäden sowie die Nachvollziehbarkeit der Entscheidung einer KI.