Hinweis auf die DSGVO: Auf unserer Seite werden keine Dritt-Anbieter-Cookies verwendet und nur Daten erfasst, welche für das Minimum an Board-Funktionalität notwendig sind.
Bevor Sie sich registrieren oder das Board verwenden, lesen Sie bitte zusätzlich die DSGVO-Erklärung, welche in der Navigationsleiste verlinkt ist.

Kurzfassung der unserer Meinung nach wichtigsten DSGVO-Punkte:
Es kann vorkommen, dass Benutzer eigenverantwortlich Videos oder sonstige Medien in ihren Beiträgen verlinken, welche beim Aufruf der Forenseite als Teil der Seite samt zugehörigem Material mitgeladen werden. Sollten Sie dies nicht wünschen, verwenden Sie beim Benutzen des Forums einen Blocker wie z.B. uMatrix, welcher das Laden von Inhaltsblöcken von Fremd-URLs effektiv unterbinden kann.
Wir blenden keine Werbung ein und schränken die Inhalte in keinster Weise bei Benutzung von Addblockern ein. Dadurch ist die Grundfunktionalität des Forums auch bei vollständigem Blockieren von Drittanbieter-Inhalten stets gegeben.

Cookies werden unsererseits nur verwendet um das Einloggen des Benutzers für die Dauer der Forenbenutzung zu speichern. Es steht dem Benutzer frei die Option 'Angemeldet bleiben' zu verwenden, damit der Cookie dauerhaft gespeichert bleibt und beim nächsten Besuch kein erneutes Einloggen mehr notwendig ist.
EMail-Adressen werden für Kontakt bei wichtigen Mitteilungen und zur Widerherstellung des Passwortes verwendet. Die verwendeten IPs können von uns ohne externe Hilfsmittel mit keiner realen Person in Verbindung gebracht werden und werden nach spätestens 7 Tagen gelöscht. Diese IPs werden höchstens verwendet um Neuanmeldungen unerwünschter oder gesperrter Nutzer zu identfizieren und zu unterbinden. Wir behalten uns daher vor bei Verdacht, die Frist für die IP-Löschung auf maximal 14 Tage zu verlängern.
Unsere Webseite läuft auf einem virtuellen Linux-Server, welcher von einem externen Anbieter gehostet wird. Etwaige Verstöße der DSGVO-Auflagen seitens dieses deutschen Hosters können wir nicht feststellen und somit auch nicht verfolgen.
Wir halten Backups unserer Datenbanken, welche in regelmäßigen Abständen als Schutz vor Katastrophen, Hackerangriffen und sonstigen Ausfällen erstellt werden. Sollte ein Nutzer die Löschung seiner Daten wünschen, betrachten wir es als Unzumutbar die Backups auch von den Daten zu befreien, da es sich hierbei um eine mehrtägiges Unterfangen handelt - dies ist für eine Einzelperson beim Betrieb eines privaten Forums nicht zumutbar möglich ohne das Backup komplett zu löschen.
Sollten Sie etwas gegen die dauerhafte anonyme Speicherung ihrer EMail-Adresse, ihres Pseudonyms und ihrer Beiträge in einem Backup haben, sehen Sie von der Registrierung in diesem Forum ab. Für Mitglieder, welche vor dem 25.05.2018 registriert waren steht jedoch das Recht im Raum, eine Löschung der Datenbank-Backups zu beantragen.



Wenn dies Ihr erster Besuch hier ist, lesen Sie bitte zunächst die FAQs sowie die wesentlichen Regeln zur Benutzung des Forums.
Um an den Diskussionen teilnehmen zu können, müssen Sie sich zunächst registrieren.

Algorithmen auf dem Richterstuhl

Wissenschaftsgeschichte, Wissenschaftstheorie bzw. -philosophie, Technik
positronium
Ehrenmitglied
Ehrenmitglied
Beiträge: 2832
Registriert: 2. Feb 2011, 20:13

Re: Algorithmen auf dem Richterstuhl

Beitrag von positronium » 26. Jan 2018, 14:49

Frank hat geschrieben:
26. Jan 2018, 14:38
Der Mensch , der in seinem Fahrzeug sitzt, sich vom Schaltkreiswunder durch die Gegend fahren lässt, ist in vollem Umfang haftbar zu machen, wenn ein Unfall passiert. Die Absicht zählt und die Entscheidung hat nunmal der Mensch getroffen , wo hin er will.
Wäre er zu Hause geblieben, dann wäre auch die Gefahrensituation niemals eingetreten.
Nein, so kann man das nicht sehen. Ein PKW-Insasse (nicht Fahrer, weil er ja nicht selbst steuert) kann nicht dafür verantwortlich sein, wie die Maschine (selbstfahrendes Auto) die ihm gestellte Aufgabe löst. Es kann nicht stets der erstbeste Mensch die Verantwortung tragen müssen.

Benutzeravatar
Frank
Ehrenmitglied
Ehrenmitglied
Beiträge: 4032
Registriert: 12. Dez 2005, 23:22
Wohnort: Odenwald

Re: Algorithmen auf dem Richterstuhl

Beitrag von Frank » 26. Jan 2018, 14:53

positronium hat geschrieben:
26. Jan 2018, 14:49
Frank hat geschrieben:
26. Jan 2018, 14:38
Der Mensch , der in seinem Fahrzeug sitzt, sich vom Schaltkreiswunder durch die Gegend fahren lässt, ist in vollem Umfang haftbar zu machen, wenn ein Unfall passiert. Die Absicht zählt und die Entscheidung hat nunmal der Mensch getroffen , wo hin er will.
Wäre er zu Hause geblieben, dann wäre auch die Gefahrensituation niemals eingetreten.
Nein, so kann man das nicht sehen. Ein PKW-Insasse (nicht Fahrer, weil er ja nicht selbst steuert) kann nicht dafür verantwortlich sein, wie die Maschine (selbstfahrendes Auto) die ihm gestellte Aufgabe löst. Es kann nicht stets der erstbeste Mensch die Verantwortung tragen müssen.
Du bist auch jetzt schon dafür verantwortlich, wenn dein PKW vor deinem Haus geklaut und damit ein Mensch z.B. bei einem Unfall getötet wird. ( Nur zur Info :wink: )
Dafür gibt es die Gefährdungshaftung.
Der Geschädigte, (oder wie in meinem Beispiel dann wohl die Hinterbliebenen) ist im einem angemessenem Zeitrahmen zu entschädigen und es kann nicht seine Aufgabe sein, den Schuldigen zu ermitteln, oder seine Entschädigung davon abhängig zu machen, ob der eigentlich Verantwortliche des Unfalls ermittelt werden kann/konnte.
Mit freundlichen Grüßen

Frank

positronium
Ehrenmitglied
Ehrenmitglied
Beiträge: 2832
Registriert: 2. Feb 2011, 20:13

Re: Algorithmen auf dem Richterstuhl

Beitrag von positronium » 26. Jan 2018, 15:06

Frank hat geschrieben:
26. Jan 2018, 14:53
positronium hat geschrieben:
26. Jan 2018, 14:49
Frank hat geschrieben:
26. Jan 2018, 14:38
Der Mensch , der in seinem Fahrzeug sitzt, sich vom Schaltkreiswunder durch die Gegend fahren lässt, ist in vollem Umfang haftbar zu machen, wenn ein Unfall passiert. Die Absicht zählt und die Entscheidung hat nunmal der Mensch getroffen , wo hin er will.
Wäre er zu Hause geblieben, dann wäre auch die Gefahrensituation niemals eingetreten.
Nein, so kann man das nicht sehen. Ein PKW-Insasse (nicht Fahrer, weil er ja nicht selbst steuert) kann nicht dafür verantwortlich sein, wie die Maschine (selbstfahrendes Auto) die ihm gestellte Aufgabe löst. Es kann nicht stets der erstbeste Mensch die Verantwortung tragen müssen.
Du bist auch jetzt schon dafür verantwortlich, wenn dein PKW vor deinem Haus geklaut und damit ein Mensch z.B. bei einem Unfall getötet wird. ( Nur zur Info :wink: )
Dafür gibt es die Gefährdungshaftung.
Der Geschädigte, (oder wie in meinem Beispiel dann wohl die Hinterbliebenen) ist im einem angemessenem Zeitrahmen zu entschädigen und es kann nicht seine Aufgabe sein, den Schuldigen zu ermitteln, oder seine Entschädigung davon abhängig zu machen, ob der eigentlich Verantwortliche des Unfalls ermittelt werden kann/konnte.
Bist Du Dir bei dieser rechtlichen Bewertung wirklich sicher (also, sofern der Schlüssel nicht gesteckt ist)? Ich sehe bei einem Diebstahl oder in der Programmierung der Fahrtroute keine gefährdende Handlung, und die möglichen Folgen sind nicht vorhersehbar.
Das kann ich mir höchstens als Grauzone vorstellen... Was, wenn mein Paketzusteller (selbstfahrend) jemand überfährt, und er nur wegen mir die Route abfährt, wegen meiner Bestellung?

Benutzeravatar
ralfkannenberg
Ehrenmitglied
Ehrenmitglied
Beiträge: 2098
Registriert: 13. Jan 2017, 10:00

Re: Algorithmen auf dem Richterstuhl

Beitrag von ralfkannenberg » 26. Jan 2018, 15:39

seeker hat geschrieben:
26. Jan 2018, 14:10
@Ralf: Ich bin natürlich etwas ins Extrem gegangen, ich habe das getan, um zu zeigen, dass man aufpassen muss.
Hallo seeker,

dass man aufpassen muss ist natürlich klar. Und dass hier in einer Gesellschaft, in der Datenschutz ohnehin nur noch etwas für Schwächlinge ist, ein erhöhtes Risiko besteht, dass missbräuchlich Daten erhoben werden, wird auch nicht verwundern. Aber an dieser Entwicklung sind wir alle selber schuld. Hier hätte der zuständige Datenschutz-Beauftragte oder notfalls der Wähler schon viel früher eingreifen müssen.

Nur funktioniert das nicht in einem Umfeld, in dem die überwältigende Mehrheit sogar noch stolz darauf ist, vertrauliche Daten von sich selber auf den sozialen Plattformen wie Facebook und was es da alles gibt zum Besten zu geben. Diese Leute sollen sich dann nicht beklagen, wenn die Entwicklung dahingehend verläuft, dass eine weitere Überwachung stattfindet.

Mich kriegt man beispielsweise auch nicht dazu, irgendwelche Rabattpunkte zu erwerben, mit denen mein Kaufverhalten ausgewertet wird und ich mir dann den zehnten Staubsauger 10 Euro billiger kaufen kann, obgleich ich schon 9 funktionierende Staubsauger zu Hause habe. Aber mit dem Werbeversprechen "Profitieren Sie" schalten leider zahlreiche Menschen ihr Gehirn einfach aus.

seeker hat geschrieben:
26. Jan 2018, 14:10
Aber ansonsten darfst du mir glauben, dass das von mir angeschnittene Szenario gar keine so arge Science Fiktion ist, es gibt bereits heute Bestrebungen, die eindutig in diese Richtung gehen: Das Gesundheitssystem wird immer teurer, besonders die ganz neuen Hochtechnologie-Behandlungsmethoden und Medikamente. Enormes Sparpotential besteht darin den Menschen dahin zu bringen sich so zu verhalten, wie es gut und billiger fürs System ist. Das läuft dann so: Du gibst uns deine Daten (damit wir das überprüfen können) und verhälst dich so wie wir das wollen, lebst gesund, usw. und dafür bezahlst du dann geringere Versicherungsbeiträge. Du musst nicht mitmachen, aber wenn nicht, zahlst du halt entsprechend mehr. So läuft das...
Das ist auch richtig so. Die Frage ist halt nur, was für Daten man herausgeben muss. So bin ich durchaus der Meinung, dass es zumutbar ist, dass Personen über 50 Jahre einmal im Jahr zum Zahlarzt zur Kontrolle ihrer Zähne gehen. Oder eine Broschüre über Ernährung lesen. Oder eine Broschüre über einfache sportliche Aktivitäten wie Nordic Walking lesen.


Es ist eben eine Frage vom Mass, welche gesundheitserhaltenden Massnahmen zumutbar sind und welche nicht. Letztlich kommen diese übrigens dem Betroffenen selber am meisten zugute. Zumal auch hier eine Art 80/20-Regel gelten dürfte, d.h. mit den 20% einfachsten "Massnahmen", die auch noch Spass machen, lassen sich 80% der Erkrankungen vermeiden.


Freundliche Grüse, Ralf

Benutzeravatar
seeker
Ehrenadmin
Ehrenadmin
Beiträge: 6431
Registriert: 26. Dez 2009, 10:29

Re: Algorithmen auf dem Richterstuhl

Beitrag von seeker » 26. Jan 2018, 16:32

@Ralf: Stimme zu.

@Frank: Wenn ich in eine Straßenbahn steige und die Straßenbahn einen Menschen überfährt bin nicht ich haftbar, wenn ich in ein Taxi steige und der Taxifahrer einen Unfall baut auch nicht und wenn ich in eine selbstfahrende Straßenbahn oder in ein selbstfahrendes E-Taxi steige dann natürlich auch nicht und wenn das E-Taxi in dem ich fahre mir gehört, also insofern ein privater selbstfahrender PKW ist und ich keine Fehler gemacht habe, alle Wartungen habe machen lassen, das Auto m.W.n. technisch in Ordnung sein sollte, dann werde ich die Verantwortung natürlich an den Hersteller oder an die Werkstatt weiterreichen können. Genau so wird das vom Gesetzgeber geregelt werden, wie denn sonst?
positronium hat geschrieben:
26. Jan 2018, 14:26
Allein die Gleichheit der Menschen ist eine enorme Herausforderung. Beispiel mit wenig Realitätsbezug, aber zur Illustration: Ein Auto fahre in einem Tunnel, kann also nicht ausweichen und es sei unbremsbar. Es befinden sich zwei Personen auf der Fahrbahn, und das Auto und die Straße seien gerade so breit, dass entweder Person A, Person B oder beide überfahren werden. Was soll die Software tun?
...
Sorry, aber das ist typisch deutsch... jede winzige Kleinigkeit vorhersehen und abdecken wollen, damit ja nirgends eine auch noch so kleine Ungerechtigkeit vorkommen kann, aus demselben Grund haben wir auch das komplizierteste Steuerrecht der Welt - und mit welchem Erfolg? ... :)

Fakt ist aus meiner Sicht:
Das ist alles Kleinkram, im Grunde ist es relativ unerheblich ob in so extrem seltenen Situationen A oder B oder A und B oder der schwarze oder der weiße Mensch umgefahren werden, wichtig sind die 10.000 anderen Leute die wegen der neuen Technik jährlich nicht umgefahren werden. Worüber bei so Extremseltensituationen geredet wird ist also etwas an der x-ten Nachkommastelle. Jaa, wenn so etwas einmal passieren würde, dann würden sich alle darüber aufregen, so sind die Deutschen nunmal....

Ein selbstfahrendes Auto ist einfach zunächst einmal so zu programmieren, dass es im Notfall bremst und dann so ausweicht, dass ein wahrscheinlich möglichst geringer Schaden entsteht, den Rest muss man gar nicht im Detail vorgeben. Ziel muss in der Evolution der Software nur sein, dass selbst bei Extremseltensituationen statistisch/im Schnitt kein größerer Schaden entsteht wie wenn ein Mensch am Steuer gesessen hätte (bei Einführung der Technik muss selbst das noch gar nicht unbedingt erreicht sein), das reicht moralisch-ethisch völlig aus, so lange in Summe aller anderen Situationen 90% weniger Schaden entsteht. Der Rest ist dann eben Schicksal, Tragödie, man muss akzeptieren, dass das Leben eben so ist, man sollte nicht alles bis ins kleinste Detail kontrollieren und vorhersehen wollen, das ist nicht erreichbar.
Grüße
seeker


Kritisches Denken bedeutet nicht, sich einseitig nur aus kritischen Quellen zu versorgen und die dortigen Darstellungen unkritisch zu übernehmen. Viele überschätzen ihre eigene Medienkompetenz massiv. Dies wird von Verführern ausgenutzt.

positronium
Ehrenmitglied
Ehrenmitglied
Beiträge: 2832
Registriert: 2. Feb 2011, 20:13

Re: Algorithmen auf dem Richterstuhl

Beitrag von positronium » 26. Jan 2018, 16:57

seeker hat geschrieben:
26. Jan 2018, 16:32
Sorry, aber das ist typisch deutsch... jede winzige Kleinigkeit vorhersehen und abdecken wollen, damit ja nirgends eine auch noch so kleine Ungerechtigkeit vorkommen kann, aus demselben Grund haben wir auch das komplizierteste Steuerrecht der Welt - und mit welchem Erfolg? ... :)
Du siehst das alles viel zu locker. Du darfst mein Beispiel auch nicht als konkrete Situation sehen, deren Lösung einprogrammiert wird. Konkret hat man es mit einem recht großen Datensatz zu tun, der die per Bilderkennung gefundenen Objekte enthält, und diesen Eigenschaften zuschreibt: anderes Fahrzeug, Fußgänger, Verkehrsschild, Brückenpfeiler usw., sowie sich selbst und seine/n Insassen. Die Eigenschaften sind dann z.B. Geschwindigkeit, Größe, beweglich/unbeweglich, hart(Betonpfeiler)/weich(Fahnenmast), potentielle Reaktionsgeschwindigkeit (junger/alter Mensch) usw.. Das Auto muss dann einen zu fahrenden Weg berechnen. Wenn eine Gefahrensituation vorliegt, handelt es sich mathematisch gesehen um ein Minimierungsproblem. D.h. man hat eine Funktion, welche o.g. Objekte als Parameter übergeben bekommt, und mit dem jeweiligen Ergebnis wird eine jede mögliche Route bewertet. Und für diese Minimierung muss man jedem Objekt einen Wert (oder eine Bewertungsfunktion über dessen Eigenschaften) beimessen. Das bedeutet, dass man um eine Bewertung, so gut diese eben möglich ist, niemals herum kommt - man kann das nicht ignorieren, so wie Du das vorschlägst.

Nebenbei bemerkt: Das sind alles extrem aufwendige Rechenoperationen. Man muss immer Näherungen und Optimierungen einsetzen, die im Zweifelsfall auch über Leben und Tod entscheiden können. So eine Steuerungssoftware kann ja nicht jede denkbare Route gemütlich berücksichtigen/durchrechnen, in der Zehntelsekunde vor einem möglichen Unfall. Autos mit ein paar Flops mehr fahren bestimmt sicherer.
seeker hat geschrieben:
26. Jan 2018, 16:32
Ziel muss in der Evolution der Software nur sein, ...
Meiner Ansicht nach darf so eine Software nicht selbstlernend sein. Das würde jede Unfalluntersuchung und Verbesserung eigentlich unmöglich machen - man kann ja aus einem NN nicht einfach einen Teil als Algorithmus "ausschneiden".

Benutzeravatar
Frank
Ehrenmitglied
Ehrenmitglied
Beiträge: 4032
Registriert: 12. Dez 2005, 23:22
Wohnort: Odenwald

Re: Algorithmen auf dem Richterstuhl

Beitrag von Frank » 26. Jan 2018, 18:00

seeker hat geschrieben:
26. Jan 2018, 16:32


@Frank: Wenn ich in eine Straßenbahn steige und die Straßenbahn einen Menschen überfährt bin nicht ich haftbar, wenn ich in ein Taxi steige und der Taxifahrer einen Unfall baut auch nicht und wenn ich in eine selbstfahrende Straßenbahn oder in ein selbstfahrendes E-Taxi steige dann natürlich auch nicht und wenn das E-Taxi in dem ich fahre mir gehört, also insofern ein privater selbstfahrender PKW ist und ich keine Fehler gemacht habe, alle Wartungen habe machen lassen, das Auto m.W.n. technisch in Ordnung sein sollte, dann werde ich die Verantwortung natürlich an den Hersteller oder an die Werkstatt weiterreichen können. Genau so wird das vom Gesetzgeber geregelt werden, wie denn sonst?


Du kannst ruhig soviel Verantwortung weiter geben wie du willst, leider wirst du da aber kein durchkommen haben.

Es geht um das Eigentum. Dein Auto das dir gehört, für das hast du allein schon die Haftung (Gefährdungshaftung!!!) weil es dir gehört.
Wenn es nur rumsteht, die Ölwanne kaputt geht, das ganze Öl die Umwelt verseucht, haftest du auch, obwohl es nicht in Gebrauch war.
Ein Taxi, eine Strassenbhan gehört dir nicht........
Ist das so schwer zu verstehen.
Wenn dir mit dem selbstfahrenden Auto ein Unfall passiert, dann interessiert es erstmal niemand , wer noch dafür verantwortlich sein könnte. Du als Halter wirst in die Haftung genommen.
Du bzw. deine Krafthaftpflicht kommt für den Schaden auf. Ob, wer, oder überhaupt jemand in Regress genommen werden kann, dass ist eine Sache für danach. Zuerst haftest aber du(!)
@Positronium
Dein Paketzustelldienst muss genauso für seine Fahrzeige haften.

In meinem Beispiel mit den selbstfahrenden Autos ging es um dich als Gefahrener und um die Haftung , bei Eigentum des Fahrzeuges.

BTW.

Gerade eben kam im Radio , dass irgendwo im Harz (Namen vergessen) eine Arbeitsgruppe gerade dafür plädiert hat , in Sachen Haftung es genauso zu halten wie bisher.
Das hat sich seit über 100 Jahren bewährt........
Mit freundlichen Grüßen

Frank

Benutzeravatar
tomS
Ehrenmitglied
Ehrenmitglied
Beiträge: 10606
Registriert: 19. Nov 2007, 20:29
Wohnort: Nürnberg

Re: Algorithmen auf dem Richterstuhl

Beitrag von tomS » 26. Jan 2018, 18:43

seeker hat geschrieben:
26. Jan 2018, 14:10
tomS hat geschrieben:
26. Jan 2018, 13:12
Die demokratischen Strukturen sind immer dann gefährdet, wenn die Politik nicht mehr handlungsfähig ist. Wenn also Konzerne KIs deutlich schneller generieren kann als die Politik zu reagieren im Stande ist, dann zerstört dies möglicherweise die Grundlage für Politik und Demokratie (nach heutigen Verständnis).
Da kann ich mir immer noch nichts Konkretes drunter vorstellen. Ansonsten kann die Politik ja Standards setzen, die zu erfüllen sind, bevor etwas auf den Markt darf, das wäre ganz normales Vorgehen.
Beispiel folgt doch sofort.
seeker hat geschrieben:
26. Jan 2018, 14:10
tomS hat geschrieben:
26. Jan 2018, 13:12
Es trifft insbs. dann zu, wenn man eine an sich frei einsetzbare Technologie verbieten müsste, weil sie z.B. einen sozial destruktiven Prozess in Gang setzt, den wir heute jedoch noch gar nicht erkennen und bewerteten können. Stellen wir uns z.B. vor, dass nach Zulassung autonomer Fahrzeuge Logistik, Groß- und der Einzelhandel in kürzester Zeit vollständig automatisiert ablaufen können, verbunden mit massiven Energieeinsparungen im Individualverkehr. Andererseits würde dies wohl unseren Arbeitsmarkt und letztlich die Gesellschaft zerstören.
Das ist die soziale Komponenete, dort wäre eben die Politik gefragt einer zu starken Spaltung der Gesellschaft entgegenzuwirken. Ich habe einigermaßen Vertrauen, dass das schnell genug gelingen kann: Die Politik ist immer dann schnell, wenn es auch wirklich nötig ist.
Ich habe da kein Vertrauen, weil bereits heute Google u.a. KIs produktiv einsetzen, ohne dass wir überhaupt erahnen, was genau die tun.

Die Politik ist m.E. nicht schnell genug, und sie hat teilweise nicht einmal die Expertise, um geeignet reagieren zu können.

Stichworte wären Umweltverschmutzung und drohende Klimakatastrophe, Umgehen mit den Flüchtlingen 2016 sowie insbs. den Ursachen, Beginn des ersten Weltkrieges, Einführung von Elektroautos (worin ich das gröte Risiko für de Wohlstand des Standortes Deutschland sehe).

seeker hat geschrieben:
26. Jan 2018, 14:10
tomS hat geschrieben:
26. Jan 2018, 12:33
Es gibt ein massives ethisch-moralisches Problem, wenn ein SW-Entwickler auf Anweisung des Vorgesetztes einen Algorithmus entwickeln soll, der mathematisch nachweisbar in einer konkreten Situation menschliches Leben auslöscht.

Dies ist fundamental neu, noch nie dagewesen im zivilen Bereich!
Unsinn, das ist nicht fundamental neu!
Wie war es denn bei der Einführung des Sicherheitsgurtes und des Airbags?
Diese technischen Einrichtungen haben sehr viele Leben gerettet, aber es war auch von vorne herein klar, dass es auch in wenigen Fällen das Leben von Leuten kosten wird, die sonst überlebt hätten, nämlich die Leute die deshalb nicht mehr aus dem brennenden Auto kamen oder Genickbruch erlitten haben oder sonstwas blödes passiert ist.
Shit happens!
Das ist doch Quatsch.

Es ist ein Unterschied, ob ich einen Algorithmus entwickle, der bei einer bestimmten negativen Beschleunigung einen Airbag auslöst,

if (a < a_threshold)
{
inflate();
}


oder der bei der Erkennung eines bestimmten Musters einen Menschen direkt tötet


OnImminentCrash()
{
...

allObjects.sort( value );
target = allObjects.front();
setDirection( target );

...
}


Da hilft auch ein "if target.isHuman() print( "sorry" );" nicht über den Schreck hinweg.
seeker hat geschrieben:
26. Jan 2018, 14:10
Also haben die Entwickler des Gurtes ebenso nachweisbar in einer konkreten Situation menschliches Leben auslöscht.
Meine Wahrnehmung ist, dass du den Unterschied nicht sehen möchtest.

Warum glaubst du eigentlich hat das Bundesverfassungsgericht den Abschuss von Flugzeugen im Falle einer Entführung auch für den Fall verboten, dass z.B. klar ersichtlich ist, dass es z.B. auf ein vollbesetztes Fußballstadion zusteuert?

Du denkst ernsthaft, dass es unproblematisch ist, genau die selbe Entscheidung in eine Software zu programmieren?

seeker hat geschrieben:
26. Jan 2018, 14:10
Es gibt kein massives ethisch-moralisches Problem.
So wie bei dem Abschuss eines Flugzeuges?
seeker hat geschrieben:
26. Jan 2018, 14:10
... dann wirst du sehen, dass auch hier nichts so heiß gegessen wird, wie es gekocht wurde.
Freie Fahrt für freie KIs.

Lies mal Bostrom, Kurzweil, ...

Oder hier:

https://www.internetworld.de/technik/vo ... 40610.html
seeker hat geschrieben:
26. Jan 2018, 14:10
Tesla-Chef Elon Musk warnt davor, dass unkontrollierbare künstliche Intelligenz die wohl größte Gefahr für die Menschheit darstelle. Im Sommer schockierte er US-Gouverneure mit einem Szenario, in dem eine hochentwickelte Maschine einen Krieg starten könnte, um den Preis bestimmter Aktien zu beeinflussen. Man könne bei lernenden Maschinen nicht den üblichen Weg gehen, dass Regeln erst festgelegt würden, wenn schlimme Sachen passiert seien. "Wenn wir bei künstlicher Intelligenz nur reagieren, kommt die Regulierung zu spät."
Was dagegen vertrittst ist abwarten und Tee trinken. Du unterschätzt dabei die Tatsache, dass du das Potential dessen, wovon du redest, gerade mal in Ansätzen verstehst (letzteres trifft auf uns alle zu) und dich konsequent weigerst, anzuerkennen, dass zumindest das Risiko eines Paradigmenwechsels bevorsteht, dessen Auswirkungen du nicht überblicken kannst, insbs. dann nicht, wenn du dich nicht damit befasst.

Im Bezug auf Technologien und Softwareentwicklung kenne ich Risikomanagement als aktiv gesteuerten Prozess des Identifizierens, Verstehen und Bewertens von Risiken, sowie bei Bedarf des Einleiten von Maßnahmen zur Risikominimierung. Die Haltung "Abwarten und Tee trinken, weil nichts so heiß gegessen wird, wie's gekocht wurde", disqualifiziert dich völlig in einem technologischen Umfeld. Jeder SW-Entwickler eines Navis geht risikobewusster an die Sache ran.

Aber es geht hier ja um Software, es geht um Technologien, es geht um möglicherweise erhebliche und globale Auswirkungen. Identifizieren, Verstehen und Bewerten von Risiken sollte dabei eigentlich Standard sein. "Abwarten und Tee trinken" nicht das, was ich mir unter Risikobewusstsein vorstelle. Das wünsche ich mir nicht von Technologieunternehmen und auch nicht von Politikern.
Gruß
Tom

Der Wert eines Dialogs hängt vor allem von der Vielfalt der konkurrierenden Meinungen ab.
Sir Karl R. Popper

Benutzeravatar
Dgoe
wohnt hier!
wohnt hier!
Beiträge: 399
Registriert: 20. Nov 2017, 17:32

Re: Algorithmen auf dem Richterstuhl

Beitrag von Dgoe » 26. Jan 2018, 21:03

Code: Alles auswählen

print( "sorry" )
:shock: :lol: der war gut, ich kann nicht mehr *gröhl*

Ähm, sorry, nicht lustig.
Der Optimist glaubt, dass wir in der besten aller möglichen Welten leben. Der Pessimist befürchtet, dass der Optimist damit Recht hat.

Skeltek
Site Admin
Site Admin
Beiträge: 4264
Registriert: 25. Mär 2008, 23:51
Wohnort: Stuttgart, Germany
Kontaktdaten:

Re: Algorithmen auf dem Richterstuhl

Beitrag von Skeltek » 27. Jan 2018, 10:59

Ich wäre froh wenn ich von einer KI angefahren würde. Wenn ich mir ansehe wie blöd andere Leute Auto fahren, fühle ich mich da echt sicherer. Als Opfer ist mir eigentlich relativ egal wer mir Schadensersatz/Schmerzensgeld/Widergutmachung zahlt. Ja, es mag sein dass der Zufall ähnlich wie von einem Blitz erschlagen zu werden im Falle eines Unfalls dann keinen Schuldigen erkennen lässt, aber das ist halt so.
Im Bezug auf Haftung... das Prinzip von Versicherungen, Rente usw ist doch, dass man durch Zufall oder Alter bedingte Schicksalsschläge Gesellschafts-übergreifend finanziell ausgleicht. Ob die Preise für Autos teurer werden und der Hersteller dann haftet oder ob man eine Versicherung zahlt und die das dann übernimmt ist eigentlich relativ egal. Dabei wäre trotzdem die erste Variante vorzuziehen, da es die Hersteller sind, die bei der Programmierung der KI grob fahrlässig, kostensparend oder nicht genug bemüht sein können.
Der Hersteller sollte haften, da seine Handlungen direkt die Qualität und Zuverlässigkeit der KI gestalten. Das wäre ansonsten ziemlich mies, wenn der Versicherer die Versicherungsbeiträge von Automarke und Hersteller abhängig machen würde.
Man sollte meiner Meinung nach Unfälle einer gut entwickelten KI oder eines automatischen Fahrsystems nicht als 'Schuld' oder 'Vergehen' betrachten, sondern eher als unvorhersehbaren, unvermeidbaren Zufall/Restrisiko.
Wenn es mir bei Sturm einen Ziegel vom Dach reisst und jemand erschlagen wird, betrachtet das niemand als grob fahrlässig oder Schuld des Hausbesitzers. Baut jemand ein Haus nahe einem Damm und dieser bricht, man man auch nicht den Hausbesitzer verantwortlich. Man kann einfach nicht auf jede Situation im Leben vorbereitet sein und alle Eventualitäten einkalkulieren - der Aufwand würde in keinem Verhältniss zum Nutzen stehen. Wenn ich absolute Sicherheit will dürfte ich ja gar nicht mehr aus dem Haus gehen.
Ich sehe auch meine Meinung als bisher stark von den Medien und den dargebrachten Szenarien beeinflusst. Aber wieso wurde sowas zum fast zum Tabuthema oder ethisch höchst fraglichen Problem deklariert, wenn man sich in so vielen anderen Bereichen keinen Deut drum kümmert? Wohl oder übel, weil man einer KI eine bewusste Entscheidung unterstellt, in bestimmten Situationen etwas falsches zu tun zu können. Zwischen einem unvorhergesehenen von der KI-Programmierung nicht abgedeckten Ereignis und einem wegen Fertigungsstreuung geplatzen Bremsschlauch sehe ich nicht wirklich einen Unterschied... es ist dann halt einfach Pech und das sollte man über ein alle Autobesitzer umfassenden Versicherungs-System abgreifen.
Privatversicherung man für mich keinen Sinn, da es ja in solchen Fällen wirklich nur reiner Zufall ist, wessen Auto einen Unfall baut und wessen seins nicht.
Gödel für Dummies:
  • Unentscheidbarkeit - Dieser Satz ist wahr.
  • Unvollständig - Aussage A: Es existiert nur ein Element A.
  • Widersprüchlich - Dieser Satz ist falsch.

Benutzeravatar
seeker
Ehrenadmin
Ehrenadmin
Beiträge: 6431
Registriert: 26. Dez 2009, 10:29

Re: Algorithmen auf dem Richterstuhl

Beitrag von seeker » 27. Jan 2018, 11:06

@Frank: Ich gebe dir Recht mit der Eigentumsgeschichte. Ein Problem ist das aber für mich nicht wirklich, wenn ich selbst nichts falsch gemacht habe zahlt erst einmal meine Versicherung und -da die nicht besonders gerne zahlt- wird sie gegebenenfalls den Hersteller oder die Werkstatt verklagen, wenn die etwas nachweislich falsch gemacht hätten, wie bisher auch, bei selbstfahrenden Fahrzeugen wird sich da nicht viel ändern. Ich denke es geht da eher um den rechtlichen Detailrahmen, den die Politik erst noch liefern muss, bevor wir autonome Fahrzeuge sehen werden, aber das ist ja in der Mache.
seeker hat geschrieben: Da kann ich mir immer noch nichts Konkretes drunter vorstellen. Ansonsten kann die Politik ja Standards setzen, die zu erfüllen sind, bevor etwas auf den Markt darf, das wäre ganz normales Vorgehen.
tomS hat geschrieben:
26. Jan 2018, 18:43
Beispiel folgt doch sofort.
tomS hat geschrieben:
26. Jan 2018, 18:43
Es trifft insbs. dann zu, wenn man eine an sich frei einsetzbare Technologie verbieten müsste, weil sie z.B. einen sozial destruktiven Prozess in Gang setzt, den wir heute jedoch noch gar nicht erkennen und bewerten können. Stellen wir uns z.B. vor, dass nach Zulassung autonomer Fahrzeuge Logistik, Groß- und der Einzelhandel in kürzester Zeit vollständig automatisiert ablaufen können, verbunden mit massiven Energieeinsparungen im Individualverkehr. Andererseits würde dies wohl unseren Arbeitsmarkt und letztlich die Gesellschaft zerstören.
tomS hat geschrieben:
26. Jan 2018, 18:43
Ich habe da kein Vertrauen, weil bereits heute Google u.a. KIs produktiv einsetzen, ohne dass wir überhaupt erahnen, was genau die tun.

Die Politik ist m.E. nicht schnell genug, und sie hat teilweise nicht einmal die Expertise, um geeignet reagieren zu können.

Stichworte wären Umweltverschmutzung und drohende Klimakatastrophe, Umgehen mit den Flüchtlingen 2016 sowie insbs. den Ursachen, Beginn des ersten Weltkrieges, Einführung von Elektroautos (worin ich das gröte Risiko für de Wohlstand des Standortes Deutschland sehe).
Also sorry, das sind doch keine konkreten Beispiele, eher der Audruck der Befürchtung, dass irgendwo irgendwie hier und dort schlimmes passieren könnte, was wir eben heute "noch gar nicht erkennen und bewerten können".
Das erscheint mir nun wirklich sehr nebulös. Und bei solch nebulösen Befürchtungen werde ich eben misstrauisch, weil es dann erfahrungsgemäß meist viel mehr um menschliche Ängste geht, die aus den Unabwägbarkeiten des Neuen und Unbekannten geboren werden als um reale Gefahren. Daraus erwachsen gerne Übertreibungen.
Ich will dabei ja auch gar nicht abstreiten, dass aus der Richtung KI auch enorme Gefahren kommen könnten, das halte ich sogar für sehr wahrscheinlich, ebenso sehe ich aber auch enorme Chancen. Jedenfalls warne ich vor zu viel Emotionalität, die einem gerne den Blick verstellt.
tomS hat geschrieben:
26. Jan 2018, 18:43
Das ist doch Quatsch.
...
tomS hat geschrieben:
26. Jan 2018, 18:43
Also haben die Entwickler des Gurtes ebenso nachweisbar in einer konkreten Situation menschliches Leben auslöscht.
Meine Wahrnehmung ist, dass du den Unterschied nicht sehen möchtest.

Warum glaubst du eigentlich hat das Bundesverfassungsgericht den Abschuss von Flugzeugen im Falle einer Entführung auch für den Fall verboten, dass z.B. klar ersichtlich ist, dass es z.B. auf ein vollbesetztes Fußballstadion zusteuert?

Du denkst ernsthaft, dass es unproblematisch ist, genau die selbe Entscheidung in eine Software zu programmieren?
seeker hat geschrieben:Es gibt kein massives ethisch-moralisches Problem.
tomS hat geschrieben:So wie bei dem Abschuss eines Flugzeuges?
Also bitte, jetzt überspitzt du das aber völlig - und ich glaube das weißt du auch!
Das ist doch etwas völlig anderes. Du behauptest hier ja tatsächlich, dass man selbstfahrenden Autos aktive Tötungsbefehle einpflanzen würde. Bei Kampfrobotern mag das kommen aber doch nicht im Straßenverkehr. Bei Autos wird man Befehle einprogrammieren, die zu passiver, defensiver, sicherer Fahrweise führen, passive Befehle wie "vermeide die Kollision mit Personen", nur wenn das aus physikalischen Gründen nicht vermeidbar sein wird und daher die Programmierung dann auch nichts mehr machen kann, wird in EInzelfällen vielleicht auch einmal jemand umgefahren werden. Das ist also gerade das Gegenteil eines programmierten Tötungsbefehls!
Und auch die Oma wird auch nicht umgefahren werden, weil das Auto auf die Oma zielt, sondern weil es dem Kind ausweicht und weil dann die Umstände und die Physik schuld daran sind, an dem was dann passiert, das ist ein bedeutender Unterschied. Man kann sich da Szenarien ausdenken wie man will, so lange die Programmierung eine passive, vermeidende Programmierung ist, wird das so sein - und dann sehe ich auch kein großes ethisches Problem, insbesondere nicht, da sicher davon ausgegangen werden kann, dass durch diese Technik tausende Menschenleben gerettet werden können.

Ich bleibe dabei, es ist im Grunde dasselbe Spiel wie beim Gurt und es ist deshalb auch dieselbe Ethik anwendbar, mit kleinen Ergänzungen. Man muss und wird das diskutieren, aber das ist keine große Sache, das ist ohne größere Probleme lösbar. Von einer notwendigerweise "völlig neuen Ethik" kann da keine Rede sein, jedenfalls nicht bei den bisher vorgestellten Beispielen, es mag andere Bereiche geben, wo das der Fall sein könnte, z.B. "KIs als Richter" oder "präventive Einschränkungen deiner Freiheit, weil die KI ausgerechnet hat, dass du nächste Woche mit hoher Wahrscheinlichkeit eine Straftat begehen wirst" oder dergleichen.

Meine Aussage ist immer noch:

Die gesellschaftliche und besonders soziale Tragweite ist enorm, keine Frage.
Aber die ethische Tragweite ist in der näheren Zukunft eher gering, so lange KIs keine Personen sind.
Man muss beides unterscheiden, sonst verheddert man sich.
Grüße
seeker


Kritisches Denken bedeutet nicht, sich einseitig nur aus kritischen Quellen zu versorgen und die dortigen Darstellungen unkritisch zu übernehmen. Viele überschätzen ihre eigene Medienkompetenz massiv. Dies wird von Verführern ausgenutzt.

Benutzeravatar
ralfkannenberg
Ehrenmitglied
Ehrenmitglied
Beiträge: 2098
Registriert: 13. Jan 2017, 10:00

Re: Algorithmen auf dem Richterstuhl

Beitrag von ralfkannenberg » 28. Jan 2018, 16:38

seeker hat geschrieben:
27. Jan 2018, 11:06
Und auch die Oma wird auch nicht umgefahren werden, weil das Auto auf die Oma zielt, sondern weil es dem Kind ausweicht und weil dann die Umstände und die Physik schuld daran sind, an dem was dann passiert, das ist ein bedeutender Unterschied.
Hallo seeker,

der betagten Dame kann es egal sein, ob sie wegen einer aktiven Programmierung "fahr die betagte Dame um" oder wegen einer angeblich passiven Programmierung "fahr die alte Dame um, wenn du ansonsten jüngere Personen umfahren würdest" getötet wird.

Beide Situationen sind also zu vermeiden.


Freundliche Grüsse, Ralf

Benutzeravatar
tomS
Ehrenmitglied
Ehrenmitglied
Beiträge: 10606
Registriert: 19. Nov 2007, 20:29
Wohnort: Nürnberg

Re: Algorithmen auf dem Richterstuh

Beitrag von tomS » 28. Jan 2018, 22:07

seeker hat geschrieben:
27. Jan 2018, 11:06
Also sorry, das sind doch keine konkreten Beispiele, eher der Audruck der Befürchtung, dass irgendwo irgendwie hier und dort schlimmes passieren könnte, was wir eben heute "noch gar nicht erkennen und bewerten können".
Also erstens haben wir diverse sehr konkrete Beispiele gebracht, und zweitens ist genau das der Punkt: dass viele Experten befürchten, dass sie (wir) die teilweise sehr negativen und sehr schnell eintretenden Folgen heute noch nicht konkret erkennen können. Wir haben also bekannte Stenarien, deren Relevanz du bestreitest, und wir haben noch unbekannte Szenarien, deren Relevanz du bestreitest, weil sie unbekannt sind.

Genau das ist eines der Probleme: dass die Szenarien weigehend unbekannt sind.
seeker hat geschrieben:
27. Jan 2018, 11:06
Daraus erwachsen gerne Übertreibungen.
In beide Richtungen.
seeker hat geschrieben:
27. Jan 2018, 11:06
Jedenfalls warne ich vor zu viel Emotionalität, die einem gerne den Blick verstellt.
Einerseits wahr.

Andererseits problematisch, wenn es darum geht, dass sich das Bild des Menschen grundlegend wandelt, wenn der Mensch, seine Tätigkeiten usw. massiv an Bedeutung verlieren könnten; das ist nunmal auch ein emotionales Thema.
seeker hat geschrieben:
27. Jan 2018, 11:06
tomS hat geschrieben:
26. Jan 2018, 18:43
Das ist doch Quatsch.
...
tomS hat geschrieben:
26. Jan 2018, 18:43
Also haben die Entwickler des Gurtes ebenso nachweisbar in einer konkreten Situation menschliches Leben auslöscht.
Meine Wahrnehmung ist, dass du den Unterschied nicht sehen möchtest.

Warum glaubst du eigentlich hat das Bundesverfassungsgericht den Abschuss von Flugzeugen im Falle einer Entführung auch für den Fall verboten, dass z.B. klar ersichtlich ist, dass es z.B. auf ein vollbesetztes Fußballstadion zusteuert?

Du denkst ernsthaft, dass es unproblematisch ist, genau die selbe Entscheidung in eine Software zu programmieren?
seeker hat geschrieben:Es gibt kein massives ethisch-moralisches Problem.
tomS hat geschrieben:So wie bei dem Abschuss eines Flugzeuges?
Also bitte, jetzt überspitzt du das aber völlig - und ich glaube das weißt du auch!
Nein, ich übertreibe nicht, keineswegs.

Während es beim Abschussbefehl im Falle von Flugzeugentführungen um absolute Ausnahmesituationen geht, handelt es sich beim Straßenverkehr um den Normalfall. Und da sollten wir doch bitte schön ein klares Bild haben - haben wir aber nicht.

Dass du meinst, es gäbe kein Problem, kann nicht richtig sein, wenn andere dieses Problem explizit benennen und deine diesbzgl. Einschätzung nicht teilen, und wenn du mangels Problembewusstsein keine Regeln benennen willst oder kannst. Das Problem verschwindet nicht durch Ignorieren.
seeker hat geschrieben:
27. Jan 2018, 11:06
Das ist doch etwas völlig anderes. Du behauptest hier ja tatsächlich, dass man selbstfahrenden Autos aktive Tötungsbefehle einpflanzen würde. Bei Kampfrobotern mag das kommen aber doch nicht im Straßenverkehr. Bei Autos wird man Befehle einprogrammieren, die zu passiver, defensiver, sicherer Fahrweise führen, passive Befehle wie "vermeide die Kollision mit Personen", nur wenn das aus physikalischen Gründen nicht vermeidbar sein wird und daher die Programmierung dann auch nichts mehr machen kann, wird in EInzelfällen vielleicht auch einmal jemand umgefahren werden. Das ist also gerade das Gegenteil eines programmierten Tötungsbefehls!
Ich habe den Pseudocode oben hingeschrieben. Er besagt, dass bei physikalisch nicht vermeidbarer Kollision ein Ziel gewählt wird. Wie lautet dafür deine Bewertungs- bzw. Sortierfunktion?

Es geht hier nicht mehr irgendwie um eine passive, defensive Fahrweise, sondern um eine konkrete Situation, die trotz dieser Fahrweise eingetreten ist, und für du nun als Rechtsexperte die Regel festlegen sollst, die der Programmierer implementiert und der TÜV bei der Typprüfung testet.
seeker hat geschrieben:
27. Jan 2018, 11:06
Und auch die Oma wird auch nicht umgefahren werden, weil das Auto auf die Oma zielt, sondern weil es dem Kind ausweicht und weil dann die Umstände und die Physik schuld daran sind, an dem was dann passiert, das ist ein bedeutender Unterschied.
Das Auto zielt dahin, wo der Schaden am geringsten ist. Und es ist der Rechtsexperte, der die Bewertungsregel festlegst. Welche würdest du festlegen?

Es ist nicht die Physik schuld. Es tritt eine unvorhergesehene Situation auf, in der eine Kollision unvermeidlich ich, in der aber die potentiellen Ziele aufgrund Mustererkennung klar bekannt sind: Lücken zwischen Autos, Bäume, andere Autos, Menschen. Du als Rechtsexperte (oder Ethiker) bist gefordert, die Bewertungsregel festzulegen und im Parlament sowie vor der Presse und der Bevölkerung zu vertreten. Das ethische Problem tritt auf, wenn harmlose Ziele wie Lücken und Bäume leider nicht existieren.

Du wirst dieses Problem nicht los, du verweigerst dich lediglich der Diskussion.

(du hast sicher recht, sobald KIs noch weitergehende Autonomie zugestanden wird, werden die Probleme sicher noch größer)
Gruß
Tom

Der Wert eines Dialogs hängt vor allem von der Vielfalt der konkurrierenden Meinungen ab.
Sir Karl R. Popper

Benutzeravatar
tomS
Ehrenmitglied
Ehrenmitglied
Beiträge: 10606
Registriert: 19. Nov 2007, 20:29
Wohnort: Nürnberg

Re: Algorithmen auf dem Richterstuhl

Beitrag von tomS » 28. Jan 2018, 22:14

Gruß
Tom

Der Wert eines Dialogs hängt vor allem von der Vielfalt der konkurrierenden Meinungen ab.
Sir Karl R. Popper

Benutzeravatar
Dgoe
wohnt hier!
wohnt hier!
Beiträge: 399
Registriert: 20. Nov 2017, 17:32

Re: Algorithmen auf dem Richterstuhl

Beitrag von Dgoe » 29. Jan 2018, 00:30

Interessant ist, dass eine Software sich im entscheidenen Moment sofort so verhält, wie unzählige Ethiker und Programmierer vorher lange ausgebrütet haben. Bei simplen KIs bin ich mir unschlüssig, die könnten sonst etwas daraus machen, probieren und studieren...

Angenommen man hätte Direktiven implementiert, die die möglicherweise eher willkürlichen Verläufe der KI dann Vorgaben machen, wie lange dauert dies, rechnerisch? Bis es so weit ist, sind vielleicht längst vollendete Tatsachen geschaffen oder das System hat sich gar aufgehängt.

Der Mensch würde wohl auch nur begrenzt sinnvoll agieren, je kürzer das Zeitfenster. Immer im Hinblick selber zu überleben natürlich. Alles andere nebensächlich. Selbst mit dieser Prämisse Fehler machend, die nicht zu seinem Vorteil dienen.


Interessant ist übrigens ein Phänomen, worüber einerseits in einer Fernseh-Reportage berichtet wurde, ich aber auch passiv erlebt habe, bei einem Crash, mein Auto Totalschaden.

Der Fahrer wird offenbar durch seine Wahrnehmung, bei einem sich für ihn offensichtlich oder möglich anbahnendend Unfalls so fokussiert darauf, dass er sogar in die Richtung lenkt, anstatt schräg vorbei zu fahren, ohne Crash. Uns so kommt ein Crash ohne Not zustande. Also wie ein Magnet zieht die Vorsehung am Lenkrad hin zur Wahrnehmung und funktioniert ähnlich einer selbsterfüllenden Prophezeihung.

Bei meinem Fall hatte ich die Straße gekreuzt um links abzubiegen und ein viel zu schneller Fahrer von links hat abgebremst, ich auch, dennoch "geküsst" (kein Personenschaden). Aber der Unfall bzw. Crash fand auf der Gegenspur des anderen Fahrers statt, ich war eigentlich an ihm vorbei schon. Aber Tunnelblick hat er mich verfolgt mit seinem Lenkrad, und ist in mich rein, obwohl ich die Hoffnung hatte, das war nur knapp. Nö. Er hat seine Spur in den Gegenverkehr hinein verlassen gehabt. (Schuld bekam er)

Gruß,
Dgoe
Der Optimist glaubt, dass wir in der besten aller möglichen Welten leben. Der Pessimist befürchtet, dass der Optimist damit Recht hat.

Benutzeravatar
seeker
Ehrenadmin
Ehrenadmin
Beiträge: 6431
Registriert: 26. Dez 2009, 10:29

Re: Algorithmen auf dem Richterstuhl

Beitrag von seeker » 29. Jan 2018, 01:21

Ich wünschte wir würden wieder zu einer normalen Diskussion zurückfinden, wirklich...
tomS hat geschrieben:
28. Jan 2018, 22:07
Also erstens haben wir diverse sehr konkrete Beispiele gebracht
Ich empfinde gerade diese Beispiele ethisch eben nicht sehr schwierig oder gravierend, da fallen mir ganz andere Dinge ein, z.B. Kriegstechnik.
tomS hat geschrieben:
28. Jan 2018, 22:07
und wir haben noch unbekannte Szenarien, deren Relevanz du bestreitest, weil sie unbekannt sind.
Unterstellung. Ich bestreite doch nicht die Relevanz von etwas das da kommen mag, ich sagte nur, dass viel noch im Nebel liegt und habe darauf hingewiesen, dass wir Menschen bei so etwas zu Überreaktionen neigen.
tomS hat geschrieben:
28. Jan 2018, 22:07
wenn du mangels Problembewusstsein keine Regeln benennen willst oder kannst. Das Problem verschwindet nicht durch Ignorieren.
Unterstellung, ich habe durchaus ein Problembewusstsein und ich ignoriere überhaupt nichts.
tomS hat geschrieben:
28. Jan 2018, 22:07
Du wirst dieses Problem nicht los, du verweigerst dich lediglich der Diskussion.
Unterstellung, ich verweigere keineswegs die sachliche Diksussion.

Können wir das BITTE lassen?
Weder verweigere ich mich einer Diskussion noch stecke ich den Kopf in den Sand noch sonstwas, ich sehe die Dinge nur etwas anders, bei der ethischen Seite eben gelassener, ich bin nicht dafür, dass Panik verbreitet wird.

Ich möchte mich nochmals wiederholen:

Es wurde soweit ich das verstanden hatte die These aufgestellt, dass es eine ganz neue Ethik bräuchte und das bestreite ich eben, dass das so ist, soweit es die nahe Zukunft betrifft.
Dass da Neues auf uns zu kommt ist klar, ich empfinde es aber zumindest bei den bisher vorgestellten Beispielen eben gerade nicht so dramatisch, ich sehe, dass dort eine Evolution notwendig sein wird, aber keine Revolution. Meine These lautet, dass wir ethisch-moralisch bei diesen Beispielen einfach nur unsere bereits bestehenden Regeln auf das Kommende anpassen müssen und dass das gelingen kann ohne irgendetwas ganz gravierend ändern zu müssen.
Das ist die ethische Seite.

Die andere Seite ist die politisch-gesellschaftliche Seite, das ist etwas anderes und darüber kann man sich gerne unterhalten, ich gehe davon aus, dass sich an der Stelle einiges ändern wird und dass hier sowohl unglaubliche Chancen als auch große Risiken bestehen.



Kommen wir nochmals kurz zum Automobilverkehr (wobei ich das eben wirklich für einen Nebenschauplatz halte...):
tomS hat geschrieben:
28. Jan 2018, 22:07
Während es beim Abschussbefehl im Falle von Flugzeugentführungen um absolute Ausnahmesituationen geht, handelt es sich beim Straßenverkehr um den Normalfall.
Der Straßenverkehr ist der Normalfall, ebenso wie der Flugzeugverkehr, aber solche tragischen Unfälle, wie wir sie angedacht haben sind nicht der Normalfall, es sind extreme Ausnahmesituationen. Das Google-Auto hat in den USA ich glaube 3 Millionen km zurückgelegt, ohne dass so eine Situation eingetreten wäre.
tomS hat geschrieben:
28. Jan 2018, 22:07
Und da sollten wir doch bitte schön ein klares Bild haben - haben wir aber nicht.
Und deshalb ist der Gesetzgeber ja dran unsere ethischen Normen auf so etwas anzuwenden - und bis dahin werden auch keine autonomen Autos auf unseren Straßen rumfahren. Es geht dort ja auch um die Details, ich denke in 1-3 Jahren wird das fertig sein.
Oder denkst du, dass die autonomen Fahrzeuge nicht erlaubt werden, weil wir an der Stelle vor unlösbaren ethischen Problemen stehen?
tomS hat geschrieben:
28. Jan 2018, 22:07
Ich habe den Pseudocode oben hingeschrieben. Er besagt, dass bei physikalisch nicht vermeidbarer Kollision ein Ziel gewählt wird. Wie lautet dafür deine Bewertungs- bzw. Sortierfunktion?
Da kommt es zunächst einmal darauf an, was das Auto mit seinen Sensoren überhaupt erkennen und unterscheiden kann und wie gut. Perfekt wird das nie sein.
Ich würde das Programm eben nicht so programmieren, dass ein Ziel gewählt wird, sondern dass im Gegenteil Hindernissen und Menschen ausgewichen wird: Die Programmierung sagt dem Auto dann also nicht, wo es hinfahren soll, sondern, wo es nicht hinfahren soll, wo es dann hinfährt ist das was übrigbleibt. Natürlich muss die KI dann manchmal auch entscheiden, wenn sie nicht allen Hindernissen ausweichen kann, welchen Hindernissen bevorzugt auszuweichen ist - falls sie überhaupt leistungsfähig genug ist das einsortieren zu können. Das Ergebnis ist in der Oma-Kind-Situation u.U. dasselbe, aber die Programmierung ist eine andere:

Die Programmierung besagt dann, dass bei physikalisch nicht vermeidbarer Kollision ein Ziel gewählt wird, dem bevorzugt auszuweichen ist, sie besagt dann aber nicht, dass ein Ziel zu wählen ist, das aufs Korn zu nehmen ist. Verstehst du nicht den Unterschied?

Ein Fahrzeug dazu zu programmieren absichtlich einen Menschen zu rammen wäre tatsächlich problematisch, ein Fahrzeug aber rein dazu zu programmieren bei Gefahr zu bremsen und Menschen und Hindernissen auzuweichen viel weniger. Auch da kann man sich dann auch noch Gedanken machen, nach welchen Kriterien eine solche Auwahl erfolgen soll und ganz einfach wird das auch nicht sein, aber es ist so lösbar, dass das im gesellschaftlichen Konsens akzeptabel sein wird.
Oder man lässt es einfach und gibt für solche Extremseltenfälle überhaupt keine Auswahlregeln vor (außer bremsen und soweit möglich ausweichen, wenn erkennbar/möglich Menschen bevorzugt, das ist wohl das einfachste/unproblematischste), es ist ja schließlich nicht einmal klar, ob darüber hinausgehendes überhaupt 100% zuverlässig programmierbar sein würde. Es ist unmöglich jede mögliche Situatiuon vorherzusehen, man muss das akzeptieren, beim menschlichen Fahrer akzeptiert man es ja auch.
tomS hat geschrieben:
28. Jan 2018, 22:07
Das Auto zielt dahin, wo der Schaden am geringsten ist. Und es ist der Rechtsexperte, der die Bewertungsregel festlegst. Welche würdest du festlegen?

Es ist nicht die Physik schuld. Es tritt eine unvorhergesehene Situation auf, in der eine Kollision unvermeidlich ich, in der aber die potentiellen Ziele aufgrund Mustererkennung klar bekannt sind: Lücken zwischen Autos, Bäume, andere Autos, Menschen. Du als Rechtsexperte (oder Ethiker) bist gefordert, die Bewertungsregel festzulegen und im Parlament sowie vor der Presse und der Bevölkerung zu vertreten. Das ethische Problem tritt auf, wenn harmlose Ziele wie Lücken und Bäume leider nicht existieren.

Du wirst dieses Problem nicht los, du verweigerst dich lediglich der Diskussion.
s.o.
Und Schuld ist immer die Gesamtsituation. Als das Google-Auto einen Unfall hatte, war es nicht selbst schuld, sondern ich glaube ein anderer Fahrer, der die Vorfahrt missachtet hatte.
Und wenn dir ein Kind vor dein Auto rennt und du -obwohl nicht zu schnell- nicht mehr bremsen kannst, dann bist du nicht schuld und beim autonomen Auto ist dann sicher auch nicht der Programmierer Schuld.

Wie gesagt, was mir bei dieser Geschichte nicht schmeckt, ist dass sich da ellenlang über etwas Gedanken gemacht wird, das vielleicht 1x in 10 Jahren passieren wird, während in derselben Zeitspanne tausende Menschenleben gerettet werden könnten. In Anbetracht dessen wird für das obige Problem fast jede Lösung akzeptabel sein, weil es sich im Vergleich um Peanuts handelt, man sollte das nicht größer machen als es ist.

Warum reden wir nicht lieber über KI-Kampfroboter und Kampfdrohnen, Börsenkursvorhersehungs und -manipulations-KIs, KI-Internetbots zur Massenbeeinflussung und politischer Manipulation, usw.?
Grüße
seeker


Kritisches Denken bedeutet nicht, sich einseitig nur aus kritischen Quellen zu versorgen und die dortigen Darstellungen unkritisch zu übernehmen. Viele überschätzen ihre eigene Medienkompetenz massiv. Dies wird von Verführern ausgenutzt.

Benutzeravatar
Dgoe
wohnt hier!
wohnt hier!
Beiträge: 399
Registriert: 20. Nov 2017, 17:32

Re: Algorithmen auf dem Richterstuhl

Beitrag von Dgoe » 29. Jan 2018, 01:38

seeker hat geschrieben:
29. Jan 2018, 01:21
Warum reden wir nicht lieber über KI-Kampfroboter und Kampfdrohnen, Börsenkursvorhersehungs und -manipulations-KIs, KI-Internetbots zur Massenbeeinflussung und politischer Manipulation, usw.?
Weil die alle nicht auf dem Richterstuhl landen (würden)!? Siehe Threadtitel.

Ich hätte übrigens viel lieber einen Kampfroboter zur Seite, als einen Staubsaug-Roboter... ähm, anderes Thema...


Gruß,
Dgoe
Der Optimist glaubt, dass wir in der besten aller möglichen Welten leben. Der Pessimist befürchtet, dass der Optimist damit Recht hat.

Benutzeravatar
seeker
Ehrenadmin
Ehrenadmin
Beiträge: 6431
Registriert: 26. Dez 2009, 10:29

Re: Algorithmen auf dem Richterstuhl

Beitrag von seeker » 29. Jan 2018, 08:33

Dgoe hat geschrieben:
29. Jan 2018, 00:30
Interessant ist, dass eine Software sich im entscheidenen Moment sofort so verhält, wie unzählige Ethiker und Programmierer vorher lange ausgebrütet haben.
Das ist eben die Frage. Ist das wirklich so, muss das so sein?
Ich glaube dass es nicht so ist und dass es schon gar nicht so gemacht werden müsste, selbst wenn es ginge.
Dgoe hat geschrieben:
29. Jan 2018, 00:30
Der Mensch würde wohl auch nur begrenzt sinnvoll agieren, ...
Eben, der Mensch ist sehr fehleranfällig.
Wie können wir in Anbetracht dessen dann den manuellen Individualverkehr ethisch überhaupt vertreten?
Ich meine es sterben ja immerhin jedes Jahr unzählige Menschen deshalb, von den vielen Verletzten ganz zu schweigen, von den Umweltschäden und Kollateralschäden gar nicht anzufangen. Warum ist das trotzdem erlaubt?
Das kann ich euch sagen: Weil es hier um unsere Freiheit, unseren Lebensstil, unsere Kultur und unsere wirschaftliche Leistungsfähigkeit geht und weil wir bereit sind diese auch mit nicht wenigen Menschenleben zu bezahlen, das ist es uns nämlich wert!
Das ist m.E. die einzig ehrliche Antwort.

Und warum sollten wir in Anbetracht dessen nun bei KIs sehr viel höhere Maßstäbe anlegen müssen? Wird da nicht mit zweierlei Maß gemessen?
Nur wegen dem Argument bei den KIs wüsste man alles schon im Voraus und müsste daher alles im Voraus schon festlegen/entscheiden/programmieren und man könne das den Programmierern und Entscheidern nicht zumuten?
Ich zweifle daran, dass man dort alles im Voraus wissen kann und auch dass man alles, jede Kleinigkeit festlegen müsste, wenn man es könnte, was nicht der Fall ist (s.o.).

Mein Standpunkt:
Wir werden bei den KIs mit neuen (eigentlich sind sie uralt, nur in neuer Form) ethisch-moralischen Problemen konfrontiert, aber nicht mit massiven ethisch-moralischen Problemen.
Grüße
seeker


Kritisches Denken bedeutet nicht, sich einseitig nur aus kritischen Quellen zu versorgen und die dortigen Darstellungen unkritisch zu übernehmen. Viele überschätzen ihre eigene Medienkompetenz massiv. Dies wird von Verführern ausgenutzt.

Benutzeravatar
ralfkannenberg
Ehrenmitglied
Ehrenmitglied
Beiträge: 2098
Registriert: 13. Jan 2017, 10:00

Re: Algorithmen auf dem Richterstuhl

Beitrag von ralfkannenberg » 29. Jan 2018, 09:39

tomS hat geschrieben:
28. Jan 2018, 22:14
https://www.goethe.de/de/kul/med/20949917.html (insbs. für Ralf mit einem schönen Ende)
Hallo Tom,

Du meinst sicher das hier:
Das Problem: Eine ethisch vertretbare Entscheidung ist hier nicht vorstellbar, Menschenleben dürften niemals gegeneinander abgewogen werden. Dagegen spricht schon der Gleichheitsgrundsatz in der Allgemeinen Erklärung der Menschenrechte und im deutschen Grundgesetz. Um das Dilemma technisch zu lösen, könnten die Hersteller einen Zufallsgenerator in das Fahrzeug einbauen. Er würde in solchen Situationen entscheiden. Doch wer wollte in einem solchen Auto dann noch mitfahren?
Leider ist das kein schönes Ende, sondern nur ein praktikables. Auch wenn ich mich gebetsmühlenartig wiederhole: ich denke, man muss "irgendwie" dahin gelangen, dass solche Situationen vermieden werden. Wenn alle Autos mit solcher Intelligenz ausgerüstet sind, kann man vielleicht auch die nach wie vor von Menschen gesteuerten Autos sowie die anderen Verkehrsteilnehmer damit ausrüsten. Die können dann miteinander kommunizieren und Gefahrensituationen frühzeitig erkennen und rechtzeitig warnen, beispielsweise die Mutter, die sich gerade mit der Nachbarin über das Mittagessen unterhält und dabei übersieht, dass ihr Kind gerade vor ein Auto springt.

Natürlich wird diese Software auch ein illegales Strassenrennen erkennen und umgehend eine Schnellbremsung einleiten.

Natürlich wird diese Software auch einen Krankenwagen mit Blaulichteinsatz erkennen und umgehend dafür sorgen, dass dieser eine Gasse zum Vorbeifahren erhält und dass auch auch Ampeln auf dem Weg reagieren, beispielsweise indem sie auf "Warn-Modus" umschalten, indem beispielsweise bei allen Ampeln das rote und das gelbe Licht zu blinken anfangen.


Eine Nullquote wird man auch damit nicht erreichen, aber man wird sie Quote massiv senken können.


Freundliche Grüsse, Ralf

Benutzeravatar
ralfkannenberg
Ehrenmitglied
Ehrenmitglied
Beiträge: 2098
Registriert: 13. Jan 2017, 10:00

Re: Algorithmen auf dem Richterstuhl

Beitrag von ralfkannenberg » 29. Jan 2018, 09:50

seeker hat geschrieben:
29. Jan 2018, 01:21
Kampfdrohnen
Hallo seeker,

ich hasse Drohnen und kürzlich flog so ein Ding an meinem Bürofenster vorbei und blieb da stehen. Während die Arbeitskollegen das Ding empört anstarrten bin ich zum Hausdienst der Firma gegangen, die den Besitzer dann höflich aber bestimmt gebeten haben, seine Drohne woanders fliegen zu lassen.

Dennoch habe ich meine Meinung über Drohnen geändert: vergangene Woche geriet jemand in Seenot und ein Drohnenbesitzer informierte den Sicherheitsdienst, der eine Rettungsweste an der Drohne befestigte, die diese dann zum Verunfallten flog und über ihm ins Wasser fallen liess, so dass der sie anziehen und gerettet warden konnte.

Ich denke, sowas ist die Aufgabe von solchen Hilfsmitteln. Man sollte nicht immer nur das schlechte sehen.

seeker hat geschrieben:
29. Jan 2018, 01:21
Börsenkursvorhersehungs und -manipulations-KIs
Gibt es schon, siehe HFT (High Frequency Trading). Auch hier plädiere ich für Zusatz-Software, die erkennen, wenn sich die Börsenkurse aufgrund eines Implementierungsfehlers verändern und umgehend den Handel auf dem Titel unterbrechen, also ein "Stop Trading" auslösen.


Freundliche Grüsse, Ralf

Benutzeravatar
Frank
Ehrenmitglied
Ehrenmitglied
Beiträge: 4032
Registriert: 12. Dez 2005, 23:22
Wohnort: Odenwald

Re: Algorithmen auf dem Richterstuhl

Beitrag von Frank » 29. Jan 2018, 10:46

seeker hat geschrieben:
29. Jan 2018, 01:21

Und Schuld ist immer die Gesamtsituation. Als das Google-Auto einen Unfall hatte, war es nicht selbst schuld, sondern ich glaube ein anderer Fahrer, der die Vorfahrt missachtet hatte.
Und wenn dir ein Kind vor dein Auto rennt und du -obwohl nicht zu schnell- nicht mehr bremsen kannst, dann bist du nicht schuld und beim autonomen Auto ist dann sicher auch nicht der Programmierer Schuld.
Natürlich ist die Gesamtsituation schuld! Allederdings geht es hier nicht um Schuld im Sinne von Schuld und Sühne.
Bis jetzt wra es einfach, da der Fahrer für sein tun haftbar gemacht wurde. Aber auch jetzt ist es schon so das der Fahrer nichts dafür kann, wenn ihm ein Kind vor das Auto springt, ihn es aber nicht von der "Schuld" , ergo von der Haftung befreit. Das Kind kann nicht haften und die Oma nur dann, wenn sie den Unfall zu verantworten hat.
Wenn ein System auf Herz und Nieren geprüft wird und für unbedenklich eingestuft wurde, heisst doch das nicht im Umkehrschluss, dass es fehlerlos ist.
Ein Restrisiko bleibt immer.
In der Juristerei wird ein Mensch für schuldig befunden, wenn es heisst "mit an Sicherheit grenzender Wahrscheinlichkeit". Das heisst aber nicht, dass er zu 100% schuldig ist.

seeker hat geschrieben:
29. Jan 2018, 01:21


Wie gesagt, was mir bei dieser Geschichte nicht schmeckt, ist dass sich da ellenlang über etwas Gedanken gemacht wird, das vielleicht 1x in 10 Jahren passieren wird, während in derselben Zeitspanne tausende Menschenleben gerettet werden könnten. In Anbetracht dessen wird für das obige Problem fast jede Lösung akzeptabel sein, weil es sich im Vergleich um Peanuts handelt, man sollte das nicht größer machen als es ist.
100%tige Zustimmung, hier wird ein Fass aufgemacht, dass zu nichts führt.

seeker hat geschrieben:
29. Jan 2018, 01:21
Warum reden wir nicht lieber über KI-Kampfroboter und Kampfdrohnen, Börsenkursvorhersehungs und -manipulations-KIs, KI-Internetbots zur Massenbeeinflussung und politischer Manipulation, usw.?
Es geht nicht ohne die Pazifistenschublade....

Es gab noch nie(!) in der geanzen Geschichte der Menscheit eine konfliktfreie Zeit. Es gab noch nie eine manipulationsfreie Zeit und es gab noch nie eine Zeit , die frei war von Stimmungsmachern, Lügnern und Faktenverdrehern.
Das es Kampfroboter, Kampfdrohnen(also was anderes als das Kannebergesche Kinderspielzeug vorm Fenster) gibt, verdanken für auch zum großen Teil den Menschen, die Tote auf dem Schlachtfeld , also die eigenen Soldaten nicht mehr hinnimmt und es dem jeweiligen Volk nur noch schwer zu vermitteln ist. (Also im Grunde den nie wieder Krieg Pazifisten, die ja zum Glück die Mehrheit im Volke ausmachen.)
Also fast anonymes Töten aus der Entfernung ohne Bezug und vorallem seeeehr kostengünstig. Um irgendeinen Anführer auszuschalten muss ich nicht mehr wie früher einganzes Volk angreifen und Mio Tote in Kauf nehmen- Im Drohnenzeitalter wären uns wahrscheinlich Schw..... wie Hitler erspart geblieben.(Auf Dauer)
Der Mensch schont bei Konflikten sich selbst und Ressourcen.
Das ist viel zu verlockend , damit es von den Staaten aufgegeben wird. :wink:
Mit freundlichen Grüßen

Frank

Benutzeravatar
tomS
Ehrenmitglied
Ehrenmitglied
Beiträge: 10606
Registriert: 19. Nov 2007, 20:29
Wohnort: Nürnberg

Re: Algorithmen auf dem Richterstuhl

Beitrag von tomS » 29. Jan 2018, 11:35

ralfkannenberg hat geschrieben:
29. Jan 2018, 09:39
tomS hat geschrieben:
28. Jan 2018, 22:14
https://www.goethe.de/de/kul/med/20949917.html (insbs. für Ralf mit einem schönen Ende)
Hallo Tom,

Du meinst sicher das hier:
Das Problem: Eine ethisch vertretbare Entscheidung ist hier nicht vorstellbar, Menschenleben dürften niemals gegeneinander abgewogen werden. Dagegen spricht schon der Gleichheitsgrundsatz in der Allgemeinen Erklärung der Menschenrechte und im deutschen Grundgesetz. Um das Dilemma technisch zu lösen, könnten die Hersteller einen Zufallsgenerator in das Fahrzeug einbauen. Er würde in solchen Situationen entscheiden. Doch wer wollte in einem solchen Auto dann noch mitfahren?
Leider ist das kein schönes Ende, sondern nur ein praktikables. Auch wenn ich mich gebetsmühlenartig wiederhole: ich denke, man muss "irgendwie" dahin gelangen, dass solche Situationen vermieden werden. Wenn alle Autos mit solcher Intelligenz ausgerüstet sind, kann man vielleicht auch die nach wie vor von Menschen gesteuerten Autos sowie die anderen Verkehrsteilnehmer damit ausrüsten. Die können dann miteinander kommunizieren und Gefahrensituationen frühzeitig erkennen und rechtzeitig warnen, beispielsweise die Mutter, die sich gerade mit der Nachbarin über das Mittagessen unterhält und dabei übersieht, dass ihr Kind gerade vor ein Auto springt.
Hallo Ralf,

natürlich, ich hatte dich nie so verstanden, dass das die von dir gewünschte Lösung ist.

Ich sehe jedoch folgende Probleme bei deinem "irgendwie":
1) Umsetzung praktisch nicht möglich, insbs. wenn Mischbetrieb
2) Umsetzung evtl. prinzipiell nicht möglich, weil z.B. äquivalent zum Halteproblem, NP-vollständig o.ä.

Bei (1) bin ich mir sicher, dass der Mischbetrieb bis auf weiteres nicht vollständig wasserdicht implementiert werden kann. Im U-Bahnsystem existiert ein einziger sicherer Zustand, den du über Notbremsung erreichst. Die Frage ist, was du tust, wenn i) die Notbremsung den Schaden nicht verhindern kann und wenn ii) Ausweichmöglichkeiten existieren. Die Lösung, die den KIs die vollständige Autonomie zu übertragen mag für Fahrzeuge noch denkbar sein, erscheint mir jedoch für Fußgänger absurd – wer würde das wirklich wollen?

Bei (2) ist das ein – für dich – spannendes mathematisches Problem. Bzgl. eines effizienten = polynomialen Algorithmus habe ich meine Zweifel. Bzgl. der grundsätzlichen Frage der Berechenbarkeit habe zu wenig Kenntnis, um das selbst zu beweisen. Die physikalische Intuition ist einfach: gibt es eine Klasse von nicht-linearen Gleichungssystemen, für die die Frage nach Lösungen nicht mehr allgemein analytisch beantwortet werden kann? Ja, im Falle eines einzelnen Polynoms ist das ab dem fünften Grad der Fall. Daher wäre mein Beweisansatz, das „Ausweichproblem“ in ein nicht-lineares Gleichungssystem zu übersetzen und dessen Lösbarkeit zu untersuchen.

Jedenfalls würde ich – solange die effiziente Lösbarkeit nicht bewiesen ist – zumindest von der praktischen Unlösbarkeit ausgehen.
Gruß
Tom

Der Wert eines Dialogs hängt vor allem von der Vielfalt der konkurrierenden Meinungen ab.
Sir Karl R. Popper

Benutzeravatar
Dgoe
wohnt hier!
wohnt hier!
Beiträge: 399
Registriert: 20. Nov 2017, 17:32

Re: Algorithmen auf dem Richterstuhl

Beitrag von Dgoe » 29. Jan 2018, 12:20

tomS hat geschrieben:
25. Jan 2018, 23:08
....falls nur eine KI beteiligt ist: zunächst immer zu Lasten des "Fahrers" im Sinne der "Gefährdungshaftung". Das ist spannend, weil es definitiv den Anreiz senkt, überhaupt eine KI einzusetzen :-)
Davon habe ich auch gehört, und ist für mich sogar ein K.O.-Kriterium.
Ich steige doch nicht in eine Maschine ein, die mich vor eine Wand fährt, nur um einen Feuerwehr-Wasserspender zu retten womöglich, der in der Eile einem Kind zum Verwechseln ähnlich sah.

Top-Priorität sollte schon das Überleben der Insassen sein. Vielleich darf man ja irgendwann mal das Profil in den Optionen ändern...

Gruß,
Dgoe
Der Optimist glaubt, dass wir in der besten aller möglichen Welten leben. Der Pessimist befürchtet, dass der Optimist damit Recht hat.

Benutzeravatar
ralfkannenberg
Ehrenmitglied
Ehrenmitglied
Beiträge: 2098
Registriert: 13. Jan 2017, 10:00

Re: Algorithmen auf dem Richterstuhl

Beitrag von ralfkannenberg » 29. Jan 2018, 12:29

Dgoe hat geschrieben:
29. Jan 2018, 12:20
Ich steige doch nicht in eine Maschine ein, die mich vor eine Wand fährt, nur um einen Feuerwehr-Wasserspender zu retten womöglich, der in der Eile einem Kind zum Verwechseln ähnlich sah.
Hallo Dgoe,

vielleicht doch, wenn Du weisst, dass mit dieser Software Deine Überlebenswahrscheinlichkeit 100x grösser ist als wenn Du selber fährst.

Ok, weil Du ein weit überdurchschnittlich guter Autofahrer bist: dass mit dieser Software Deine Überlebenswahrscheinlichkeit 98x grösser ist


Freundliche Grüsse, Ralf

Benutzeravatar
Dgoe
wohnt hier!
wohnt hier!
Beiträge: 399
Registriert: 20. Nov 2017, 17:32

Re: Algorithmen auf dem Richterstuhl

Beitrag von Dgoe » 29. Jan 2018, 13:05

Hallo Ralf,

selbst das halte ich noch für Behauptungen. Man schaue sich mal entsprechende YT-Clips an, wo die Fahrer sofort das Lenkrad übernehmen, weil die KI halsbrecherisch und viel zu schnell in einer kurvigen Strecke schon im äußersten Rand der Spur dahinjagdt beispielsweise und vieles mehr.

Der Mensch wird zwar auch oft von Sand auf der Fahrbahn, oder Ölspuren überrascht, beispielsweise. Er kann so etwas aber auch manchmal sehen, oder ahnen, da er die Gegend kennt. Kann eine KI das wahrnehmen oder hat immer eine aktuelle Datenbank? Beispielsweise man sieht vor sich einen Laster, der hin und wieder Sand verliert, sieht eine KI das? Nö.

Ich glaube dass der Unterschied zwischen einer idealisierten KI und der Realität immernoch sehr groß ist.


Und ich würde die Software sogar eher hacken, wenn ich es könnte und es möglich wäre, um mein oben genanntes Wunschprofil (Priorität Insassen first) zu bekommen. Lieber sitze ich im Knast, als bei Petrus auf'm Schoß.

Entsprechend würde ich auch die ellenlangen rechtlichen Hinweise absegnen, als gelesen und verstanden anhacken, wenn es dies zur Auswahl gäbe.

Gruß,
Dgoe
Der Optimist glaubt, dass wir in der besten aller möglichen Welten leben. Der Pessimist befürchtet, dass der Optimist damit Recht hat.

Antworten