Hinweis auf die DSGVO: Auf unserer Seite werden keine Dritt-Anbieter-Cookies verwendet und nur Daten erfasst, welche für das Minimum an Board-Funktionalität notwendig sind.
Bevor Sie sich registrieren oder das Board verwenden, lesen Sie bitte zusätzlich die DSGVO-Erklärung, welche in der Navigationsleiste verlinkt ist.

Kurzfassung der unserer Meinung nach wichtigsten DSGVO-Punkte:
Es kann vorkommen, dass Benutzer eigenverantwortlich Videos oder sonstige Medien in ihren Beiträgen verlinken, welche beim Aufruf der Forenseite als Teil der Seite samt zugehörigem Material mitgeladen werden. Sollten Sie dies nicht wünschen, verwenden Sie beim Benutzen des Forums einen Blocker wie z.B. uMatrix, welcher das Laden von Inhaltsblöcken von Fremd-URLs effektiv unterbinden kann.
Wir blenden keine Werbung ein und schränken die Inhalte in keinster Weise bei Benutzung von Addblockern ein. Dadurch ist die Grundfunktionalität des Forums auch bei vollständigem Blockieren von Drittanbieter-Inhalten stets gegeben.

Cookies werden unsererseits nur verwendet um das Einloggen des Benutzers für die Dauer der Forenbenutzung zu speichern. Es steht dem Benutzer frei die Option 'Angemeldet bleiben' zu verwenden, damit der Cookie dauerhaft gespeichert bleibt und beim nächsten Besuch kein erneutes Einloggen mehr notwendig ist.
EMail-Adressen werden für Kontakt bei wichtigen Mitteilungen und zur Widerherstellung des Passwortes verwendet. Die verwendeten IPs können von uns ohne externe Hilfsmittel mit keiner realen Person in Verbindung gebracht werden und werden nach spätestens 7 Tagen gelöscht. Diese IPs werden höchstens verwendet um Neuanmeldungen unerwünschter oder gesperrter Nutzer zu identfizieren und zu unterbinden. Wir behalten uns daher vor bei Verdacht, die Frist für die IP-Löschung auf maximal 14 Tage zu verlängern.
Unsere Webseite läuft auf einem virtuellen Linux-Server, welcher von einem externen Anbieter gehostet wird. Etwaige Verstöße der DSGVO-Auflagen seitens dieses deutschen Hosters können wir nicht feststellen und somit auch nicht verfolgen.
Wir halten Backups unserer Datenbanken, welche in regelmäßigen Abständen als Schutz vor Katastrophen, Hackerangriffen und sonstigen Ausfällen erstellt werden. Sollte ein Nutzer die Löschung seiner Daten wünschen, betrachten wir es als Unzumutbar die Backups auch von den Daten zu befreien, da es sich hierbei um eine mehrtägiges Unterfangen handelt - dies ist für eine Einzelperson beim Betrieb eines privaten Forums nicht zumutbar möglich ohne das Backup komplett zu löschen.
Sollten Sie etwas gegen die dauerhafte anonyme Speicherung ihrer EMail-Adresse, ihres Pseudonyms und ihrer Beiträge in einem Backup haben, sehen Sie von der Registrierung in diesem Forum ab. Für Mitglieder, welche vor dem 25.05.2018 registriert waren steht jedoch das Recht im Raum, eine Löschung der Datenbank-Backups zu beantragen.



Wenn dies Ihr erster Besuch hier ist, lesen Sie bitte zunächst die FAQs sowie die wesentlichen Regeln zur Benutzung des Forums.
Um an den Diskussionen teilnehmen zu können, müssen Sie sich zunächst registrieren.

Algorithmen auf dem Richterstuhl

Wissenschaftsgeschichte, Wissenschaftstheorie bzw. -philosophie, Technik
Benutzeravatar
seeker
Ehrenadmin
Ehrenadmin
Beiträge: 6360
Registriert: 26. Dez 2009, 10:29

Re: Algorithmen auf dem Richterstuhl

Beitrag von seeker » 25. Jan 2018, 22:18

tomS hat geschrieben:
25. Jan 2018, 19:10
Die Grenzen sind sicher fließend, aber so unpassend ist das Beispiel "Arbeitsplätze vs Menschenleben" wohl nicht. Ich behaupte, dass es sich um ein Dilemma handelt, da man Argumente für bzw. wider jede der beiden Positionen finden kann:
1) Frank hat recht, man kann nicht einfach Ärzte wegrationalisieren und durch KIs ersetzen.
2) Und ich habe - denke ich - auch recht, denn man kann einzelnen Menschen nicht die Nutzung einer KI verbieten, wenn dadurch z.B. die Heilungschancen steigen.
Wenn man aber (2) zulässt so befördert man dadurch (1).
Ich habe das Gefühl, dass gerade bei dem Beispiel etwas aufgeblasen wird, das gar nicht ist. Also ich sehe das so:

1. Rationalisierungen werden selbstverständlich weiterhin stattfinden, dort wo es sinnvoll ist geht kein Weg daran vorbei, wir machen das seit 200 Jahren so, wir werden damit nicht aufhören. Realistisch betrachtet steht das bis auf Weiteres nicht zur Diskussion, alles andere ist m. E. idealistische Träumerei.
Anderes Beispiel: Wenn sich der Kohleabbau in Deutschland nicht mehr lohnt, dann wird der Tagebau irgendwann eingestellt, egal wie viele Arbeitsplätze das kostet. Es gab und gibt Übergangsfristen um das sozialverträglicher zu machen, ja, aber man kann es sich gerade in der heutigen Welt einfach nicht leisten zu sehr zurück zu schauen und zu sehr am Alten festzukleben, sonst bleibt man auf der Strecke. Das heißt bei den Ärzten, Juristen, usw.: Was man dort an Arbeitsplätzen wegrationalisieren können wird, wird auch wegrationalisiert werden, überhaupt keine Frage - und da wird es auch keine großen ethischen Diskussionen drüber geben, nicht über das Grundsätzliche, nur vielleicht darüber, wie man das möglichst sozialverträglich gestalten kann.

2. So lange nicht zur Debatte steht ob eine KI eine Person ist (mit allem was dazugehört) dann handelt es sich bei einer KI ganz eindeutig um ein technisches Hilfsmittel.
Dieses Hilfsmittel wird ein Arzt ebenso nutzen, ebenso wie dann auch Privatpersonen (allerdings wohl sicher mit Einschränkungen, denn um gute Antworten zu erhalten muss ich gute Fragen stellen können, was ich als Laie nicht so gut kann wie der Arzt, außerdem werden nicht alle KI-Systeme allen zugänglich sein, schon gar nicht kostenlos).
Wo aber wäre dann der große Unterschied zu heute?
Auch heute schon kann ich ich verschiedene Ärzte konsultieren, verschiedene Meinungen einholen, kann selber googeln und lesen, kann das mit Ärzten diskutieren und mich dann frei für eine Bahndlungsmethode entscheiden (mindestens so lange ich die Kosten zu tragen bereit bin), wenn ich mich z.B. für eine mir notwendig erscheinende Operation entscheide, unterschreibe ich das vorher, damit ist der Arzt aus dem Schneider, so lange er nicht pfuscht und das tut was vereinbart war. Was wird sich daran durch künftige KIs ändern? Gar nichts!
Und wenn sich die KI täuscht und schlecht berät? Na ganz einfach, da wird ganz sicher eine entsprechende Klausel in den AGBs der KI stehen: "Ohne Gewähr!" Ist doch klar! Und wenn nicht wäre selbstverständlich der Hersteller in der Pflicht, wie bei jedem anderen technischen Hilfsmittel auch.
Und Zweitmeinungen werden besonders bei größeren Sachen immer noch genauso wichtig sein.

Und wie wird es bei selbstfahrenden Autos sein?
Na ganz wie immer: technische Einrichtungen und Hilfsmittel müssen in dem Rahmen funktionieren der vereinbart ist und den Normen entspricht. Wenn ich einen Unfall baue, weil mein Fahrzeug einen Herstellungsfehler an den Bremsen hat, wer haftet dann? Natürlich der Hersteller. Und wenn die Werkstatt gepfuscht hat, dann die.
Wenn ich nun ein autonomes E-Taxi per Handyapp bestelle, da mitfahre und ein Unfall geschieht, wer haftet dann? Ganz sicher nicht ich, ganz genauso nicht wie wenn ich mit dem Zug gefahren wäre, genauso nicht, wie wenn der Hersteller die Bremsen verpfuscht hätte. Und ansonsten sind ja eh alle versichert. Alles wie gehabt.

Wo ich an der Stelle eher ein Problem sehe ist die Überprüfbarkeit:
Wie will man überprüfen, ob der Hersteller bei der Herstellung der KI die gesetzlichen Vorschriften und Normen einhält? Wir bekommen es ja anscheinend nicht einmal gebacken zu prüfen, ob sich die Automobiler bei der Abgassoftware an die Regeln halten bzw. braucht es Jahre, bis sowas dann mehr zufällig rauskommt - tröpfchenweise.

Und wie soll man eine KI bei Dillemma-Situationen einstellen/programmieren (z.B. ausweichen und Oma umfahren oder nicht ausweichen und dafür Kind umfahren)?
Auch dafür wird es Lösungen geben, auch da kann man sich ohne größeren Aufwand einigen, beim heutigen Zeitgeist wird man eine utilitaristische Lösung bevorzugen:
Der Utilitarismus (lat. utilitas, Nutzen, Vorteil) ist eine Form der zweckorientierten (teleologischen) Ethik, die in verschiedenen Varianten auftritt. Auf eine klassische Grundformel reduziert besagt er, dass eine Handlung genau dann moralisch richtig ist, wenn sie den aggregierten Gesamtnutzen, d.h. die Summe des Wohlergehens aller Betroffenen, maximiert.
https://de.wikipedia.org/wiki/Utilitarismus

... also trifft es dann wohl die Oma, so schlimm das auch sein mag. Es ist aber auch gar nicht klar, ob man so etwas überhaupt in der nötigen Genauigkeit einer solchen KI beibringen kann, es ist ja davon auszugehen dass sie selbstlernend ist, dass es hier also mindestens teilweise gar keine klassiche Programmierung gibt.
Und ansonsten: Mit diesen Zwickmühlenfragen kann man auch uns Menschen konfrontieren. Wie wird es denn bei uns gehandhabt? Kommst du in den Knast wenn das Kind ohne dein Verschulden vor dein Auto springt und du dann nicht die Oma umfährst? Sicher nicht, auch nicht im anderen Fall.
So hart das klingen mag, aber diese Zwickmühlenfragen sind zweitrangige Details, wo man sich eben auf irgendetwas einigen wird, das sind keine wirklich unlösbaren Probleme.

Wirklich wichtig ist hier eines: Werden durch automatisches Fahren mehr oder weniger Menschen umgefahren? Und wenn die Antwort darauf lautet: "90% weniger!", dann ist alles andere eben tragisch aber zweitrangig: das Wohl der Vielen ist wichtiger als das Wohl eines zufälligen Einzelnen.
Bei den Ärzten und auch sonst überall wird es genau dieselbe Frage in Entsprechung sein, je nach Antwort wird dann auch dort alles nicht wirklich schwierig zu entscheiden sein.

Es bleibt also aus meiner Sicht und im Grunde erst einmal alles beim alten Spiel, nur mit einigen Detailneuerungen gewürzt.
Und deshalb ist es auch nicht so, dass eine zu langsam regulierende Politik vom rasanten Fortschritt überfahren würde... es ist doch ganz einfach: So lange es keine Regulierung/Erlaubnis gibt, wird es auch einige technische Hilfsmittel (ob nun KI-Berater, selbstfahrende Autos oder sonstwas) eben auch nicht geben, wie immer; die Politik kann also in dem Sinn gar nicht überfahren werden, einzig könnte es passieren, dass wir hierzulande langsamer reagieren wie in anderen Ländern, was uns einen Entwicklungsnachteil einbringen würde.
Grüße
seeker


Kritisches Denken bedeutet nicht, sich einseitig nur aus kritischen Quellen zu versorgen und die dortigen Darstellungen unkritisch zu übernehmen. Viele überschätzen ihre eigene Medienkompetenz massiv. Dies wird von Verführern ausgenutzt.

Benutzeravatar
tomS
Administrator
Administrator
Beiträge: 10578
Registriert: 19. Nov 2007, 20:29
Wohnort: Nürnberg

Re: Algorithmen auf dem Richterstuhl

Beitrag von tomS » 25. Jan 2018, 23:08

Gut, dass du das Thema wechselst.

Ich habe dazu mal eine key note auf einer Tagung zur Softwareentwicklung gehört. Nehmen wir an, dass die ca. 30000 tödlichen Verkehrsunfälle durch KIs auf 300 reduziert werden können; die Zahl war wohl ziemlich realistisch, da sehr genau bekannt ist, wieviele Unfälle auf menschliches Versagen zurückzuführen sind.

Zum einen besteht das Dilemma, wie die KI reagieren soll, wenn sie die Wahl zwischen verschieden Opfern hat. Idee, falls nur eine KI beteiligt ist: zunächst immer zu Lasten des "Fahrers" im Sinne der "Gefährdungshaftung". Das ist spannend, weil es definitiv den Anreiz senkt, überhaupt eine KI einzusetzen :-) Schwieriger wird's, wenn mehrere Autos und damit mehrere KIs beteiligt sind.

Zum zweiten existiert ein Problem dahingehend, dass im Zuge der SW-Entwicklung recht gute Angaben zu Fehlern in der SW gemacht werden können, zum einen mittels einer "post-mortem" Analyse, zum zweiten statistisch. Daraus folgt dann einerseits, dass z.BV. ein Toter auf ein bestimmtes Feature in der SW zurückzuführen ist (also kein Fehler, sondern eine bewusste Entscheidung des Produktmanagers oder des Entwicklers, z.B. aufgrund einer gesetzlichen Vorschrift); man beachte, die die Ausnahme zur Regel wird, weil die Unfälle aufgrund menschlichen Versagens fast auf Null zurückgehen. Andererseits folgt daraus, dass wir aufgrund statistischer Aussagen sicher wissen werden, dass ein bestimmter Prozentsatz an Toten aufgrund von SW-Fehlern unvermeidbar ist.

Wir stehen also vor der Entscheidung, entweder gegen die KI und für 30000 Tote, oder für die KI und für 29700 gerettet Leben - und für 300 Tote, deren Schuld wir ziemlich eindeutig bestimmten Personen zuordnen können (Politiker, Produktmanager, SW-Entwickler, Tester). Wer möchte zu dieser Personengruppe gehören?

Eine andere spannende Frage ist die der Zulassung einer KI für den Straßenverkehr. Muss der Hersteller nachweisen, dass er eine bestimmte Todesrate sicher oder zumindest statistisch signifikant unterschreitet? (Stichwort Dieselskandal :-) Wird es verschiedene KIs geben? Mit welchen unterschiedlichen Features?
seeker hat geschrieben:
25. Jan 2018, 22:18
Es bleibt also aus meiner Sicht und im Grunde erst einmal alles beim alten Spiel, nur mit einigen Detailneuerungen gewürzt.

... Die Politik kann also in dem Sinn gar nicht überfahren werden, einzig könnte es passieren, dass wir hierzulande langsamer reagieren wie in anderen Ländern, was uns einen Entwicklungsnachteil einbringen würde.
Ich denke nicht, dass alles beim alten bleibt, dazu sind die Neuerungen viel zu umfangreich und kommen zu schnell; es fehlt der langsame Gewöhnungseffekt.

Bzgl. der Politik hast du nur teilweise Recht. Zum einen betrifft das nur Bereiche, in denen sie tatsächlich gefragt wird, z.B. Gesundheit, Straßenverkehr), nicht jedoch z.B. im Bankenwesen, der Logistikplanung, dem Handel, der Softwareentwicklung selbst, ... (zumindest wird sie heute nicht gefragt)
Und in den Bereichen, in denen sie gefragt wird, steht sie ggf. vor Entscheidungen, die sie nicht guzten Gewissens treffen kann; dabei nehmen sich dann Diskussionen bzgl. Stammzellenforschung oder Keimbahntherapie wie KInderkram aus, da letztere nur sehr sehr wenige Menaschen und über teilweise große Zeiträzume betreffen, während andere Fragestellungen wie die Sicherheit im Straßenverkehr fast alle Menshcne fast immer und sofort betreffen, d.h. die Politik wird immer weiter abhgehängt werden, was massive Auswirkungen auf die demokratische Strukturen haben wird: stellen wir uns einmal vor, ein gewisser Teil der Menschen kommt zum Schluss, dass Konzerne tatsächlich die besseren Lenker sind als Politiker ...

Ich bin nach wie vor der Meinung, ihr unterschätzt die Tragweite!
Gruß
Tom

Niels Bohr brainwashed a whole generation of theorists into thinking that the job (interpreting quantum theory) was done 50 years ago.

Benutzeravatar
ralfkannenberg
Ehrenmitglied
Ehrenmitglied
Beiträge: 2000
Registriert: 13. Jan 2017, 10:00

Re: Algorithmen auf dem Richterstuhl

Beitrag von ralfkannenberg » 26. Jan 2018, 09:46

Frank hat geschrieben:
23. Jan 2018, 18:33
ralfkannenberg hat geschrieben:
23. Jan 2018, 17:14
Frank hat geschrieben:
23. Jan 2018, 13:55
Ich glaube das ist nicht richtig rübergekommen. Du redest vom erhalten der Gesundheit und das das Maschinen unter Umständen besser könnten. Was machst du mitvden Menschen, z.B. Raucher, die sich aber nicht daran halten und gar nicht so gesund leben möchten. Müssen die sich der Doktrin unterwefen und gesund leben, damit deine Statistik von den max. zu rettenden Menschen aufgeht?
Hallo Frank,

das ist doch ganz einfach: die sollen einfach anteilmässig mehr Versicherungsprämien leisten, da sie Risiko-Versicherte sind.


Freundliche Grüsse, Ralf
Der Klassiker.......... :roll:
Was machst du mit übergewichtigen Menschen, Extremsportler, Dachdecker, Fliesenlegern.......etc?
Wo fängst du an und wo hörst du auf?
Der Grundgedanke einer Versicherung, nämlich die Solidarität , wird durch deine Argumentation obsolet.
Hallo Frank,

natürlich, und Du gibst auch die klassische Antwort darauf.

An sich sollte es einfach gehen: Solidarität hört dort auf, wo sie missbraucht wird. Spontan würde ich bei den von Dir genannten Personengruppen neben den Rauchern lediglich die Extremsportler von der allgemeinen Solidarität ausnehmen.

Dachdecker und Fliesenleger müssen von Berufs wegen dieses erhöhte Risiko eingehen und da ist es Aufgabe des Arbeitgebers, für genügend gute Sicherheitsmassnahmen zu sorgen, und Übergewichtigkeit ist oftmals auch familienbedingt oder krankheitsbedingt der Fall. Hier könnte eine Massnahme sein, dass es "Massnahmen-Punkte" gibt, beispielsweise für sportliche Aktivitäten - das kann auch eine Wandereinheit mit Nordic Walking Stöcken sein, oder die Teilnahme an Ernährungskursen. Wer genügend Massnahmen-Punkte aufweist, erhält die volle Solidarität, zudem muss der Erhalt der Massnahmen-Punkte machbar sein, d.h. man kann nicht einen 200 kg-Mann an einen Marathon schicken. Er kann aber beispielesweise lernen, seine Essgewohnheiten zu dokumentieren und auszuwerten.


Freundliche Grüsse, Ralf

Benutzeravatar
ralfkannenberg
Ehrenmitglied
Ehrenmitglied
Beiträge: 2000
Registriert: 13. Jan 2017, 10:00

Re: Algorithmen auf dem Richterstuhl

Beitrag von ralfkannenberg » 26. Jan 2018, 09:50

tomS hat geschrieben:
25. Jan 2018, 23:08
Wir stehen also vor der Entscheidung, entweder gegen die KI und für 30000 Tote, oder für die KI und für 29700 gerettet Leben - und für 300 Tote, deren Schuld wir ziemlich eindeutig bestimmten Personen zuordnen können (Politiker, Produktmanager, SW-Entwickler, Tester). Wer möchte zu dieser Personengruppe gehören?
Hallo Tom,

hier könnte ein Zufallsgenerator für Abhilfe sorgen. Grundsätzlich sollte dieser Zufallsgenerator aber nur eine Übergangslösung sein, d.h. diese Situationen, in denen solche fatalen Entscheidungen gefällt werden müssen, sollten durch geeignete Massnahmen vermieden werden.

Krasses Beispiel: bei illegalen Strassenrennen auf der Überholspur stirbt eben der "Rennfahrer" und nicht das unbeteiligte Opfer.


Freundliche Grüsse, Ralf

Benutzeravatar
Frank
Ehrenmitglied
Ehrenmitglied
Beiträge: 3937
Registriert: 12. Dez 2005, 23:22
Wohnort: Odenwald

Re: Algorithmen auf dem Richterstuhl

Beitrag von Frank » 26. Jan 2018, 10:11

tomS hat geschrieben:
25. Jan 2018, 19:10
Die Grenzen sind sicher fließend, aber so unpassend ist das Beispiel "Arbeitsplätze vs Menschenleben" wohl nicht. Ich behaupte, dass es sich um ein Dilemma handelt, da man Argumente für bzw. wider jede der beiden Positionen finden kann:
1) Frank hat recht, man kann nicht einfach Ärzte wegrationalisieren und durch KIs ersetzen.
2) Und ich habe - denke ich - auch recht, denn man kann einzelnen Menschen nicht die Nutzung einer KI verbieten, wenn dadurch z.B. die Heilungschancen steigen.
Wenn man aber (2) zulässt so befördert man dadurch (1).
Denk bitte an mein Zitat vom Hauptmann von Köpenick, "Erst kommt de Wanze(Mensch), dann kommt die Wanzenverordnung(in unserem Fall die KI, oder die Rationalisierung....etc.)
seeker hat geschrieben:
25. Jan 2018, 22:18

Ich habe das Gefühl, dass gerade bei dem Beispiel etwas aufgeblasen wird, das gar nicht ist. Also ich sehe das so:

1. Rationalisierungen werden selbstverständlich weiterhin stattfinden, dort wo es sinnvoll ist geht kein Weg daran vorbei, wir machen das seit 200 Jahren so, wir werden damit nicht aufhören. Realistisch betrachtet steht das bis auf Weiteres nicht zur Diskussion, alles andere ist m. E. idealistische Träumerei.
Anderes Beispiel: Wenn sich der Kohleabbau in Deutschland nicht mehr lohnt, dann wird der Tagebau irgendwann eingestellt, egal wie viele Arbeitsplätze das kostet. Es gab und gibt Übergangsfristen um das sozialverträglicher zu machen, ja, aber man kann es sich gerade in der heutigen Welt einfach nicht leisten zu sehr zurück zu schauen und zu sehr am Alten festzukleben, sonst bleibt man auf der Strecke. Das heißt bei den Ärzten, Juristen, usw.: Was man dort an Arbeitsplätzen wegrationalisieren können wird, wird auch wegrationalisiert werden, überhaupt keine Frage - und da wird es auch keine großen ethischen Diskussionen drüber geben, nicht über das Grundsätzliche, nur vielleicht darüber, wie man das möglichst sozialverträglich gestalten kann.
Sorry, Seeker, aber da geht es gerade wieder am Thema vorbei. Keiner leugnet, dass sich Arbeitsbereiche überleben, oder wer nimmt heute noch den Beruf des Schusters, oder des Scherenschleifers ernst? Die gibt es zwar noch, aber die spielen nun mal überhaupt keine Geige mehr.
Allerdings war es immer so, dass wenn ein Beruf wegfiel, die Menschen sich anderen neuenstandenen Berufen widmen konnten. Das hat nur die Bereitschaft erfordert, sich zu verändern und alte Gewohnheiten aufzugeben(was manchmal schwer genug ist)
Hier fallen aber Arbeitsplätze weg, die unwiderruflich weg sind und es auch keine Alternativen dazu mehr gibt.
Der Punkt ist erreicht, wo der Mensch aus dem Mittelpunkt verschwindet.
seeker hat geschrieben:
25. Jan 2018, 22:18

2. So lange nicht zur Debatte steht ob eine KI eine Person ist (mit allem was dazugehört) dann handelt es sich bei einer KI ganz eindeutig um ein technisches Hilfsmittel.
Dieses Hilfsmittel wird ein Arzt ebenso nutzen, ebenso wie dann auch Privatpersonen (allerdings wohl sicher mit Einschränkungen, denn um gute Antworten zu erhalten muss ich gute Fragen stellen können, was ich als Laie nicht so gut kann wie der Arzt, außerdem werden nicht alle KI-Systeme allen zugänglich sein, schon gar nicht kostenlos).
Wo aber wäre dann der große Unterschied zu heute?
Auch heute schon kann ich ich verschiedene Ärzte konsultieren, verschiedene Meinungen einholen, kann selber googeln und lesen, kann das mit Ärzten diskutieren ein..........
Die Krankenhäuser sind mittlerweile voll von "Googlestudierten" die sich selbst "therapiert " haben......

Die KI ist kein Hilfsmittel im klassischen Sinn(wie eine Schaufel), sondern ein ebenbürtiges Tun , was sogar schon stellenweise besser ist im Vergleich zum Menschen.
seeker hat geschrieben:
25. Jan 2018, 22:18

Und wie wird es bei selbstfahrenden Autos sein?
Na ganz wie immer: technische Einrichtungen und Hilfsmittel müssen in dem Rahmen funktionieren der vereinbart ist und den Normen entspricht. Wenn ich einen Unfall baue, weil mein Fahrzeug einen Herstellungsfehler an den Bremsen hat, wer haftet dann? Natürlich der Hersteller. Und wenn die Werkstatt gepfuscht hat, dann die.
Wenn ich nun ein autonomes E-Taxi per Handyapp bestelle, da mitfahre und ein Unfall geschieht, wer haftet dann? Ganz sicher nicht ich, ganz genauso nicht wie wenn ich mit dem Zug gefahren wäre, genauso nicht, wie wenn der Hersteller die Bremsen verpfuscht hätte. Und ansonsten sind ja eh alle versichert. Alles wie gehabt.
....................................................................
Jetzt geht es aber in mein Gebiet über.

Die Haftung

Das kleinste Problem wird die Haftung sein, weil es einfach Produkthaftungen und erweiterte Produkthaftung gibt. Das ist gesetzlich zu regeln und solange Maschinen, Maschinen bleiben(also Sachen), gibt es da auch kein ethisches Problem. Die Thematik fängt erst dann an, wenn die KI ein "Eigenleben"entwickelt. Ob das schon so ist, oder wie lange das noch dauert weis ich nicht.

Die anderen Bereiche , um die menschlichen , den Stillstand den der Homo Sapiens inzwischen durch die elektronischen "Helferlein"entwickelt, sind da eigentlich die Bedenklichen.
- Überspitzt formuliert finden 90% der u40 Jährigen ohne Navi nicht mehr aus der Garage raus.
- Ein immer größer werdender Teil von Menschen können ohne elektronische Hilsmittel kein vernünfties Gericht mehr aufd en Tisch bringen.
- Fingerfertigkeiten gehen verloren.
- Gruppengefüge, Sozialverhalten und Menschlichkeit gehen verloren, da man sich ja nicht mehr präsenzmässig auseinandersetzen muss.
....etc.

Das wichtigste für mich und das treibt mich in den letzten Monaten immer mehr in die Fassungslosigkeit, ist die fehlende Bereitschaft sich Konflikten zu stellen, Probleme zu lösen, sich Wege aus dem Schlamassel zu erarbeiten , daraus zu lernen und aus den Fehlern und den neu gewonnenen Erkenntnissen seine Schlüsse zu ziehen. Ergo alles das, was uns Menschen zu dem gemacht hat, was wir heute sind.

Selbst (angeblich)top ausgebildete Studenten, die ich bekomme in meinem Bereich, sind sowas von unselbstständig, machen einfachste Aufgaben mit dem Taschenrechner auf dem iPhone, verstehen die simpelsten Zusammhänge nicht und kommen bei der geringsten Kritik sofort mit den Eltern und dem Rechtsanwalt.

Also alles, mit dem uns die Natur/die Evolution mal ausgestattet hat , um auf diesem Planeten zu überleben, wird Schritt für Schritt abgeschafft.
Alle persönlichen Defizite werden weggeredet , oder weggeklagt.........

Jetzt kommt aber zukünftig noch die KI dazu. Die auch noch alles besser macht. Die ich, wenn sie mir nicht passt, auf die Müllkippe schmeisse . Die mich dann nicht verklagt, oder krank ist, oder einfach nicht so strunzdumm daherlabert.....etc.
Anstatt der Mensch,die jetzigen Generationen den Kampf aber aufnimmt mit einer Sache, die der größte Feind der eigenen Spezies werden könnte, der jemals auf Erden verweilt hat, freuen sich die Nerds über ihren Thermomix, der ja alles so toll und gut kann.
Das viele Menschen langsam aber sicher zu völligen Idioten mutieren, die zukünftig dann noch einen " intelligenten Klopapierhalter " benötigen, der ihnen die effiziente "Handhabung" des Papiers erklärt, geht völlig unter.
Mit freundlichen Grüßen

Frank

Benutzeravatar
ralfkannenberg
Ehrenmitglied
Ehrenmitglied
Beiträge: 2000
Registriert: 13. Jan 2017, 10:00

Re: Algorithmen auf dem Richterstuhl

Beitrag von ralfkannenberg » 26. Jan 2018, 11:08

Frank hat geschrieben:
26. Jan 2018, 10:11
Allerdings war es immer so, dass wenn ein Beruf wegfiel, die Menschen sich anderen neuenstandenen Berufen widmen konnten. Das hat nur die Bereitschaft erfordert, sich zu verändern und alte Gewohnheiten aufzugeben(was manchmal schwer genug ist)
Hier fallen aber Arbeitsplätze weg, die unwiderruflich weg sind und es auch keine Alternativen dazu mehr gibt.
Der Punkt ist erreicht, wo der Mensch aus dem Mittelpunkt verschwindet.
Hallo Frank,

das ist eine These, der man zustimmen kann oder auch nicht. Ich sehe das Problem woanders: aufgrund der Gewinnoptimierung der Firmen werden keine neuen Stellen mehr geschaffen.

Genügte es früher, sich bei einer Firma zu bewerben, so muss der Arbeitsuchende quasi selber Arbeit definieren und sich seine eigene Kundschaft zusammensuchen. Das klappt natürlich nicht so ohne weiteres und scheitert schon daran, dass die Betroffenen selbst wenn sie gute Ideen haben normalerweise weder unternehmerisches Know-How, noch die benötigten finanziellen Mittel haben, um ihre eigene Firma aufzubauen. Damit werden sie leicht Opfer von Kredit-Haien, die denen dann mit unhaltabaren Versprechungen auch noch das aus der Familie und dem Freundeskreis zusammengesammelte Geld abnehmen.

Eigentlich sollte man ja denken, dass nun die Stunde von modernen Unternehmen geschlagen haben sollte, die von den neuen Technologien wenigstens die erfolgsversprechenden Technologien aufbauen und dafür massenhaft Arbeitsplätze schaffen würden, aber dem ist nicht so, d.h. das passiert nicht.


Und somit kommt es zu den von Dir prognostizierten riesigen Arbeitslosenzahlen. Ich sehe - leider - als einzigen Ausweg, dass sie sich dann erst mit "Hilfe" eines Krieges wieder reduzieren lassen wird. Und wenn sich kein Kriegsgegner findet, so wird es eben zu sozialen Unruhen kommen, die dann in bürgerkriegsähnliche Zustände münden werden - wie diese "zuvielen Leute", die das Sozialnetz nicht mehr mittragen kann, zu Tode kommen, ist in diesem Modell letztlich egal.

Wir glaubten einmal, das überwunden zu haben, aber das war dem Kapitalismus und dem Optimierungswahl sei "Dank" ein leider Irrtum. Ein Optimierungswahn, von dem einige wenige, die ohnehin schon die Mehrheit am Kapital hatten, profitieren konnten. Denn diese Personen befinden sich an den wichtigen Positionen in den Unternehmen, in denen sehr gute Saläre bezahlt und sehr gute Boni ausgeschüttet werden. Leute übrigens, die sobald der Krieg ausbricht ins Ausland abhauen werden.

Frank hat geschrieben:
26. Jan 2018, 10:11
Die Krankenhäuser sind mittlerweile voll von "Googlestudierten" die sich selbst "therapiert " haben......
Den Sinn dieser Aussage verstehe ich nicht.

Frank hat geschrieben:
26. Jan 2018, 10:11
Die KI ist kein Hilfsmittel im klassischen Sinn(wie eine Schaufel), sondern ein ebenbürtiges Tun , was sogar schon stellenweise besser ist im Vergleich zum Menschen.
Das ist aber noch eine Zukunftsvision, zunächst einmal wird AI nach wie vor ein immer schnelleres Expertensystem sein, welches einfach mit immer intelligenteren und damit schnelleren Methoden die Inhalte dieses Expertensystems findet.

Natürlich hat die AI auch in anderen Bereichen wie der Spracherkennung und der Bilderkennung gewaltige Fortschritte gemacht, aber das ist hier off-topic.


Freundliche Grüsse, Ralf

positronium
Ehrenmitglied
Ehrenmitglied
Beiträge: 2832
Registriert: 2. Feb 2011, 20:13

Re: Algorithmen auf dem Richterstuhl

Beitrag von positronium » 26. Jan 2018, 11:17

tomS hat geschrieben:
25. Jan 2018, 23:08
Wir stehen also vor der Entscheidung, entweder gegen die KI und für 30000 Tote, oder für die KI und für 29700 gerettet Leben - und für 300 Tote, deren Schuld wir ziemlich eindeutig bestimmten Personen zuordnen können (Politiker, Produktmanager, SW-Entwickler, Tester). Wer möchte zu dieser Personengruppe gehören?
Zu dieser Gruppe zu gehören darf für niemanden ein Problem sein, und wäre es für mich auch nicht. Es geht ja nicht darum, jemanden gezielt oder fahrlässig zu töten, sondern darum, das bestmögliche zu erreichen. Perfekt ist nie etwas.
Wenn jemand ein Problem damit hätte, zu dieser Gruppe zu gehören, dann müsste man diese Person fragen, wo sie denn überhaupt arbeiten wollen würde. Es fallen nämlich viele Berufe in zumindest potentiell gefährliche Bereiche. Im extremen ist das die Waffenindustrie und deren Zulieferer, alle Verwender derer Produkte, also Militär, Polizei, Sicherheits- und Wachdienste. Das zieht sich weiter über alle, die im Transportbereich tätig sind, und ebenso bei Maschinen, auch bei den Rohstoffförderern. Sogar fast jeder Landwirt könnte sich bei einer solchen Sichtweise Vorwürfe machen, wenn er z.B. Insektenvernichtungsmittel einsetzt, die potentiell für Menschen gefährlich sein können, oder im Tabak- oder Drogenanbau tätig ist - auch, wenn hier eine einzelne Dosis nichts ausmacht.
Unfälle und andere Folgen sind nie ganz zu vermeiden, und irgendjemandem kann man immer die Schuld geben. Wenn niemand damit klar kommt, müssen wir uns in die Wälder zurück ziehen, aber tunlichst nicht auf Bäume klettern... wir könnte ja abstürzen, gar einen Artgenossen dabei mit in den Tod reißen.

Benutzeravatar
seeker
Ehrenadmin
Ehrenadmin
Beiträge: 6360
Registriert: 26. Dez 2009, 10:29

Re: Algorithmen auf dem Richterstuhl

Beitrag von seeker » 26. Jan 2018, 11:36

ralfkannenberg hat geschrieben:
26. Jan 2018, 09:46
An sich sollte es einfach gehen: Solidarität hört dort auf, wo sie missbraucht wird. Spontan würde ich bei den von Dir genannten Personengruppen neben den Rauchern lediglich die Extremsportler von der allgemeinen Solidarität ausnehmen.

Dachdecker und Fliesenleger müssen von Berufs wegen dieses erhöhte Risiko eingehen und da ist es Aufgabe des Arbeitgebers, für genügend gute Sicherheitsmassnahmen zu sorgen, und Übergewichtigkeit ist oftmals auch familienbedingt oder krankheitsbedingt der Fall. Hier könnte eine Massnahme sein, dass es "Massnahmen-Punkte" gibt, beispielsweise für sportliche Aktivitäten - das kann auch eine Wandereinheit mit Nordic Walking Stöcken sein, oder die Teilnahme an Ernährungskursen. Wer genügend Massnahmen-Punkte aufweist, erhält die volle Solidarität, zudem muss der Erhalt der Massnahmen-Punkte machbar sein, d.h. man kann nicht einen 200 kg-Mann an einen Marathon schicken. Er kann aber beispielesweise lernen, seine Essgewohnheiten zu dokumentieren und auszuwerten.
Wenn du das zu Ende denkst, wirst du zu dem Schluss kommen, dass du in einer solchen Welt nicht leben wollen wirst.
Wenn man hier nicht aufpasst läuft man in eine Totalüberwachung hinein, die dir auch das letzte bißchen Freiheit nimmt.
Was, gestern auf dem Geburtstag mal ausnahmsweise zwei Bier getrunken? Der Sensor in deiner Toilette und dein Medizinüberwachungsarmband habens gemerkt, schon geht dein Krankenkassenbeitrag hoch oder du wirst in der 10-Klassenmedizin eine Stufe runtergesetzt, von C nach D, wenn du dir nachweislich im nächsten halben Jahr nichts mehr zu schulden kommen lässt, kannst du nächstes Jahr einen Antrag stellen, wieder in B eingestuft zu werden. Und wehe du benutzt das Armband oder die Toilette nicht oder manipulierst die sogar, wenn es rauskommt, wirst du auf Stufe J eingestuft, zu den Verbrechern und Obdachlosen! Nur ein Beispiel.
Außerdem müssten die Punktevorschriften ja statistisch generiert werden. Was statistisch gut oder schädlich für eine große Anzahl von Leuten ist muss aber nicht gut oder schädlich für deine spezielle Person sein. Ich kann dir sagen, du würdest dich an vielen Punkten aufregen, wo du sicher bist, dass das bei dir nicht passt und du durch das Netz fällst. Das alles hat aber mit KIs nichts direkt zu tun...

tomS hat geschrieben:
25. Jan 2018, 23:08
Wir stehen also vor der Entscheidung, entweder gegen die KI und für 30000 Tote, oder für die KI und für 29700 gerettet Leben - und für 300 Tote, deren Schuld wir ziemlich eindeutig bestimmten Personen zuordnen können (Politiker, Produktmanager, SW-Entwickler, Tester). Wer möchte zu dieser Personengruppe gehören?
Es kann hier wie gesagt nur eine moralisch richtige Wahl geben: die 29700 sind zu retten!
Und wenn du zu der besagten Personengruppe gehörst, hast du mitgeholfen eben diese 29700 zu retten. Wo ist dann dein Problem?
Außerdem ist es grundsätzlich so, dass Menschenleben langfristig gesehen gar nicht gerettet werden können, weil wir nunmal sterblich sind und alle irgendwann sterben werden.
Es geht bei "Lebensrettung" daher immer nur um Vermeidung von unnötiger Lebenszeitverkürzung und um Vermeidung von unnötigem Leid und Schaden - so weit das in einem vernünftigen Rahmen überhaupt möglich ist.

Weiterhin ist es ganz allgemein so, das an ganz vielen politischen und sonstigen Entscheidungen Menschenleben hängen, wo es gar nicht bewusst ist, statistisch nachweisbar, nur meist halt nicht direkt im Ursache-Wirkungspfad eindeutig identifizierbar. Streich z.B. die Bezahlung von irgendeiner Vorsorge, schon wird irgendjemand deshalb sterben, verringere die Medikamentenzuschüsse um 1%, jemand wird deshalb sterben, erhöhe die Mietpreise um 1%, jemand wird deshalb sterben, produziere irgendetwas oder tue es nicht, jemand wird deshalb sterben, usw.
Ganz wichtig ist hier: 100% Sicherheit gibt es nicht, nie nirgends!

Deshalb: Wenn 90% weniger Verkehrstote erreichbar sind, dann ist das hier Geplänkel, Peanuts, nichts weiter als kleine Kollateralschäden, die man immer hat, nie auf 0,00% drücken kann:
tomS hat geschrieben:
25. Jan 2018, 23:08
Zum einen besteht das Dilemma, wie die KI reagieren soll, wenn sie die Wahl zwischen verschieden Opfern hat. Idee, falls nur eine KI beteiligt ist: zunächst immer zu Lasten des "Fahrers" im Sinne der "Gefährdungshaftung". Das ist spannend, weil es definitiv den Anreiz senkt, überhaupt eine KI einzusetzen :-) Schwieriger wird's, wenn mehrere Autos und damit mehrere KIs beteiligt sind.

Zum zweiten existiert ein Problem dahingehend, dass im Zuge der SW-Entwicklung recht gute Angaben zu Fehlern in der SW gemacht werden können, zum einen mittels einer "post-mortem" Analyse, zum zweiten statistisch. Daraus folgt dann einerseits, dass z.BV. ein Toter auf ein bestimmtes Feature in der SW zurückzuführen ist (also kein Fehler, sondern eine bewusste Entscheidung des Produktmanagers oder des Entwicklers, z.B. aufgrund einer gesetzlichen Vorschrift); man beachte, die die Ausnahme zur Regel wird, weil die Unfälle aufgrund menschlichen Versagens fast auf Null zurückgehen. Andererseits folgt daraus, dass wir aufgrund statistischer Aussagen sicher wissen werden, dass ein bestimmter Prozentsatz an Toten aufgrund von SW-Fehlern unvermeidbar ist.
... und es ist moralisch-ethisch eben völlig egal ob die nicht zu vermeidenden Kollateralschäden nun annonym oder konkret identifizierbar sind, man muss sich dann nur an diese Wahrheit endlich gewöhnen.
tomS hat geschrieben:
25. Jan 2018, 23:08
Ich denke nicht, dass alles beim alten bleibt, dazu sind die Neuerungen viel zu umfangreich und kommen zu schnell; es fehlt der langsame Gewöhnungseffekt.
Wie lange haben wir gebraucht um uns an Smartphones zu gewöhnen? 3 Jahre, weniger?
Also ich würde an dem Punkt die Kirche im Dorf lassen.
tomS hat geschrieben:
25. Jan 2018, 23:08
Ich bin nach wie vor der Meinung, ihr unterschätzt die Tragweite!
tomS hat geschrieben:
25. Jan 2018, 23:08
Bzgl. der Politik hast du nur teilweise Recht. Zum einen betrifft das nur Bereiche, in denen sie tatsächlich gefragt wird, z.B. Gesundheit, Straßenverkehr), nicht jedoch z.B. im Bankenwesen, der Logistikplanung, dem Handel, der Softwareentwicklung selbst, ... (zumindest wird sie heute nicht gefragt)
Wo ist dort ein ethisches Problem?
tomS hat geschrieben:
25. Jan 2018, 23:08
Und in den Bereichen, in denen sie gefragt wird, steht sie ggf. vor Entscheidungen, die sie nicht guzten Gewissens treffen kann;
Das sehe ich nicht, wo denn?
tomS hat geschrieben:
25. Jan 2018, 23:08
dabei nehmen sich dann Diskussionen bzgl. Stammzellenforschung oder Keimbahntherapie wie KInderkram aus, da letztere nur sehr sehr wenige Menaschen und über teilweise große Zeiträzume betreffen, während andere Fragestellungen wie die Sicherheit im Straßenverkehr fast alle Menshcne fast immer und sofort betreffen, d.h. die Politik wird immer weiter abhgehängt werden, was massive Auswirkungen auf die demokratische Strukturen haben wird: stellen wir uns einmal vor, ein gewisser Teil der Menschen kommt zum Schluss, dass Konzerne tatsächlich die besseren Lenker sind als Politiker ...
Ethisch im Vergleich wie Kinderkram? Wo denn, warum denn?
Und die Demokratie kommt wegen KIs in Gefahr? Wo denn, warum denn?

Worauf ich hinaus will, was mein Punkt ist:

Die gesellschaftliche und besonders soziale Tragweite ist enorm, keine Frage.
Aber die ethische Tragweite ist eher gering, so lange KIs keine Personen sind.
Man muss beides unterscheiden, sonst verheddert man sich.
Grüße
seeker


Kritisches Denken bedeutet nicht, sich einseitig nur aus kritischen Quellen zu versorgen und die dortigen Darstellungen unkritisch zu übernehmen. Viele überschätzen ihre eigene Medienkompetenz massiv. Dies wird von Verführern ausgenutzt.

Benutzeravatar
seeker
Ehrenadmin
Ehrenadmin
Beiträge: 6360
Registriert: 26. Dez 2009, 10:29

Re: Algorithmen auf dem Richterstuhl

Beitrag von seeker » 26. Jan 2018, 11:50

Frank hat geschrieben:
26. Jan 2018, 10:11
Der Punkt ist erreicht, wo der Mensch aus dem Mittelpunkt verschwindet.
Der Mensch steht schon lange nicht mehr im Mittelpunkt der Wirtschaft, KIs hin oder her.

Und die Ultima Ratio ist der künstliche Konsument:
Wenn die Leute nicht mehr arbeiten gehen können weil sie nicht mehr gebraucht werden und daher kein Geld mehr haben, dann hat die Wirschaft ein Problem: Wem soll sie ihre Waren und Dienstleistungen verkaufen?
Wenn der natürliche Konsument wegfällt, muss man eben künstliche Konsumenten schaffen, damit die Wirtschaft weiterlaufen kann.
Aber noch ist es lange nicht so weit und es ist auch völlig unklar ob es irgendwann einmal so weit kommen wird, so weit pervertieren wird.
Grüße
seeker


Kritisches Denken bedeutet nicht, sich einseitig nur aus kritischen Quellen zu versorgen und die dortigen Darstellungen unkritisch zu übernehmen. Viele überschätzen ihre eigene Medienkompetenz massiv. Dies wird von Verführern ausgenutzt.

Benutzeravatar
ralfkannenberg
Ehrenmitglied
Ehrenmitglied
Beiträge: 2000
Registriert: 13. Jan 2017, 10:00

Re: Algorithmen auf dem Richterstuhl

Beitrag von ralfkannenberg » 26. Jan 2018, 11:59

seeker hat geschrieben:
26. Jan 2018, 11:36
Wenn du das zu Ende denkst, wirst du zu dem Schluss kommen, dass du in einer solchen Welt nicht leben wollen wirst.
Wenn man hier nicht aufpasst läuft man in eine Totalüberwachung hinein, die dir auch das letzte bißchen Freiheit nimmt.
Hallo seeker,

warum den gleich so extreme Massnahmen ? Auch heutzutage darf ein Arbeitgeber überprüfen, ob der Krankgemeldete wirklich krank ist, aber das ist ziemlich klar reguliert, was da erlaubt ist und was nicht. Und es ist auch nicht ansatzweise so, dass der Krankgeschriebene da an eine Maschine angeschlossen wird, die dessen Blut- und Herzwerte alle 5 Sekunden seinem Chef übermittelt.

Wobei ich persönlich das anders handhabe, d.h. Krankheit läuft bei mir auf Freizeit oder Urlaub. Ich liege da lieber auf der sicheren Seite, zumal ich auch schon 56 Jahre alt bin.

seeker hat geschrieben:
26. Jan 2018, 11:36
Was, gestern auf dem Geburtstag mal ausnahmsweise zwei Bier getrunken?
Niemand wird einem einer Risikogruppe zuordnen, wenn man mal ausnahmsweise zwei Bier trinkt. Auch dann nicht, wenn da noch ein drittes solches dazukommt.

seeker hat geschrieben:
26. Jan 2018, 11:36
Der Sensor in deiner Toilette
Das ist erstens rechtlich nicht zulässig, zweitens viel zu teuer, von der Auswertung der Daten und der Wartung des Überwachungssystemes ganz zu schweigen. Das kommt nicht und wäre auch Unfug ! Und selbst wenn: dann uriniert besagte Person eben im Garten.

seeker hat geschrieben:
26. Jan 2018, 11:36
und dein Medizinüberwachungsarmband habens gemerkt
Auch das dürfte rechtlich unzulässig sein. Man sollte keine Schreckensbilder aufmalen, wo keine sind. Für einen Diabetiker mag so ein Armband sinnvoll sein, oder für einen Sportler, der seinen Trainingsfortschritt gerne elektronisch erfassen möchte.

seeker hat geschrieben:
26. Jan 2018, 11:36
, schon geht dein Krankenkassenbeitrag hoch
Für so etwas braucht es kein solches Armband.

seeker hat geschrieben:
26. Jan 2018, 11:36
oder du wirst in der 10-Klassenmedizin eine Stufe runtergesetzt, von C nach D, wenn du dir nachweislich im nächsten halben Jahr nichts mehr zu schulden kommen lässt, kannst du nächstes Jahr einen Antrag stellen, wieder in B eingestuft zu werden. Und wehe du benutzt das Armband oder die Toilette nicht oder manipulierst die sogar, wenn es rauskommt, wirst du auf Stufe J eingestuft, zu den Verbrechern und Obdachlosen! Nur ein Beispiel.
Solche Ansätze magst Du vielleicht in 1984 von Orwell oder ähnlichen Werken finden, aber nicht bei uns.

seeker hat geschrieben:
26. Jan 2018, 11:36
Außerdem müssten die Punktevorschriften ja statistisch generiert werden. Was statistisch gut oder schädlich für eine große Anzahl von Leuten ist muss aber nicht gut oder schädlich für deine spezielle Person sein. Ich kann dir sagen, du würdest dich an vielen Punkten aufregen, wo du sicher bist, dass das bei dir nicht passt und du durch das Netz fällst. Das alles hat aber mit KIs nichts direkt zu tun...
Nein, die statistische Auswertung wäre sicherlich interessant, nicht zuletzt auch, um zu sehen, wo man selber steht.

Im Übrigen hatte ich moderate Vorschläge genannt, nämlich Vorschläge, die den Betroffenen helfen, sich ihrer Situation bewusst zu werden. Meistens leiten sie dann von sich aus Schritte ein oder lassen sich individuell beraten.


Freundliche Grüsse, Ralf

Benutzeravatar
tomS
Administrator
Administrator
Beiträge: 10578
Registriert: 19. Nov 2007, 20:29
Wohnort: Nürnberg

Re: Algorithmen auf dem Richterstuhl

Beitrag von tomS » 26. Jan 2018, 12:12

ralfkannenberg hat geschrieben:
26. Jan 2018, 09:50
tomS hat geschrieben:
25. Jan 2018, 23:08
Wir stehen also vor der Entscheidung, entweder gegen die KI und für 30000 Tote, oder für die KI und für 29700 gerettet Leben - und für 300 Tote, deren Schuld wir ziemlich eindeutig bestimmten Personen zuordnen können (Politiker, Produktmanager, SW-Entwickler, Tester). Wer möchte zu dieser Personengruppe gehören?
Hallo Tom,

hier könnte ein Zufallsgenerator für Abhilfe sorgen. Grundsätzlich sollte dieser Zufallsgenerator aber nur eine Übergangslösung sein, d.h. diese Situationen, in denen solche fatalen Entscheidungen gefällt werden müssen, sollten durch geeignete Massnahmen vermieden werden.
Das funktioniert nicht, wenn keine Einigkeit über die Kriterien und Maßnahmen erzielt wird; und auch ein Zufallsgeneator ist eine Maßnahme. Zuvor muss außerdem noch bewertet werden, ob eine Situation vorliegt, in der der Zufallsgenerator zum Einsatz kommt; auch das stellt eine Maßnahme dar.

Und es funktioniert prinzipiell nicht im Falle eines SW-Fehlers.
Gruß
Tom

Niels Bohr brainwashed a whole generation of theorists into thinking that the job (interpreting quantum theory) was done 50 years ago.

Benutzeravatar
tomS
Administrator
Administrator
Beiträge: 10578
Registriert: 19. Nov 2007, 20:29
Wohnort: Nürnberg

Re: Algorithmen auf dem Richterstuhl

Beitrag von tomS » 26. Jan 2018, 12:17

Frank hat geschrieben:
26. Jan 2018, 10:11
tomS hat geschrieben:
25. Jan 2018, 19:10
Die Grenzen sind sicher fließend, aber so unpassend ist das Beispiel "Arbeitsplätze vs Menschenleben" wohl nicht. Ich behaupte, dass es sich um ein Dilemma handelt, da man Argumente für bzw. wider jede der beiden Positionen finden kann:
1) Frank hat recht, man kann nicht einfach Ärzte wegrationalisieren und durch KIs ersetzen.
2) Und ich habe - denke ich - auch recht, denn man kann einzelnen Menschen nicht die Nutzung einer KI verbieten, wenn dadurch z.B. die Heilungschancen steigen.
Wenn man aber (2) zulässt so befördert man dadurch (1).
Denk bitte an mein Zitat vom Hauptmann von Köpenick, "Erst kommt de Wanze(Mensch), dann kommt die Wanzenverordnung(in unserem Fall die KI, oder die Rationalisierung....etc.)
Ich habe den Eindruck, du ignorierst völlig, wo wir mit der Entwicklung gerade stehen. Die großen Konzerne sind schon dabei, KIs in jeden Haushazu bringen.

Es geht auch nicht um eine Verordnung oder ein Gesetz, es geht zunächst mal um die Kategorien, in denen dieses überhaupt gedacht werden sollte.

Sind wir beide uns zumindest einig, dass bzgl. (1) und (2) ein Dissenz zwischen uns besteht, den wir ggw. nicht äuflösen können?
Gruß
Tom

Niels Bohr brainwashed a whole generation of theorists into thinking that the job (interpreting quantum theory) was done 50 years ago.

Benutzeravatar
tomS
Administrator
Administrator
Beiträge: 10578
Registriert: 19. Nov 2007, 20:29
Wohnort: Nürnberg

Re: Algorithmen auf dem Richterstuhl

Beitrag von tomS » 26. Jan 2018, 12:33

Frank hat geschrieben:
26. Jan 2018, 10:11
Das kleinste Problem wird die Haftung sein, weil es einfach Produkthaftungen und erweiterte Produkthaftung gibt. Das ist gesetzlich zu regeln und solange Maschinen, Maschinen bleiben(also Sachen), gibt es da auch kein ethisches Problem. Die Thematik fängt erst dann an, wenn die KI ein "Eigenleben"entwickelt. Ob das schon so ist, oder wie lange das noch dauert weis ich nicht.
Es gibt ein massives ethisch-moralisches Problem, wenn ein SW-Entwickler auf Anweisung des Vorgesetztes einen Algorithmus entwickeln soll, der mathematisch nachweisbar in einer konkreten Situation menschliches Leben auslöscht.

Dies ist fundamental neu, noch nie dagewesen im zivilen Bereich!

Ausnahmen sind Soldaten, Polizisten (insbs. Scharfschützen), ein Abschussbefehl gegen ein von Terroristen entführtes Flugzeug u.ä.; nur in diesen Fällen handelt es sich eben um sehr konkrete Maßnahmen gegen einen Angreifer im Krieg, Gewalttäter und Terroristen - nicht um Maßnahmen gegen Ungeteiligte im Straßenverkehr.

Alleine die Diskussion um den Abschussbefehl und die Vereinbarkeit mit unserem Grundgesetz zeigt die Problematik. Und dabei ging es um eine klare Bedrohungslage, nich um die Frage "Oma vs. Kleinkind".


Im Falle von SW-Fehlern ist es nicht besser. Ein Entwickler verantwortet einen Algorithmus, der nachweislich 29700 Menschenleben rettet, und der ebenso nachweislich - durch Traces, post-morgen-Analyse u.ä. - 300 Menschen getötet hat. Was hilft da die Produkthaftung? Möchtest du diesen Job machen, auch wenn du im Einzelfall freigesprochen wirst? Wenn aber niemand diesen Job macht, weil die Siruation für ihn unerträglich ist, dann sterben nachweislich mehr Menschen. Es trifft übrigens alle in der Kette: Gesetzgeber, Produktmanager, Entwickler, Tester, TÜV-Prüfer, ...
Gruß
Tom

Niels Bohr brainwashed a whole generation of theorists into thinking that the job (interpreting quantum theory) was done 50 years ago.

Benutzeravatar
tomS
Administrator
Administrator
Beiträge: 10578
Registriert: 19. Nov 2007, 20:29
Wohnort: Nürnberg

Re: Algorithmen auf dem Richterstuhl

Beitrag von tomS » 26. Jan 2018, 12:43

positronium hat geschrieben:
26. Jan 2018, 11:17
tomS hat geschrieben:
25. Jan 2018, 23:08
Wir stehen also vor der Entscheidung, entweder gegen die KI und für 30000 Tote, oder für die KI und für 29700 gerettet Leben - und für 300 Tote, deren Schuld wir ziemlich eindeutig bestimmten Personen zuordnen können (Politiker, Produktmanager, SW-Entwickler, Tester). Wer möchte zu dieser Personengruppe gehören?
Zu dieser Gruppe zu gehören darf für niemanden ein Problem sein, und wäre es für mich auch nicht. Es geht ja nicht darum, jemanden gezielt oder fahrlässig zu töten, sondern darum, das bestmögliche zu erreichen. Perfekt ist nie etwas ...
Der wesentliche neue Aspekt ist, dass es unmittelbar, mathematisch nachvollziehbar und rekonstruierbar eindeutig für einen ganz konkreten Unfall zu einem ganz konkreten Entwickler zurückverfolgt werden kann.

D.h. dann z.B., dass Entwickler X diesen Algorithmus fehlerhaft implementiert hat und dass die Tester Y, Z, ... diesen Fehler nicht entdeckt haben. Es wurden jedoch alle vorgeschriebenen Qualitätssicherungsmaßnahmen eingehalten - fehlerfreie Software ist ab einer gewissen Komplexität prinzipiell nicht erreichbar - und daher ist die TÜV-Abnahme zurecht erfolgt.


Eine vollständig neue Problematik bei KIs, die auf neuronalen Netzen basieren, besteht darin, dass der Mensch den konkreten Entscheidungsprozess prinzipiell nicht mehr verstehen kann. Es gibt keinen klassischen Algorithmus mehr, sondern lediglich eine Ansammlung von künstlichen Neuronen, die statistisch gesehen fast immer "richtig" handeln; nur wenn sie falsch handeln, gibt es dafür keinen echten Grund, und daher auch keine zielgerichtete Verbesserungsmaßnahme.
Gruß
Tom

Niels Bohr brainwashed a whole generation of theorists into thinking that the job (interpreting quantum theory) was done 50 years ago.

Benutzeravatar
ralfkannenberg
Ehrenmitglied
Ehrenmitglied
Beiträge: 2000
Registriert: 13. Jan 2017, 10:00

Re: Algorithmen auf dem Richterstuhl

Beitrag von ralfkannenberg » 26. Jan 2018, 12:48

tomS hat geschrieben:
26. Jan 2018, 12:33
Es gibt ein massives ethisch-moralisches Problem, wenn ein SW-Entwickler auf Anweisung des Vorgesetztes einen Algorithmus entwickeln soll, der mathematisch nachweisbar in einer konkreten Situation menschliches Leben auslöscht.
Hallo Tom,

aus diesem Grunde hatte ich die Idee mit dem Zufallsgenerator; dann können die SW-Entwickler verschiedene Varianten implementieren und jemand anders entscheidet dann, mit welcher Gewichtung diese von einem Zufallsgenerator ausgewählt werden.

Aber wie gesagt: ich bin der Meinung, dass die AI solche Situationen, in denen solche fatalen Entscheidungen gefällt werden müssen, erkennen und dann vermeiden müssen. Das Kind, welches sich von der Mutter losreisst und über die Strasse rennt, hat dann eben ein geeignetes Gerät bei sich, welches das die Gefahr auslösende Auto erkennt und das Kind stoppt.


Freundliche Grüsse, Ralf

Benutzeravatar
Frank
Ehrenmitglied
Ehrenmitglied
Beiträge: 3937
Registriert: 12. Dez 2005, 23:22
Wohnort: Odenwald

Re: Algorithmen auf dem Richterstuhl

Beitrag von Frank » 26. Jan 2018, 13:01

tomS hat geschrieben:
26. Jan 2018, 12:33

Es gibt ein massives ethisch-moralisches Problem, wenn ein SW-Entwickler auf Anweisung des Vorgesetztes einen Algorithmus entwickeln soll, der mathematisch nachweisbar in einer konkreten Situation menschliches Leben auslöscht.

Dies ist fundamental neu, noch nie dagewesen im zivilen Bereich!
Bitte?

Redest du hier von Kriminalität, oder von Fahrlässigkeit? (Das sollten wir zunächst einmal klären.)
Mit freundlichen Grüßen

Frank

Benutzeravatar
Frank
Ehrenmitglied
Ehrenmitglied
Beiträge: 3937
Registriert: 12. Dez 2005, 23:22
Wohnort: Odenwald

Re: Algorithmen auf dem Richterstuhl

Beitrag von Frank » 26. Jan 2018, 13:07

seeker hat geschrieben:
26. Jan 2018, 11:50
.
Aber noch ist es lange nicht so weit und es ist auch völlig unklar ob es irgendwann einmal so weit kommen wird, so weit pervertieren wird.
Danke für deine (kurze) Antwort, auf meine langen Ausführungen :wink: :mrgreen:

Soweit ist das gar nicht......manchmal
Aber ich gebe dir recht. es wird nichts so heiss gegessen , wie gekocht.

https://www.youtube.com/watch?v=r6Xz6mWe8ms&t=173s
Mit freundlichen Grüßen

Frank

Benutzeravatar
tomS
Administrator
Administrator
Beiträge: 10578
Registriert: 19. Nov 2007, 20:29
Wohnort: Nürnberg

Re: Algorithmen auf dem Richterstuhl

Beitrag von tomS » 26. Jan 2018, 13:12

seeker hat geschrieben:
26. Jan 2018, 11:36
Wie lange haben wir gebraucht um uns an Smartphones zu gewöhnen? 3 Jahre, weniger?
Also ich würde an dem Punkt die Kirche im Dorf lassen.
Die tun bisher auch nicht eigenständig fragwürdige Dinge.
tomS hat geschrieben:
25. Jan 2018, 23:08
Ich bin nach wie vor der Meinung, ihr unterschätzt die Tragweite!
seeker hat geschrieben:
26. Jan 2018, 11:36
tomS hat geschrieben:
25. Jan 2018, 23:08
dabei nehmen sich dann Diskussionen bzgl. Stammzellenforschung oder Keimbahntherapie wie KInderkram aus, da letztere nur sehr sehr wenige Menaschen und über teilweise große Zeiträzume betreffen, während andere Fragestellungen wie die Sicherheit im Straßenverkehr fast alle Menshcne fast immer und sofort betreffen, d.h. die Politik wird immer weiter abhgehängt werden, was massive Auswirkungen auf die demokratische Strukturen haben wird: stellen wir uns einmal vor, ein gewisser Teil der Menschen kommt zum Schluss, dass Konzerne tatsächlich die besseren Lenker sind als Politiker ...
Ethisch im Vergleich wie Kinderkram? Wo denn, warum denn?
Und die Demokratie kommt wegen KIs in Gefahr? Wo denn, warum denn?

Worauf ich hinaus will, was mein Punkt ist:

Die gesellschaftliche und besonders soziale Tragweite ist enorm, keine Frage.
Aber die ethische Tragweite ist eher gering, so lange KIs keine Personen sind.
Man muss beides unterscheiden, sonst verheddert man sich.
Ich weiß nicht, wie ich's noch erklären soll.

Wenn du natürlich mit allen genannten Fragestellungen kein Problem hast, dann hast du halt kein Problem.

Andere - nicht nur ich - diskutieren das und sehen massive Probleme, also musst du zumindest akzeptieren, dass gegenteilige Meinungen existieren.

Sobald einige zehntausend Menschen die Einschätzung teilen, dass eine moralisch verwerfliche Technologie oder ein Algorithmus zum Einsatz kommt, wird auch die gesellschaftliche Tragweite enorm.


Die demokratischen Strukturen sind immer dann gefährdet, wenn die Politik nicht mehr handlungsfähig ist. Wenn also Konzerne KIs deutlich schneller generieren kann als die Politik zu reagieren im Stande ist, dann zerstört dies möglicherweise die Grundlage für Politik und Demokratie (nach heutigen Verständnis).

Dies ist ein geringes Problem für Technologien mit Zulassungspflicht, z.B. für den Straßenverkehr oder die Medizin.

Es trifft insbs. dann zu, wenn man eine an sich frei einsetzbare Technologie verbieten müsste, weil sie z.B. einen sozial destruktiven Prozess in Gang setzt, den wir heute jedoch noch gar nicht erkennen und bewerteten können. Stellen wir uns z.B. vor, dass nach Zulassung autonomer Fahrzeuge Logistik, Groß- und der Einzelhandel in kürzester Zeit vollständig automatisiert ablaufen können, verbunden mit massiven Energieeinsparungen im Individualverkehr. Andererseits würde dies wohl unseren Arbeitsmarkt und letztlich die Gesellschaft zerstören.

Vergleiche das mal mit den Zeitskalen beim Klimawandel (200 Jahre) und dem politischen Diskurs (einige Jahrzehnte). Dieselbe Politik müsste nun ähnliche Umwälzungen durch KI u.a. innerhalb von wenigen Jahren vorhersehen, verstehen, diskutieren und gegensteuern. Das kann sie offensichtlich nicht. Die unmittelbar positiven Aspekte für den Kunden = den Markt sind jedoch sehr kurzfristig sichtbar und verfügbar. D.h. noch bevor die negativen Auswirkungen erkennbar werden, würde die Politik bereits unmerklich abgeschafft, eben weil sie nicht mehr mithalten kann; sie führt zunehmend Diskussionen am nich unbekannten Kern der Sache vorbei. Der Bürger stellt lediglich fest, dass Konzerne kurzfristig segensreiche Technologien auf den Markt bringen, die Politik den daraus resultierenden Fluch nicht verhindern kann.

Wozu brauche ich die Politik dann noch? Wird der Markt einen adäquaten Ersatz schaffen? Haben wir dann auch Neoliberalismus 4.0?
Gruß
Tom

Niels Bohr brainwashed a whole generation of theorists into thinking that the job (interpreting quantum theory) was done 50 years ago.

positronium
Ehrenmitglied
Ehrenmitglied
Beiträge: 2832
Registriert: 2. Feb 2011, 20:13

Re: Algorithmen auf dem Richterstuhl

Beitrag von positronium » 26. Jan 2018, 13:27

tomS hat geschrieben:
26. Jan 2018, 12:43
Der wesentliche neue Aspekt ist, dass es unmittelbar, mathematisch nachvollziehbar und rekonstruierbar eindeutig für einen ganz konkreten Unfall zu einem ganz konkreten Entwickler zurückverfolgt werden kann.

D.h. dann z.B., dass Entwickler X diesen Algorithmus fehlerhaft implementiert hat und dass die Tester Y, Z, ... diesen Fehler nicht entdeckt haben. Es wurden jedoch alle vorgeschriebenen Qualitätssicherungsmaßnahmen eingehalten - fehlerfreie Software ist ab einer gewissen Komplexität prinzipiell nicht erreichbar - und daher ist die TÜV-Abnahme zurecht erfolgt.
Das gibt es auch heute schon. Man schaue doch nur einmal, wie akribisch Flugzeugabstürze aufgearbeitet werden. Dort kann es auch sein, dass sich dann z.B. herausstellt, dass eine Software zur Triebwerksüberwachung eine spezielle Situation nicht korrekt behandelt hat. Das ist nichts anderes als menschliches Versagen, das genauso gut den Mechaniker treffen kann, der im Triebwerk ein Werkzeug vergessen hat, oder den Piloten, der einen Bedienungsfehler gemacht hat.

Der Unterschied zu einem Todesfall in Folge einer Berechnung durch KI ist, dass ein Entwickler, der die Ergebnisse der KI auswertet und eine Aktion des Autos initiiert, deutlich weniger Schuld trägt als jemand in einem der obigen Fälle. Er kann nämlich einerseits nichts dafür, was die KI ihm berechnet (Diese ist im übrigen extrem weich; schon allein die Sensordaten sind sehr weich - Kameradaten etc...), und andererseits spricht er durch einen Vergleichsoperator kein Todesurteil aus, weil alle ihm zur Verfügung gestellten Daten unsicher, nur eine technisch-subjektive Analyse und eine Prognose sind. - Woher sollte die KI wissen, mit welcher Wahrscheinlichkeit ein Fußgänger bei einem bestimmten Fahrmanöver sterben wird? Da gibt es eine extreme Streuung. Allein die Zehntelsekunde vor dem Aufprall/nach der Berechnung kann die Folgen völlig verändern.

tomS hat geschrieben:
26. Jan 2018, 12:43
Eine vollständig neue Problematik bei KIs, die auf neuronalen Netzen basieren, besteht darin, dass der Mensch den konkreten Entscheidungsprozess prinzipiell nicht mehr verstehen kann. Es gibt keinen klassischen Algorithmus mehr, sondern lediglich eine Ansammlung von künstlichen Neuronen, die statistisch gesehen fast immer "richtig" handeln; nur wenn sie falsch handeln, gibt es dafür keinen echten Grund, und daher auch keine zielgerichtete Verbesserungsmaßnahme.
Ja, es wird immer eine wie auch immer gelagerte Grauzone geben, und auch einen Bereich, in dem Entscheidungen praktisch zufällig sind, und das gleichermaßen beim Menschen wie bei einer KI. Die Sichtverhältnisse spielen hier eine ganz herausragende Rolle. Eine Bildanalyse kann allein durch ein Pixel, das gerade ein Photon nicht registriert hat, andere Ergebnisse erbringen, weil eben ein Schwellwert bzgl. Helligkeit nicht überschritten wird. Dadurch erkennt die Software evtl. eine dunkel gekleidete Person vor dunklem Hintergrund nicht mehr...
So etwas sind prinzipielle Probleme, die nie lösbar sein werden. Man muss sich mit der Begrenztheit der Möglichkeiten abfinden. Das ist auch Programmierern klar. Man kann nicht in eine Depression verfallen, weil dadurch das eine oder andere Leben nicht gerettet oder Verletzungen vermieden werden können. Da haben Fälle, wie die oben beispielhaft genannten für menschliches Versagen für die betroffenen eine ganz andere Klasse.

positronium
Ehrenmitglied
Ehrenmitglied
Beiträge: 2832
Registriert: 2. Feb 2011, 20:13

Re: Algorithmen auf dem Richterstuhl

Beitrag von positronium » 26. Jan 2018, 13:33

ralfkannenberg hat geschrieben:
26. Jan 2018, 12:48
Das Kind, welches sich von der Mutter losreisst und über die Strasse rennt, hat dann eben ein geeignetes Gerät bei sich, welches das die Gefahr auslösende Auto erkennt und das Kind stoppt.
Praktisch! :wink:

Benutzeravatar
tomS
Administrator
Administrator
Beiträge: 10578
Registriert: 19. Nov 2007, 20:29
Wohnort: Nürnberg

Re: Algorithmen auf dem Richterstuhl

Beitrag von tomS » 26. Jan 2018, 13:37

Frank hat geschrieben:
26. Jan 2018, 13:01
tomS hat geschrieben:
26. Jan 2018, 12:33

Es gibt ein massives ethisch-moralisches Problem, wenn ein SW-Entwickler auf Anweisung des Vorgesetztes einen Algorithmus entwickeln soll, der mathematisch nachweisbar in einer konkreten Situation menschliches Leben auslöscht.

Dies ist fundamental neu, noch nie dagewesen im zivilen Bereich!
Bitte?

Redest du hier von Kriminalität, oder von Fahrlässigkeit? (Das sollten wir zunächst einmal klären.)
Weder noch, ich rede von Absicht.

Autonomes Fahren bedeutet Bewertung von Gefahrensituationen. Der Algorithmus zur Bewertung wird in einer Konfliktsituation in irgendeiner Form gewichten und entscheiden müssen - für das eine Leben und gegen das andere. Genauso wie der Scharfschütze im Falle einer Geiselnahme, jedoch nicht gegen Verbrecher sondern z.B. gegen an sich unbeteiligte Passanten im Straßenverkehr.

Nun ist der Algorithmus z.B. gezielt entworfen und korrekt umgesetzt worden, d.h. dass in dieser Situation dieser Mensch zu Tode kommt, ist durch diesen Algorithmus dieses Entwicklers bedingt - und das war so gewollt.

Oder die Implementierung des Algorithmus enthält einen Fehler - was pinzipbedingt nicht vermieden werden kann - d.h. es liegt ein Fehler vor, jedoch sicher keine Fahrlässigkeit. Das ist in der Softwareentwicklung heute schon die Regel.

Oder die Entwicklung hat sich gegen einen festen Algorithmus und für ein neuronales Netz entschieden. Dann liegt die Ursache des Todes eines Menschen zunächst in den Parametern des Netzes begründet, wobei deren Zustandekommen und Wirkungsweise jedoch nicht mehr nachvollziehbar ist. Klar ist jedoch die Entscheidung der Entwicklung für ein neuronales Netz, die statischtisch sinnvoll jedoch in diesem einen Fall katastrophal ist.

(ich gehe hier davon aus, dass keine Technologie im Sinne von Safety / IEC 61508 SIL3 / ISO 26262 Einsatz kommt, weil die Komplexität des autonomen Fahrens dies verbietet)
Gruß
Tom

Niels Bohr brainwashed a whole generation of theorists into thinking that the job (interpreting quantum theory) was done 50 years ago.

Benutzeravatar
tomS
Administrator
Administrator
Beiträge: 10578
Registriert: 19. Nov 2007, 20:29
Wohnort: Nürnberg

Re: Algorithmen auf dem Richterstuhl

Beitrag von tomS » 26. Jan 2018, 13:58

positronium hat geschrieben:
26. Jan 2018, 13:27
tomS hat geschrieben:
26. Jan 2018, 12:43
Der wesentliche neue Aspekt ist, dass es unmittelbar, mathematisch nachvollziehbar und rekonstruierbar eindeutig für einen ganz konkreten Unfall zu einem ganz konkreten Entwickler zurückverfolgt werden kann.

D.h. dann z.B., dass Entwickler X diesen Algorithmus fehlerhaft implementiert hat und dass die Tester Y, Z, ... diesen Fehler nicht entdeckt haben. Es wurden jedoch alle vorgeschriebenen Qualitätssicherungsmaßnahmen eingehalten - fehlerfreie Software ist ab einer gewissen Komplexität prinzipiell nicht erreichbar - und daher ist die TÜV-Abnahme zurecht erfolgt.
Das gibt es auch heute schon. Man schaue doch nur einmal, wie akribisch Flugzeugabstürze aufgearbeitet werden. Dort kann es auch sein, dass sich dann z.B. herausstellt, dass eine Software zur Triebwerksüberwachung eine spezielle Situation nicht korrekt behandelt hat. Das ist nichts anderes als menschliches Versagen, das genauso gut den Mechaniker treffen kann, der im Triebwerk ein Werkzeug vergessen hat, oder den Piloten, der einen Bedienungsfehler gemacht hat.
Ich bin kein Experte, aber ich denke, das ist nicht ganz vergleichbar.

Zum einen gehe ich davon aus, dass die von dir genannten Beispiele mittels Technologien im Sinne von Safety / IEC 61508 SIL3 / ISO 26262 implementiert werden können, d.h. dass der Nachweis der Korrektheit prinzipiell geführt werden kann. Zum anderen ist in diesen Fällen immer noch der Mensch die letzte Instanz - das wäre beim vollautonomen Fahren anders. Und nicht zuletzt ist der Betrieb rein autonomer Fahrzeigflotten vergleichsweise einfach verglichen mit dem Mischbetrieb wie z.B. Fußgänger (Bsp. fahrerlose U-Bahn im Mischbetrieb).

Der wesentliche Unterschied wird die Verschiebung von fast ausschließlich vermeidbaren Unfällen aufrunden menschlichen Versagens hin zu fast ausschließlich prinzipiell nicht vermeidbaren Unfällen aufgrund von Features sowie Bugs von SW-Systemen sein.

Grundsätzlich natürlich erst mal nicht die schlechteste Wahl, nur m.E. umso problematischer im konkreten Einzelfall. Es macht ja schon einen Unterschied, ob ein Algoritmus im Rahmen seiner Toleranz Sensorwerte auf eine bestimmte Weise interpretiert hat, oder ob ein anderer Algorithmus ganz präzise entschieden hat, beim Ausweichen einer Kindergruppe diese Frau zu überfahren und nicht jene, weil letztere schwanger war.
Gruß
Tom

Niels Bohr brainwashed a whole generation of theorists into thinking that the job (interpreting quantum theory) was done 50 years ago.

Benutzeravatar
seeker
Ehrenadmin
Ehrenadmin
Beiträge: 6360
Registriert: 26. Dez 2009, 10:29

Re: Algorithmen auf dem Richterstuhl

Beitrag von seeker » 26. Jan 2018, 14:10

@Ralf: Ich bin natürlich etwas ins Extrem gegangen, ich habe das getan, um zu zeigen, dass man aufpassen muss.
Aber ansonsten darfst du mir glauben, dass das von mir angeschnittene Szenario gar keine so arge Science Fiktion ist, es gibt bereits heute Bestrebungen, die eindutig in diese Richtung gehen: Das Gesundheitssystem wird immer teurer, besonders die ganz neuen Hochtechnologie-Behandlungsmethoden und Medikamente. Enormes Sparpotential besteht darin den Menschen dahin zu bringen sich so zu verhalten, wie es gut und billiger fürs System ist. Das läuft dann so: Du gibst uns deine Daten (damit wir das überprüfen können) und verhälst dich so wie wir das wollen, lebst gesund, usw. und dafür bezahlst du dann geringere Versicherungsbeiträge. Du musst nicht mitmachen, aber wenn nicht, zahlst du halt entsprechend mehr. So läuft das...
Aber es ist auch ein anderes Thema.
tomS hat geschrieben:
26. Jan 2018, 13:12
Wie lange haben wir gebraucht um uns an Smartphones zu gewöhnen? 3 Jahre, weniger?
Also ich würde an dem Punkt die Kirche im Dorf lassen.
Die tun bisher auch nicht eigenständig fragwürdige Dinge.
Also meins schon... weiß ich welche Daten da alles raus gehen und wer was damit alles macht, wie viele stumme SMS rein- und rausgehen, usw. und so fort?
tomS hat geschrieben:
26. Jan 2018, 13:12
Die demokratischen Strukturen sind immer dann gefährdet, wenn die Politik nicht mehr handlungsfähig ist. Wenn also Konzerne KIs deutlich schneller generieren kann als die Politik zu reagieren im Stande ist, dann zerstört dies möglicherweise die Grundlage für Politik und Demokratie (nach heutigen Verständnis).
Da kann ich mir immer noch nichts Konkretes drunter vorstellen. Ansonsten kann die Politik ja Standards setzen, die zu erfüllen sind, bevor etwas auf den Markt darf, das wäre ganz normales Vorgehen.
tomS hat geschrieben:
26. Jan 2018, 13:12
Es trifft insbs. dann zu, wenn man eine an sich frei einsetzbare Technologie verbieten müsste, weil sie z.B. einen sozial destruktiven Prozess in Gang setzt, den wir heute jedoch noch gar nicht erkennen und bewerteten können. Stellen wir uns z.B. vor, dass nach Zulassung autonomer Fahrzeuge Logistik, Groß- und der Einzelhandel in kürzester Zeit vollständig automatisiert ablaufen können, verbunden mit massiven Energieeinsparungen im Individualverkehr. Andererseits würde dies wohl unseren Arbeitsmarkt und letztlich die Gesellschaft zerstören.
Das ist die soziale Komponenete, dort wäre eben die Politik gefragt einer zu starken Spaltung der Gesellschaft entgegenzuwirken. Ich habe einigermaßen Vertrauen, dass das schnell genug gelingen kann: DIe Politik ist immer dann schnell, wenn es auch wirklich nötig ist.
tomS hat geschrieben:
26. Jan 2018, 12:33
Es gibt ein massives ethisch-moralisches Problem, wenn ein SW-Entwickler auf Anweisung des Vorgesetztes einen Algorithmus entwickeln soll, der mathematisch nachweisbar in einer konkreten Situation menschliches Leben auslöscht.

Dies ist fundamental neu, noch nie dagewesen im zivilen Bereich!
Unsinn, das ist nicht fundamental neu!
Wie war es denn bei der Einführung des Sicherheitsgurtes und des Airbags?
Diese technischen Einrichtungen haben sehr viele Leben gerettet, aber es war auch von vorne herein klar, dass es auch in wenigen Fällen das Leben von Leuten kosten wird, die sonst überlebt hätten, nämlich die Leute die deshalb nicht mehr aus dem brennenden Auto kamen oder Genickbruch erlitten haben oder sonstwas blödes passiert ist.
Shit happens!
Und: Es ist und war sogar feststellbar, bei welchen konkreten Leuten das der Fall war.
Also haben die Entwickler des Gurtes ebenso nachweisbar in einer konkreten Situation menschliches Leben auslöscht. Meinst du, dass die deshalb schlecht schlafen, ein ethisches Problem haben? Warum sollten sie? Sie haben so viel mehr an menschlichem Leben gerettet...
Es gibt kein massives ethisch-moralisches Problem. Es gibt nur Ängste davor, weil das alles noch ganz neu oder erst noch im Kommen ist.
Lass es kommen, dann wirst du sehen, dass auch hier nichts so heiß gegessen wird, wie es gekocht wurde.
Grüße
seeker


Kritisches Denken bedeutet nicht, sich einseitig nur aus kritischen Quellen zu versorgen und die dortigen Darstellungen unkritisch zu übernehmen. Viele überschätzen ihre eigene Medienkompetenz massiv. Dies wird von Verführern ausgenutzt.

positronium
Ehrenmitglied
Ehrenmitglied
Beiträge: 2832
Registriert: 2. Feb 2011, 20:13

Re: Algorithmen auf dem Richterstuhl

Beitrag von positronium » 26. Jan 2018, 14:26

Im Vergleich zu heutiger Technik sehe ich nur zwei wesentliche Unterschiede; alles andere ist technisches und menschliches Versagen in Entwicklung, Betrieb, Wartung etc.:
- Für Unfallermittler entsteht ein neuer undurchdringbarer Bereich - die neuronalen Netze.
- Der Gesetzgeber muss klare und dennoch erfüllbare Regeln für die Entwicklung und Tests aufstellen.
Zweiteres ist meiner Meinung nach der ganz große Brocken. Man muss mögliche Szenarien möglichst allgemeingültig entwickeln und für diese gesetzestreue und gerechte Lösungen finden. Das ist ein so umfangreiches Problem, wie man es sich heute kaum vorstellen kann. Eigentlich sollte der Gesetzgeber eine Implementation zur Verfügung stellen, und nicht ein absurd komplexes Gesetz verfassen, weil wirklich unzählige Faktoren mit hinein spielen.

Allein die Gleichheit der Menschen ist eine enorme Herausforderung. Beispiel mit wenig Realitätsbezug, aber zur Illustration: Ein Auto fahre in einem Tunnel, kann also nicht ausweichen und es sei unbremsbar. Es befinden sich zwei Personen auf der Fahrbahn, und das Auto und die Straße seien gerade so breit, dass entweder Person A, Person B oder beide überfahren werden. Was soll die Software tun?
Gerecht wäre es natürlich, beide zu überfahren. Sinnvoll ist das aber nicht unbedingt, also muss die Software eine Entscheidung fällen:
- Sagen wir ein älterer Mensch und ein Kind. Den Fall könnte man jetzt durchkauen bzgl. bereits verbrachter Lebenszeit, statistischer Lebenserwartung, Überlebenschance beim Aufprall, wirtschaftlicher Leistungsfähigkeit usw. usw.. Was ist da gerecht?
- Oder nehmen wir einen dunkelhäutigen und einen hellhäutigen Menschen. Eine KI wird einen Menschen nie mit 100prozentiger Sicherheit als Menschen erkennen; es könnte sich ja auch um einen Werbeaufsteller handeln. Ein NN wird man in unseren Breiten wegen der großen Verbreitung hellhäutiger Menschen sinnvollerweise mit Photos hellhäutiger Menschen trainieren. Das würde bedeuten, dass hellhäutige sagen wir mit 99% und dunkelhäutige mit 98% als Mensch erkannt werden. In obigem Beispiel würde immer der dunkelhäutige überfahren. Ein ganz klarer Verstoß gegen das Grundgesetz. Würde man aber auf dunkel- und hellhäutige gleichzeitig trainieren, wäre die Erkennung hellhäutiger als Menschen vielleicht nur noch 98,5%. Das heißt: durch dieses andere Training des NN würden einige wenige dunkelhäutige weniger überleben, gleichzeitig aber viele hellhäutige mehr sterben.
So etwas gerecht zu lösen, ist eine extreme Herausforderung.

Benutzeravatar
Frank
Ehrenmitglied
Ehrenmitglied
Beiträge: 3937
Registriert: 12. Dez 2005, 23:22
Wohnort: Odenwald

Re: Algorithmen auf dem Richterstuhl

Beitrag von Frank » 26. Jan 2018, 14:38

tomS hat geschrieben:
26. Jan 2018, 13:37

Weder noch, ich rede von Absicht.

Absicht = Vorsatz= Kriminell(nicht immer, aber es führt dazu) Bitte hier mit den Begriffen vorsichtig sein.
tomS hat geschrieben:
26. Jan 2018, 13:37

Autonomes Fahren bedeutet Bewertung von Gefahrensituationen. Der Algorithmus zur Bewertung wird in einer Konfliktsituation in irgendeiner Form gewichten und entscheiden müssen - für das eine Leben und gegen das andere. Genauso wie der Scharfschütze im Falle einer Geiselnahme, jedoch nicht gegen Verbrecher sondern z.B. gegen an sich unbeteiligte Passanten im Straßenverkehr.

Nun ist der Algorithmus z.B. gezielt entworfen und korrekt umgesetzt worden, d.h. dass in dieser Situation dieser Mensch zu Tode kommt, ist durch diesen Algorithmus dieses Entwicklers bedingt - und das war so gewollt.

Oder die Implementierung des Algorithmus enthält einen Fehler - was pinzipbedingt nicht vermieden werden kann - d.h. es liegt ein Fehler vor, jedoch sicher keine Fahrlässigkeit. Das ist in der Softwareentwicklung heute schon die Regel.

Oder die Entwicklung hat sich gegen einen festen Algorithmus und für ein neuronales Netz entschieden. Dann liegt die Ursache des Todes eines Menschen zunächst in den Parametern des Netzes begründet, wobei deren Zustandekommen und Wirkungsweise jedoch nicht mehr nachvollziehbar ist. Klar ist jedoch die Entscheidung der Entwicklung für ein neuronales Netz, die statischtisch sinnvoll jedoch in diesem einen Fall katastrophal ist.

(ich gehe hier davon aus, dass keine Technologie im Sinne von Safety / IEC 61508 SIL3 / ISO 26262 Einsatz kommt, weil die Komplexität des autonomen Fahrens dies verbietet)
Bevor du mir jetzt wieder vorwirfst , ich würde die Fakten ignorieren.....

Was du hier treibst, ist eine völlige Umkehr der Haftung. Des Weitern ist auch deine Situation, oder besser gesagt die des Programierers, nicht neu .
Jeden Tag treffen Menschen Entscheidungen, wobei sie abwegen müssen, was das kleinere Übel ist. Sie sind dann im Ernstfall auch haftbar zu machen.
Darum darf es auch beim autonomen Fahren niemals eine Abweichung von diesem Prinzip geben.

Der Mensch , der in seinem Fahrzeug sitzt, sich vom Schaltkreiswunder durch die Gegend fahren lässt, ist in vollem Umfang haftbar zu machen, wenn ein Unfall passiert. Die Absicht zählt und die Entscheidung hat nunmal der Mensch getroffen , wo hin er will.
Wäre er zu Hause geblieben, dann wäre auch die Gefahrensituation niemals eingetreten.
Im Selbstfahrerprinzip entscheidet der Fahrer, wie er eine Gefahrensituation bewertet. Das hört sich im ersten Moment sehr individual an, ist aber in der Praxis immer das Selbe. (kann ich dir tonnenweise erzählen)

Mensch

Der Fahrer versucht einem Kind auszuweichen, oder es nicht zu überfahren. In jedem Fall wird er das Fahrzeug versuchen zum stehen zu bringen. In Sekundenbruchteilen trifft er die Entscheidung Bremse und ausweichen. Wenn er jetzt ausweicht und er schiesst in die linke statt in die rechte Ecke der Strasse , dann ist es höchst tragisch, wenn dann auf der linken Seite ein Rollstuhlfahrer steht , den er dann komplett über den Haufen fährt und ihn im schlimmsten Fall tötet.

Die KI

Der Programmierer wird seiner Software das eingeben, was der Mensch auch machen würde. Die direkte Gefahr abzuwenden. Was in der Kausalität alles passiert, dass steht doch gar nicht in seiner Macht.
es gibt Verzögerungszeiten, Strassenverhälltnisse , Geschwindigkeit, Zustand des Fahrzeuges ....etc.
Auch die KI wird die Gesetze der Physik nicht aushebeln können.

Allein aber schon die Perversion, nur darüber nachzudenken, wen das Fahrzeug nun als erster aufs Korn nehmen soll, lässt mir den Hut hochgehen.
Was ist denn das für eine Debatte?
Die Software hat dafür zu sorgen, dass Ereignis/die Gefahr, die zu erst eintritt zu verhindern. Wobei das auch immer nur ein Versuch sein kann.
Auch ein Pilot kann sein Flugzeug, dass sich im Absturz befindet , vieleicht noch über ein Wohngebiet lenken,um schlimmereres zu verhindern. Wenn er danach aber in ein Atomkraftwerkk donnert, dann wurde erst aus seiner Entscheidung die Katastrophe. Tatasache ist aber, dass er abstürzen wird.

Dazu hat der Gesetzgeber(in weiser Vorausicht) die Haftung in eine Gefährdungs und in eine Verschuldungshaftung aufgeteilt .
Das hier beschriebene ist eindeutig(!) der Gefährdungshaftung zuzuschreiben.


Gefährdungshaftung ist die Haftung für Schäden, die sich aus einer erlaubten Gefahr (z. B. Betrieb einer gefährlichen Einrichtung, Halten eines Haustieres) ergeben. Im Unterschied zur Haftpflicht wegen unerlaubter Handlung kommt es bei einer Gefährdungshaftung auf die Widerrechtlichkeit der Handlung oder ein Verschulden des Schädigers nicht an.

https://de.wikipedia.org/wiki/Gef%C3%A4hrdungshaftung



Wenn der Programierer seiner Software anlernt, einen Menschen zu erkennen, dem auszuweichen und stattdessen auf ein Auto zu rasen, indem sich aber zufällig ein Liebespärchen horizontal zu schaffen macht, dann ist das nicht seine Aufgabe , sich über so eine Situation Gedanken zu machen.
Erst wenn Ihm, der Firma nachweislich eine schlampige Arbeit vorzwerfen ist, dann kann die Gefährdungshaftung in Regress umgemünzt werden.(Genau wie bei einem Bremsenhersteller)

Zunächst aber ist der Eigentümer, des Fahrzeuges für die Fahrt verantwortlich und sonst niemand.

Kind, oder Oma am Strassenrand, welch Perversion überhaut einen Gedanken daran zu verschwenden......
Mit freundlichen Grüßen

Frank

Antworten