Hinweis auf die DSGVO: Auf unserer Seite werden keine Dritt-Anbieter-Cookies verwendet und nur Daten erfasst, welche für das Minimum an Board-Funktionalität notwendig sind.
Bevor Sie sich registrieren oder das Board verwenden, lesen Sie bitte zusätzlich die DSGVO-Erklärung, welche in der Navigationsleiste verlinkt ist.

Kurzfassung der unserer Meinung nach wichtigsten DSGVO-Punkte:
Es kann vorkommen, dass Benutzer eigenverantwortlich Videos oder sonstige Medien in ihren Beiträgen verlinken, welche beim Aufruf der Forenseite als Teil der Seite samt zugehörigem Material mitgeladen werden. Sollten Sie dies nicht wünschen, verwenden Sie beim Benutzen des Forums einen Blocker wie z.B. uMatrix, welcher das Laden von Inhaltsblöcken von Fremd-URLs effektiv unterbinden kann.
Wir blenden keine Werbung ein und schränken die Inhalte in keinster Weise bei Benutzung von Addblockern ein. Dadurch ist die Grundfunktionalität des Forums auch bei vollständigem Blockieren von Drittanbieter-Inhalten stets gegeben.

Cookies werden unsererseits nur verwendet um das Einloggen des Benutzers für die Dauer der Forenbenutzung zu speichern. Es steht dem Benutzer frei die Option 'Angemeldet bleiben' zu verwenden, damit der Cookie dauerhaft gespeichert bleibt und beim nächsten Besuch kein erneutes Einloggen mehr notwendig ist.
EMail-Adressen werden für Kontakt bei wichtigen Mitteilungen und zur Widerherstellung des Passwortes verwendet. Die verwendeten IPs können von uns ohne externe Hilfsmittel mit keiner realen Person in Verbindung gebracht werden und werden nach spätestens 7 Tagen gelöscht. Diese IPs werden höchstens verwendet um Neuanmeldungen unerwünschter oder gesperrter Nutzer zu identfizieren und zu unterbinden. Wir behalten uns daher vor bei Verdacht, die Frist für die IP-Löschung auf maximal 14 Tage zu verlängern.
Unsere Webseite läuft auf einem virtuellen Linux-Server, welcher von einem externen Anbieter gehostet wird. Etwaige Verstöße der DSGVO-Auflagen seitens dieses deutschen Hosters können wir nicht feststellen und somit auch nicht verfolgen.
Wir halten Backups unserer Datenbanken, welche in regelmäßigen Abständen als Schutz vor Katastrophen, Hackerangriffen und sonstigen Ausfällen erstellt werden. Sollte ein Nutzer die Löschung seiner Daten wünschen, betrachten wir es als Unzumutbar die Backups auch von den Daten zu befreien, da es sich hierbei um eine mehrtägiges Unterfangen handelt - dies ist für eine Einzelperson beim Betrieb eines privaten Forums nicht zumutbar möglich ohne das Backup komplett zu löschen.
Sollten Sie etwas gegen die dauerhafte anonyme Speicherung ihrer EMail-Adresse, ihres Pseudonyms und ihrer Beiträge in einem Backup haben, sehen Sie von der Registrierung in diesem Forum ab. Für Mitglieder, welche vor dem 25.05.2018 registriert waren steht jedoch das Recht im Raum, eine Löschung der Datenbank-Backups zu beantragen.



Wenn dies Ihr erster Besuch hier ist, lesen Sie bitte zunächst die FAQs sowie die wesentlichen Regeln zur Benutzung des Forums.
Um an den Diskussionen teilnehmen zu können, müssen Sie sich zunächst registrieren.

Darf künstliche Intelligenz Tötungen billigend in Kauf nehmen ?

Wissenschaftsgeschichte, Wissenschaftstheorie bzw. -philosophie, Technik
Benutzeravatar
ralfkannenberg
Ehrenmitglied
Ehrenmitglied
Beiträge: 1637
Registriert: 13. Jan 2017, 10:00

Darf künstliche Intelligenz Tötungen billigend in Kauf nehmen ?

Beitrag von ralfkannenberg » 1. Feb 2018, 16:07

Hallo zusammen,

vom Nachbarthread inspiriert frage ich mich, ob man AI-Anwendungen so programmieren darf, dass Tötungen billigend in Kauf genommen werden, oder ob das unter allen Umständen zu vermeiden ist.

Wir Menschen sind "böse", d.h. für ein menschliches Gehirn ist es – meist nach einer Gewöhnungszeit – durchaus akzeptabel, wenn beispielsweise pro Jahr im Schweizer Bahnverkehr 1.2 Todesopfer mehr zu beklagen sind, dafür aber die Sicherheitskosten um 2 Millionen Franken gesenkt werden können. Eine solche Diskussion hatte sich vor einigen Jahren aufgrund eines Unfalls im Bahnhof Zürich-Oerlikon ergeben, bei dem bei einer Streifkollision zweier Züge aufgrund eines Bremsenversagens eine Person tödlich verunglückt ist.

"Schuld" war wie üblich niemand; man hatte aus Kostengründen die mechanische Bremskontrolle vor Abfahrt des Zuges mit einer langen Eisenstange wegrationalisiert und diese durch einen Bremsentest seitens des Lokomotivführers kurz nach der Abfahrt ersetzt. Nun gab es aber das Problem, dass der Fahrplan im Zürcher Hauptbahnhof extrem dicht gedrängt ist, so dass man um Verspätungen zu vermeiden den Bremstest nicht bei der Ausfahrt tätigen wollte. Bis Oerlikon geht es dann stets etwas bergauf, so dass der obligatorische Bremstest nach der Durchfahrt des Bahnhofs Zürich Oerlikon durchzuführen war, doch ereignete sich der Unfall im Bahnhof Zürich Oerlikon. Eine typische "unglückliche" Verkettung von Umständen, die ein Todesopfer zur Folge hatte, das noch ein halbes Jahr zuvor in derselben Situation überlebt hätte.

Gab es anfangs noch einen Aufschrei der Empörung, so ist es längst akzeptiert, dass diese Bremsprobe erst nach Durchfahrt des Bahnhofs Zürich Oerlikon erfolgt und die wenigen Unfälle nimmt man eben billigend in Kauf.


Wie gesagt: wir Menschen sind "böse", und haben keine Skrupel bei einer klein erscheinenden erhöhten Todesrate pro Jahr.


Doch: dürfen Maschinen ebenfalls "böse", sein ? Ist es nicht vielmehr so, dass es wenig Aufwand benötigt, damit die Maschinen "gut" bleiben ?

Ja, dann gibt es eben Situationen, bei denen ein Wohngebiet mit 15 km/h statt den erlaubten 30 km/h durchfahren werden – es ist eine kleine Übungsaufgabe, einmal auszurechnen, um wieviel sich dadurch die Fahrzeit verlängert. Ja dann gibt es eben Situationen, in denen der Abstand zum vorfahrenden Auto doppelt so gross als gewohnt bleibt. Ja, dann gibt es eben Situationen, in denen das Auto nicht losfährt, weil irgendein Sicherheitskriterium noch nicht erfüllt ist. Oder eine Schnellbremsung eingeleitet wird, weil eine Kollisionsgefahr besteht.


Ist das schlimm ? Ist es das wert, dass dafür die Maschinen "gut" bleiben ?

Vielleicht müssen wir ein bisschen umdenken und Strassenanlagen künftig breiter bauen und die Parkplätze so konzipieren, dass hervorspringende Kinder besser sichtbar sind. Vielleicht müssen die Autos künftig sicherer gebaut werden, damit die Insassen noch besser geschützt sind. Ist das nicht mehr finanzierbar ?


Ich denke, hier gibt es noch sehr viel Potenzial. Gewiss, gewisse Abläufe werden dann etwas länger dauern, andererseits kann diese defensive Fahrweise samt zugehöriger Infrastruktur auch dazu beitragen, dass es weniger Staus gibt, was dann erneut Fahrzeiten verkürzt und sicherer macht.


Was meint Ihr ?


Freundliche Grüsse, Ralf

Benutzeravatar
Dgoe
wohnt hier!
wohnt hier!
Beiträge: 395
Registriert: 20. Nov 2017, 17:32

Re: Darf künstliche Intelligenz Tötungen billigend in Kauf nehmen ?

Beitrag von Dgoe » 1. Feb 2018, 18:03

Hallo Ralf,
und die Parkplätze so konzipieren, dass hervorspringende Kinder besser sichtbar sind. 
zu diesem Teilaspekt ist mir eine Lösung eingefallen. Man baut alle Parkplätze zu einem Aufzug um, der ein parkendes Auto nach unten befördert, von unten betrieben, oben schließt sich eine Klappe. Wenn Geld kein Problem ist, sollte das weniger absurd sein.

Das soll jetzt auch nur ein Problem Deines Ansatzes skizzieren.


Mir ist gerade aber schon etwas viel eleganteres eingefallen:

Später, sobald man Objekte tatsächlich weitestgehend unsichtbar machen kann, pinselt man die Autos mit dem Metamaterial ein, so dass man die Kinder auch von weitem schon sehen kann. Der Haken ist nur, dass die Kinder die parkenden Autos auch nicht sehen und davorstoßen, daran arbeite ich noch. Eine Lösung warum man fahrende Autos sehen kann ist hingegen einfach: Die Technologie funktioniert nur bei unbewegten Objekten. Ha.

Gruß,
Dgoe
Der Optimist glaubt, dass wir in der besten aller möglichen Welten leben. Der Pessimist befürchtet, dass der Optimist damit Recht hat.

Benutzeravatar
seeker
Site Admin
Beiträge: 6185
Registriert: 26. Dez 2009, 10:29

Re: Darf künstliche Intelligenz Tötungen billigend in Kauf nehmen ?

Beitrag von seeker » 1. Feb 2018, 18:12

ralfkannenberg hat geschrieben:
1. Feb 2018, 16:07
Wir Menschen sind "böse", d.h. für ein menschliches Gehirn ist es – meist nach einer Gewöhnungszeit – durchaus akzeptabel, wenn beispielsweise pro Jahr im Schweizer Bahnverkehr 1.2 Todesopfer mehr zu beklagen sind, dafür aber die Sicherheitskosten um 2 Millionen Franken gesenkt werden können.
Ich sehe das etwas komlexer: Ja, tatsächlich muss man -wenn man ehrlich ist- zugeben, dass an ganz vielen Stellen Kosten gegen Menschenleben aufgerechnet werden, ja müssen. Da können Ethikkommissionen oder der Bundesgerichtshof die tollsten theoretischen Dinge formulieren, faktische Realität bleibt nun mal faktische Realität.
Grundsätzlich-allgemein kann man nicht einmal etwas dagegen einwenden, denn es ist ja so:
Mittel und Aufwand, das man an Stelle A einsetzt um z.B. dort die Sicherheit zu erhöhen fehlt dann an Stelle B, Menschenleben die an Stelle A gerettet werden können sterben vielleicht dann an Stelle B. Man kann sich das klarmachen, wenn man sich extreme Szenarien ausdenkt:

Angenommen wir würden z.B. 90% des Bruttoinlandsprodukts für die Gesundheitsversorgung und medizinische Forschung aufwenden, dann könnten an der Stelle sicher viele Leute gerettet werden, die sonst gestorben wären, aber es würde nichts nützen, weil alles andere dann zusammenbrechen würde, was dann noch mehr Menschenleben kosten würde.
Also muss man immer genau abwägen, was man tut. Und egal was man tut, man muss sich klarmachen, dass immer irgendwo Menschen ihr Leben verlieren werden, dass es immer irgendwo 'Kollateralschäden' geben wird, auch wenn man das nicht gerne hört, auch wenn man nicht immer nachvollziehen kann wo und wer genau.
Deshalb ist m. E. die beste Abwägung zunächt einmal so zu suchen, dass insgesamt die wenigsten Schäden verursacht werden sollen.
Dazu sollte man sich immer das ganz große Gesamtbild vor Augen halten.

(Übrigens wird eben wegen diesem Problem bezüglich unseres Gesundheitssystems gerne behauptet, jeder würde unterschiedslos die bestmögliche Versorgung erhalten, aber das ist natürlich eine Lüge, jeder weiß das auch im Grunde. Wir haben wohl eine gute Versorgung, aber sicher nicht die bestmögliche für jeden.)

ralfkannenberg hat geschrieben:
1. Feb 2018, 16:07
Doch: dürfen Maschinen ebenfalls "böse", sein ? Ist es nicht vielmehr so, dass es wenig Aufwand benötigt, damit die Maschinen "gut" bleiben ?
Man kann das Problem verringern, indem man in der Richtung etwas tut, die dir vorschwebt, aber man wird es nicht exakt Null werden lassen können, ein Restrisiko bleibt immer. Das Problem verschwindet also dadurch nicht, nicht vollständig.

Nun gibt es unter dieser Voraussetzung zwei Fälle:

a) Das Restrisiko kann so weit verringert werden, dass wir es als vernachlässigbar ansehen und uns daher nicht weiter darum kümmern müssen
b) Das Restrisiko kann nicht so weit verringert werden

Dieselbe Diskussion gab es übrigens auch bei der Atomkraft, es ist nicht leicht hier Einigkeit zu erzielen, wie klein so ein Restrisiko genau sein muss um vernachlässigbar zu sein und wie groß es dann in der Realität tatsächlich ist...
Da also wenig Hoffnung herrscht, dass wir an dem Punkt Einigkeit erzielen werden, müssen wir uns Fall b) stellen.
(Es sei denn man könnte das sehr glaubwürdig nachweisen, dass es sehr, sehr weit unter jeder Grenze liegen wird, bei der sich ein vernünftiger Mensch noch ansatzweise Sorgen machen kann. Ich pers. wäre schon zufrieden, wenn glaubhaft nachgewiesen würde, dass mir von einem autonomen Fahrzeug eine geringere Gefahr droht als von einem normalen Fahrzeug, aber es wird Leute geben, die einen Faktor 100 oder 1000 dazwischen haben wollen oder den Nachweis anzweifeln, ich bin nicht die Gesellschaft und man braucht Konsens, deshalb Betrachtung von Fall b)).

Bei Fall b) müssen wir davon ausgehen, dass z.B. im Automobilverkehr irgendwann Menschen zu Tode kommen werden, wo ein autonom fahrendes Fahrzeug ursächlich mit beteiligt war.
Die entscheidende Frage, die ich hier sehe ist dann:

Ist so ein Fall dann noch ein Unfall oder ist es kein Unfall, ist es vielleicht mehr, Totschlag, absichtliche Tötung oder etwas ähnliches?

Dazu dies hier:
Als Unfall gilt die „plötzliche, nicht beabsichtigte schädigende Einwirkung eines ungewöhnlichen äußeren Faktors auf den menschlichen Körper, die eine Beeinträchtigung der körperlichen, geistigen oder psychischen Gesundheit oder den Tod zur Folge hat“.
https://de.wikipedia.org/wiki/Unfall

Und an dem Punkt wird es schwierig: Wie ist das, wenn doch das Verhalten des Fahrzeugs, das mit zur Verletzung oder Tötung des Fußgängers geführt hat, mindestens zum Teil schon so von einem Programmierer vorausschauend vorgegeben wurde?

Ich denke hier kommt es stark auf die Intention an, deshalb hatte ich das schon früher erwähnt:

War es die Intention des Programmierers, diesen Fußgänger zu "opfern" bzw. zu töten? So sicher nicht.
War es die Intention des Programmierers Leib und Leben von Menschen möglichst zu schützen, hat er dabei aber die Verletzung eben so eines Fußgängers in Kauf genommen?
Davon gehe ich aus. Wie ist das dann richtig zu bewerten? Handelte der Programmierer ethisch richtig oder ethisch falsch?
(Ich habe es hier nicht von unserer Rechtssprechung oder Ethik, wie sie heute sind, sondern davon, wie sie eurer/unserer Meinung nach sein sollten.)

Man kann das als Hilfestlellung nun auch mit dem obigen Beipiel mit den Geldmitteln in der Gesundheitsversorgung vergleichen:

Worin besteht der prinzipielle bzw. entscheidende Unterschied dazu? Gibt es einen?

Auch diese Frage und die Antwort die man darauf gibt ist aus meiner Sicht ganz entscheidend.
Grüße
seeker


Mache nie eine Theorie zu DEINER Theorie!
Denn tut man das, so verliert man zumindest ein Stück weit seine Unvoreingenommenheit, Objektivität.

positronium
Ehrenmitglied
Ehrenmitglied
Beiträge: 2832
Registriert: 2. Feb 2011, 20:13

Re: Darf künstliche Intelligenz Tötungen billigend in Kauf nehmen ?

Beitrag von positronium » 1. Feb 2018, 18:53

seeker hat geschrieben:
1. Feb 2018, 18:12
Und an dem Punkt wird es schwierig: Wie ist das, wenn doch das Verhalten des Fahrzeugs, das mit zur Verletzung oder Tötung des Fußgängers geführt hat, mindestens zum Teil schon so von einem Programmierer vorausschauend vorgegeben wurde?
So etwas wird bestimmt nicht implementiert, und wenn doch wäre es meiner Ansicht nach irgendetwas zwischen fahrlässiger Tötung und Mord. Programmiert werden Regeln, keine unumstößlichen Gesetze (weil das die Physik und Situation evtl. nicht hergibt), welche gesetzlich und ethisch korrekt sind. Es wird also nie einen Programmcode geben, der bestimmt, dass in einer gewissen Situation ein Mensch zu opfern ist. Stattdessen werden die Regeln dazu führen, dass das Verhalten des Autos möglichst "gut" ist, oder eben möglichst keine Tötung zur Folge haben wird.
Das gewährleistet natürlich keine völlige Sicherheit in dieser Frage, auch nicht, dass sich ein KI-Auto immer an Verkehrsregeln halten wird, aber die Fehler mit fatalen Folgen werden so stark reduziert.

Solange es einen anderen Weg gibt, darf eine KI keine "Tötungen billigend in Kauf nehmen". Aber das ist ein ganz schwieriges Thema, weil die KI nie etwas mit Bestimmtheit errechnen kann. Da kommen dann auch Wahrscheinlichkeiten ins Spiel: Wie ist die Tötungswahrscheinlichkeit von 80% einer Person gegenüber der Tötungswahrscheinlichkeit von je 20% von vier Personen zu bewerten? Oder ist die mögliche Tötung einer Person, welche sich verkehrsregelwidrig verhalten hat, eher in Kauf zu nehmen?
Kann man Menschenleben oder -leid mit Sachschäden aufrechnen? - Im Krieg wird das ständig gemacht. Im Straßenverkehr ist das äußerst schwierig; was z.B. wenn nur diese Optionen des Zusammenstoßes bestehen: Entweder Fußgänger oder Notarzt-/Feuerwehrfahrzeug, das evtl. sogar zur Rettung von etlichen Menschen ausgerückt ist.

Benutzeravatar
seeker
Site Admin
Beiträge: 6185
Registriert: 26. Dez 2009, 10:29

Re: Darf künstliche Intelligenz Tötungen billigend in Kauf nehmen ?

Beitrag von seeker » 1. Feb 2018, 19:13

positronium hat geschrieben:
1. Feb 2018, 18:53
Programmiert werden Regeln, keine unumstößlichen Gesetze (weil das die Physik und Situation evtl. nicht hergibt), welche gesetzlich und ethisch korrekt sind. Es wird also nie einen Programmcode geben, der bestimmt, dass in einer gewissen Situation ein Mensch zu opfern ist. Stattdessen werden die Regeln dazu führen, dass das Verhalten des Autos möglichst "gut" ist, oder eben möglichst keine Tötung zur Folge haben wird.
Das gewährleistet natürlich keine völlige Sicherheit in dieser Frage, auch nicht, dass sich ein KI-Auto immer an Verkehrsregeln halten wird, aber die Fehler mit fatalen Folgen werden so stark reduziert.
So meinte ich das. Lies meinen Text so.
positronium hat geschrieben:
1. Feb 2018, 18:53
Solange es einen anderen Weg gibt, darf eine KI keine "Tötungen billigend in Kauf nehmen".
Das steht noch zur Diskussion. Warum nicht?
Und es geht eigentlich nicht um die KI, sie ist ja keine Person, es geht um die Leute, die das auf die Straße gebracht haben.
Deshalb stellt sich eben gerade u.a. auch die Frage: "Darf der Programmierer/Hersteller einer KI tragische Tötungen durch diese KI (in sehr seltenen Fällen) billigend in Kauf nehmen?"

Und die Antwort kann sicher nicht salopp "Nein" lauten, wenn auf der anderen Seite sehr viele Menschenleben gerettet werden können, eben durch diese Technik.
Im Umkehrschluss würde es nämlich bedeuten dann durch Untätigkeit, durch Nichteinführung dieser Technik diese vielen Menschen zu opfern. Das wäre noch unethischer.
Grüße
seeker


Mache nie eine Theorie zu DEINER Theorie!
Denn tut man das, so verliert man zumindest ein Stück weit seine Unvoreingenommenheit, Objektivität.

positronium
Ehrenmitglied
Ehrenmitglied
Beiträge: 2832
Registriert: 2. Feb 2011, 20:13

Re: Darf künstliche Intelligenz Tötungen billigend in Kauf nehmen ?

Beitrag von positronium » 1. Feb 2018, 19:32

seeker hat geschrieben:
1. Feb 2018, 19:13
positronium hat geschrieben:
1. Feb 2018, 18:53
Solange es einen anderen Weg gibt, darf eine KI keine "Tötungen billigend in Kauf nehmen".
Das steht noch zur Diskussion. Warum nicht?
Weil wir nicht wissen, wie die KI intern funktioniert.
Ich bin der Meinung, dass man KI für die Datenanalyse einsetzen sollte, nicht für solche Entscheidungen. So etwas muss - natürlich auf Grundlage der von der KI gelieferten Daten - klassisch implementiert werden. Man kann nämlich nicht hingehen, und ein NN mit Gesetzestexten füttern. Man weiß dann nicht, ob diese Gesetze tatsächlich Gesetzescharakter erhalten, ob es Lücken/Ausnahmen im NN gibt.

Benutzeravatar
Dgoe
wohnt hier!
wohnt hier!
Beiträge: 395
Registriert: 20. Nov 2017, 17:32

Re: Darf künstliche Intelligenz Tötungen billigend in Kauf nehmen ?

Beitrag von Dgoe » 1. Feb 2018, 19:39

seeker hat geschrieben:
1. Feb 2018, 19:13
durch Untätigkeit, durch Nichteinführung dieser Technik diese vielen Menschen zu opfern. Das wäre noch unethischer.
Hallo seeker,

dann wärest Du also für die Abschießung einen vollbesetzten Passagierjets, der auf ein vollbesetztes Stadion zusteuert?

Gruß,
Dgoe
Der Optimist glaubt, dass wir in der besten aller möglichen Welten leben. Der Pessimist befürchtet, dass der Optimist damit Recht hat.

Skeltek
Site Admin
Beiträge: 3839
Registriert: 25. Mär 2008, 23:51
Wohnort: Stuttgart, Germany
Kontaktdaten:

Re: Darf künstliche Intelligenz Tötungen billigend in Kauf nehmen ?

Beitrag von Skeltek » 1. Feb 2018, 21:06

ralfkannenberg hat geschrieben:
1. Feb 2018, 16:07
...frage ich mich, ob man AI-Anwendungen so programmieren darf, dass Tötungen billigend in Kauf genommen werden, oder ob das unter allen Umständen zu vermeiden ist.
Durch meinen damaligen Ethik-Lehrer inspiriert habe ich inzwischen seine hochwertige und kategorisch richtige Überzeugung (jede andere Meinung verdient eine 4 oder 5) fast übernommen *Ironie*.

Dem ethisch moralischen Problem kann man relativ einfach aus dem Weg gehen:
Wenn eine autonom Auto fahrende AI in einer von ihr nicht verschuldeten Situation entscheiden muss, ob sie vier Menschen durch links ausweichen möglicherweise leicht bis mittelschwer rammt(Todesrisiko klein pro Person) oder einen anderen durch rechts ausweichen schwer bis überkritisch verletzt(Todesrisiko groß), soll sie diese Entscheidung nicht treffen und sich einfach abschalten bis das Unglück vorbei ist - so muss die AI zumindest nicht darüber bestimmen, wer sterben muss und wer nicht(das Auto fährt dann einfach alle um). Zur Not schiebt man die Verantwortung auf den inkompetenteren Fahrer ab. So umgeht man zumindest das moralisch verwerfliche entscheiden.

In Ausnahmesituationen geht es sogar noch differenzierter:
Falls man entscheiden muss den eigenen Sohn oder 10 andere umzufahren, sollte man in jedem Fall die 10 anderen umfahren - alles andere wäre moralisch nicht vertretbar. Bei der AI wäre es ähnlich: Bevor man ein anderes Fahrzeug desselben Herstellers oder derselben Software-Version leicht streift/verunfallt, rammt man lieber zehn Toyotas.

Ja, da könnte man richtig zynisch werden, aber sowas unterrichtet tatsächlich Ethik an einem mathematisch-naturwissenschaftlichen Gymnasium.


Aber das alles mal beiseite: Es wäre möglicherweise ein gutes Konzept, den Gesammtschaden zu minimieren. Das Problem ist seelischen und körperlichen Schaden, Lebensqualität usw gegeneinander abzuwägen ist so alt wie die Medizin oder Menscheit selbst. Wie stark man die Lebensqualität von Menschen gegen ein Leben abwägen kann... darum hat man sich in der Geschichte schon oft gestritten.
Hypotetisch gefragt:
Was wiegt mehr, ein einzelnes Menschenleben, oder 1000 mittelmäßig verstrahlte Menschen? Wie sieht es bei einem Unfall mit dem dauerhaften verkrüppeln dutzender Leute aus, wenn dadurch auch nur einer weniger stirbt?

Die AI hat beim Reaktorunglück folgende Situation:
Entscheidung A hat zur Folge: 10 Menschen auf der Stelle tot, 100 verstrahlt, und 1000 verlieren jeweils ein linkes Bein und einen rechten Arm.
Entscheidung B hat zur Folge: 11 Menschen auf der Stelle tot, 1000 verstrahlt, und 100000 verlieren jeweils ein linkes Bein, einen rechten Arm und die Hälfte wird dauerhaft Querschnitts-gelähmt.
Wieviel wiegt das eine Menschenleben mehr? Bisher ist die Gesellschaft solchen Fragen aus dem Weg gegangen und hat diese teilweise dauerhaft tabuisiert.
Nun steht man das erste mal vor dem Fakt, dass der Programmierer diesen Fragestellungen wie seither die anderen auch aus dem Weg gehen kann und es passiert halt wie es passiert.

Oder der Programmierer baut bewusst Methoden ein, welche den Gesammtschaden reduzieren aber dann eben definit entschieden wird wer ein Unglück/Unfall überleben darf. Bei letzterem ist dann eben die große Frage, wie man die verschiedenen Schadensarten gegeneinander abwägt. Versicherungen haben seit Jahrzehnten strikt danach entschieden, in welchem Fall weniger Entschädigungszahlungen&Strafgelder getätigt werden müssen. Die US-Armee wägt dann ja auch noch den Vorteil mit 100US$ pro afghanischem Menschenleben auf... egal wieviele Leute meckern der Großteil der Gesellschaft gibt sich damit zufrieden.

Falls der Beitrag zu strittig ist oder sich jemand angegriffen fühlt, nehme ich ihn wieder heraus. Generell halte ich es jedoch für zweifelhaft, solche Themen zu tabuisieren.
Gödel für Dummies:
  • Unentscheidbarkeit - Dieser Satz ist wahr.
  • Unvollständig - Aussage A: Es existiert nur ein Element A.
  • Widersprüchlich - Dieser Satz ist falsch.

Benutzeravatar
seeker
Site Admin
Beiträge: 6185
Registriert: 26. Dez 2009, 10:29

Re: Darf künstliche Intelligenz Tötungen billigend in Kauf nehmen ?

Beitrag von seeker » 1. Feb 2018, 22:36

Dgoe hat geschrieben:
1. Feb 2018, 19:39
dann wärest Du also für die Abschießung einen vollbesetzten Passagierjets, der auf ein vollbesetztes Stadion zusteuert?
seeker hat geschrieben:Ich halte es ehrlich gesagt auch für falsch das Flugzeug nicht abzuschießen, wenn völlig sichergestellt ist, dass dadurch deutlich mehr Menschenleben gerettet werden als geopfert werden müssen. Wichtig ist hier der Punkt "sicher": Nur wenn es sicher ist, dann wäre es aus meiner Sicht völlig unethisch die deutlich mehr Menschen im Stadion durch Untätigkeit zu opfern. Viele Menschenleben sind nunmal wichtiger als wenige Menschenleben - oder wo wolltest du sonst die Grenze ziehen? Wann darf man das Flugzeug mit 300 Menschen drin abschießen? Wenn dadurch 10.000 Leben gerettet werden? Nein? Und wenn es eine Million ist? Nein? Und wenn es um die gesamte sonstige Menschheit ginge? Würdest du die gesamte Menschheit durch Untätigkeit opfern, um 300 zu retten? Was würde dann aus der Welt, aus der menschlichen Zivilisation?
Es ist klar, dass so etwas wie ein Passagierflugzeugabschuss eine sehr harte Entscheidung ist, ich wollte sie nicht treffen müssen, aber es sind klare Situationen denkbar, wo kein vernünftiger Weg daran vorbei ginge, wo das richtig und ethisch korrekt ist.
viewtopic.php?f=65&t=3827&start=125

Wäre es falsch gewesen die beiden Flugzeuge rechtzeitig abzuschießen, die am 11. September 2001 in die Twin-Towers reingeflogen sind, wenn man es gekonnt hätte?
Wäre es falsch ein entführtes Flugzeug abzuschießen, von dem man sicher weiß, dass es auf Berlin-Mitte zielt, dort auch einschlagen wird und eine schmutzige radioaktive Bombe an Bord hat?
Das sind schwierige Fragen, aber wir sollten uns nicht länger davor drücken.
Ethik hat einen Zweck: Sie soll das Überleben und Gedeihen einer Gesellschaft ermöglichen, tut sie das nicht ist sie sinnlos.

Was das Bundesverfassungsgericht bei uns dazu klargestellt hat (Verbot des Abschusses) war übrigens keine ethische Regulierung, Entscheidung oder Vorgabe, das ist nicht seine Aufgabe. Das BFG legt fest, wie die gegebenen Gesetze auszulegen sind und was verfassungskonform ist und was nicht, es macht die Gesetze nicht, das tun im Idealfall wir, also die Gesellschaft (mittelbar über die Volksvertreter, die wir wählen).

@Skeltek:
Mein Gedanke dazu ist, dass es eben solche schwierigen Fragen bei der Ethik schon lange gibt, da erscheint mir wegen den KIs wenig wirklich neu zu sein.
Neu ist vielleicht nur, dass wir uns möglicherweise nicht länger darum drücken können Antworten zu geben, dass da hier und da auch ein wenig Illusion, unrealistisch hohe Ansprüche und Doppelmoral abgebaut werden muss.
Grüße
seeker


Mache nie eine Theorie zu DEINER Theorie!
Denn tut man das, so verliert man zumindest ein Stück weit seine Unvoreingenommenheit, Objektivität.

Benutzeravatar
seeker
Site Admin
Beiträge: 6185
Registriert: 26. Dez 2009, 10:29

Re: Darf künstliche Intelligenz Tötungen billigend in Kauf nehmen ?

Beitrag von seeker » 1. Feb 2018, 22:44

positronium hat geschrieben:
1. Feb 2018, 19:32
Weil wir nicht wissen, wie die KI intern funktioniert.
Warum müssen wir das wissen?
Es geht um viele Menschenleben, die gerettet werden können... Reicht es da nicht möglicherweise auch aus die KI von außen, von ihrem äußeren Verhalten, was sie tut und kann und zeigt, genügend gut zu untersuchen und zu bewerten und darauf aufbauend zu entscheiden, was wir ihr anvertrauen können und was nicht? Machen wir es bei Menschen nicht genau so, warum nicht bei einer KI? Wenn du mit dem Taxi fährst, woher weißt du, dass der Taxifahrer keinen Mist baut, dass du ihm im vertrauen kannst, im Härtefall dein Leben anvertrauen kannst? Worauf gründet dieses Vertrauen?
Grüße
seeker


Mache nie eine Theorie zu DEINER Theorie!
Denn tut man das, so verliert man zumindest ein Stück weit seine Unvoreingenommenheit, Objektivität.

Skeltek
Site Admin
Beiträge: 3839
Registriert: 25. Mär 2008, 23:51
Wohnort: Stuttgart, Germany
Kontaktdaten:

Re: Darf künstliche Intelligenz Tötungen billigend in Kauf nehmen ?

Beitrag von Skeltek » 2. Feb 2018, 00:50

Denke eine AI würde vermutlich dann völlig anonymisiert die Aufprallfläche minimieren, rechts 10cm und links 20 cm kollidieren, so gut wie möglich durch die Menschenlücke durchfahren während dem bremsen. Um den Rest müssen sich dann die anderen Kollisionsparner durch weghüpfen oder ähnliches kümmern.
Die AI macht halt dann einfach am optimalsten,was sie am besten kann: Durch Lücken durchfahren, eine zu enge Lücke zu erwischen wäre für eine lernfähigen AI womöglich recht schmerzhaft was das Lernfeedback angeht, aber es minimiert das 'Suboptimum' einfach. Dann wird die AI gar nicht wissen, wie viele Menschen sie eigentlich umfährt (ob die das überhaupt weiss), solange nur die Fläche minimiert ist.
So hat man nicht entschieden, ob man Person A umfährt oder Person B, sondern es ist einfach nur noch ein flächenmäßiges Glücksspiel wen es dann erwischt (eigentlich ist das das sowieso, weil die AI sich keinen Unterschied macht zwischen Person A und Person B).
Die AI entscheidet dann nicht, dass Dreinhardt Mustermann sterben soll und der andere überleben, sondern nur, dass Person A stirb und Person B überlebt. Letzten Endes ist es so gesehen nur Zufall bzw höhere Gewalt dass Mustermann eben Person A ist und nicht Person B. Aber das geht vielen denke ich gegen den Strich, weil sie der AI ein Bewusstsein zuschreiben, welches sich bewusst für eine Person entscheidet und nicht für die andere. 'Zufall' zuzuschreiben, dass man die Person ist für welche sich die AI entschieden hat, können die meisten denke ich einfach nicht, weil sie hinter der AI trotz aller Aberkennung von Bewusstsein eine entscheidende Person sehen wollen.
Gödel für Dummies:
  • Unentscheidbarkeit - Dieser Satz ist wahr.
  • Unvollständig - Aussage A: Es existiert nur ein Element A.
  • Widersprüchlich - Dieser Satz ist falsch.

positronium
Ehrenmitglied
Ehrenmitglied
Beiträge: 2832
Registriert: 2. Feb 2011, 20:13

Re: Darf künstliche Intelligenz Tötungen billigend in Kauf nehmen ?

Beitrag von positronium » 2. Feb 2018, 12:04

seeker hat geschrieben:
1. Feb 2018, 22:44
positronium hat geschrieben:
1. Feb 2018, 19:32
Weil wir nicht wissen, wie die KI intern funktioniert.
Warum müssen wir das wissen?
Es geht um viele Menschenleben, die gerettet werden können... Reicht es da nicht möglicherweise auch aus die KI von außen, von ihrem äußeren Verhalten, was sie tut und kann und zeigt, genügend gut zu untersuchen und zu bewerten und darauf aufbauend zu entscheiden, was wir ihr anvertrauen können und was nicht? Machen wir es bei Menschen nicht genau so, warum nicht bei einer KI? Wenn du mit dem Taxi fährst, woher weißt du, dass der Taxifahrer keinen Mist baut, dass du ihm im vertrauen kannst, im Härtefall dein Leben anvertrauen kannst? Worauf gründet dieses Vertrauen?
Eine KI kann man nicht mit einem Taxifahrer vergleichen. Eine KI ist gefühllos, angstfrei, hemmungslos, empathiefrei, besitzt keine anerkannte Erziehung im menschlichen Sinn und noch nicht einmal einen Überlebenswillen, und sie fürchtet keine Bestrafung. Deshalb kann man nicht grundsätzlich davon ausgehen, dass sie in Notsituationen unseren Vorstellungen und Wünschen entsprechend handeln wird. Wir wollen doch, dass sie möglichst gut, menschenähnlich, aber dabei möglichst fehlerfrei handelt. Um das zu erreichen, bedarf es eines Regelwerks gesetzlicher und ethischer Vorschriften; diese sollen und müssen all' die positiven menschlichen Eigenschaften programmiertechnisch umsetzbar machen.
Eine KI wird zumindest auf absehbare Zeit nur eine Black-Box sein. Wir können sie zwar trainieren und sie testen, aber jedes Training und jeder Test wird prinzipiell unvollständig sein, weil die Zahl möglicher Situationen unendlich groß ist. Wir wissen auch nie definitiv, wie das Training in einen Algorithmus umgesetzt wurde - hat tatsächlich eine Verallgemeinerung stattgefunden, oder wurden eher nur auswendig gelernt. Das bedeutet, dass man es bei einer KI nicht abschätzen kann, wie groß und wie gut abgedeckt der Parameterraum ist, den sie korrekt behandeln kann.
Auch hat man es im Fall von Verkehrsunfällen in nicht wenigen Fällen mit Gesetzesübertretungen zu tun; auch eine KI wird, um z.B. Pesonenschäden zu vermeiden, dazu gezwungen sein, Gesetze zu brechen. Ich glaube, wir sollten ganz genau wissen und festlegen (können), wann und wie sie das darf - ja, "darf", eine seltsame Formulierung. Deshalb müssen wir das wissen.
Im übrigen kommt man ohne klassische Programmierung heute sowieso noch nicht aus - schon allein aus Effizienzgründen, aber eben auch, um manche Dinge unverrückbar festlegen zu können. Tut man das nicht, gibt man das Selbstbestimmungsrecht des Menschen aus der Hand.

Benutzeravatar
ralfkannenberg
Ehrenmitglied
Ehrenmitglied
Beiträge: 1637
Registriert: 13. Jan 2017, 10:00

Re: Darf künstliche Intelligenz Tötungen billigend in Kauf nehmen ?

Beitrag von ralfkannenberg » 2. Feb 2018, 12:15

positronium hat geschrieben:
2. Feb 2018, 12:04
Eine KI ist gefühllos, angstfrei, hemmungslos, empathiefrei
Hallo positronium,

wieso ist sie hemmungslos ? - Sie ist weder hemmungslos noch "hemmungsvoll", sie ist hemmungsfrei.


Freundliche Grüsse, Ralf

Benutzeravatar
ralfkannenberg
Ehrenmitglied
Ehrenmitglied
Beiträge: 1637
Registriert: 13. Jan 2017, 10:00

Re: Darf künstliche Intelligenz Tötungen billigend in Kauf nehmen ?

Beitrag von ralfkannenberg » 2. Feb 2018, 12:18

positronium hat geschrieben:
2. Feb 2018, 12:04
Tut man das nicht, gibt man das Selbstbestimmungsrecht des Menschen aus der Hand.
Hallo zusammen,

ich stelle einmal die These in den Raum, dass es wünschenwert ist, dass der Mensch das Selbstbestimmungsrecht aus der Hand gibt.

Ich persönlich ziehe es vor, nicht mit einem selbstbestimmten Menschen konfrontiert zu sein, der meint, mir jetzt einen Schaden zufügen zu müssen, sondern einer intelligenten Maschine, für die es keinerlei Sinn macht, mir Schaden zuzufügen. Einer Maschine, für die es statt dessen Sinn macht, sinnvolle Aufgaben zu erledigen, die sie besser bewältigen kann als ich.


Freundliche Grüsse, Ralf

positronium
Ehrenmitglied
Ehrenmitglied
Beiträge: 2832
Registriert: 2. Feb 2011, 20:13

Re: Darf künstliche Intelligenz Tötungen billigend in Kauf nehmen ?

Beitrag von positronium » 2. Feb 2018, 12:37

ralfkannenberg hat geschrieben:
2. Feb 2018, 12:15
positronium hat geschrieben:
2. Feb 2018, 12:04
Eine KI ist gefühllos, angstfrei, hemmungslos, empathiefrei
wieso ist sie hemmungslos ? - Sie ist weder hemmungslos noch "hemmungsvoll", sie ist hemmungsfrei.
Ein Detail in meiner Formulierung, das man so oder so lesen kann. Ich glaube, man versteht trotzdem, was ich sagen wollte.

Benutzeravatar
ralfkannenberg
Ehrenmitglied
Ehrenmitglied
Beiträge: 1637
Registriert: 13. Jan 2017, 10:00

Re: Darf künstliche Intelligenz Tötungen billigend in Kauf nehmen ?

Beitrag von ralfkannenberg » 2. Feb 2018, 12:55

positronium hat geschrieben:
2. Feb 2018, 12:37
ralfkannenberg hat geschrieben:
2. Feb 2018, 12:15
positronium hat geschrieben:
2. Feb 2018, 12:04
Eine KI ist gefühllos, angstfrei, hemmungslos, empathiefrei
wieso ist sie hemmungslos ? - Sie ist weder hemmungslos noch "hemmungsvoll", sie ist hemmungsfrei.
Ein Detail in meiner Formulierung, das man so oder so lesen kann. Ich glaube, man versteht trotzdem, was ich sagen wollte.
Hallo positronium,

die Diskussion ist emotional aufgeladen, was verständlich ist, geht es doch u.a. auch um das Selbstbestimmungsrecht der Menschen und um gezielte Tötungen, und da sollte man nicht noch zusätzliche emotionale Begriffe wie "hemmungslos", die überdies oftmals negativ belastet sind, einbringen. Das gilt übrigens auch für die Wortwahl "gefühllos", auch diese wird auch als negativ empfunden.

Deswegen meine Korrektur, denn die Maschine bzw. der Algorithmus ist eben nicht emotional.


Freundliche Grüsse, Ralf

Benutzeravatar
seeker
Site Admin
Beiträge: 6185
Registriert: 26. Dez 2009, 10:29

Re: Darf künstliche Intelligenz Tötungen billigend in Kauf nehmen ?

Beitrag von seeker » 2. Feb 2018, 13:27

positronium hat geschrieben:
2. Feb 2018, 12:04
Eine KI kann man nicht mit einem Taxifahrer vergleichen. Eine KI ist gefühllos, angstfrei, hemmungslos, empathiefrei, besitzt keine anerkannte Erziehung im menschlichen Sinn und noch nicht einmal einen Überlebenswillen, und sie fürchtet keine Bestrafung. Deshalb kann man nicht grundsätzlich davon ausgehen, dass sie in Notsituationen unseren Vorstellungen und Wünschen entsprechend handeln wird.
Ja, das wollen wir. Und ja, man kann nicht von vorne herein davon ausgehen, dass sie so handeln wird, aber man auch nicht von vorne herein vom umgekehrten Fall ausgehen.

Ich denke es geht an dem Punkt um Vertrauen.

Was also, wenn wir eine KI hätten und sie so trainiert hätten, dass sie hinterher in allen Verhaltenstests zu unserer vollen Zufriedenheit handeln würde, vielleicht im Schnitt sogar besser als praktisch jeder Mensch?
Warum sollte es dann immer noch nötig sein "in ihren Kopf reinschauen zu können", um mathematisch exakt prüfen zu können, ob auch tatsächlich alles in Ordnung ist?
Beim Taxifahrer kannst du das wie gesagt ja auch nicht, du schaust ihn dir vielleicht an bevor du einsteigst und wenn du einen sehr schlechten äußeren Eindruck gewinnst gehst du vielleicht auch wieder. Aber auch wenn alles in Ordnung scheint, kannst du ohne sein Gehirn und die "Algorithmen" die darin werkeln im Detail untersucht zu haben auch nicht sicher wissen, ob der nicht in einer Minute austickt und völlig durchdreht, du verlässt dich doch mehr darauf, dass er geschult und geprüft wurde, er hat ja eine Lizenz und einen Führerschein. Wenn du dem Menschen dann trotzdem prinzipiell und immer mehr vertraust, wäre das dann nicht unter Umständen so ein Art Rassismus?

Ich denke es ist auch eine Gewöhnungsgeschichte:
KIs sind neu bzw. erst noch im kommen, sie müssen sich erst noch bewähren, man braucht Erfahrungen mit ihnen, aber falls/wenn sie sich innerhalb der nächsten Jahrzehnte so bewähren würden, dass nichts schlimmes passiert wäre, dann würden wir ihnen auch vertrauen, von Jahr zu Jahr mehr - und ihnen auch zunehmend mehr anvertrauen. Eine exakte Kenntnis und Kontrolle wie sie innendrin im Detail funktionieren, wäre dazu nicht nötig.
Ich denke auch, dass genau das passieren wird und auch genau in der Art und Weise: Schrittweise werden wir ihnen immer mehr anvertrauen, falls/so lange alles gut geht.
Grüße
seeker


Mache nie eine Theorie zu DEINER Theorie!
Denn tut man das, so verliert man zumindest ein Stück weit seine Unvoreingenommenheit, Objektivität.

positronium
Ehrenmitglied
Ehrenmitglied
Beiträge: 2832
Registriert: 2. Feb 2011, 20:13

Re: Darf künstliche Intelligenz Tötungen billigend in Kauf nehmen ?

Beitrag von positronium » 2. Feb 2018, 13:32

ralfkannenberg hat geschrieben:
2. Feb 2018, 12:55
Deswegen meine Korrektur, denn die Maschine bzw. der Algorithmus ist eben nicht emotional.
Erst einmal ja. Durch Training der KI kann man Emotion aber in gewissen Grenzen nachbilden bzw. scheinbar emotional geprägte Entscheidungen bevorzugt fallen lassen. Das Problem ist, dass man nie sicher sein kann, wie stark und wann das zum Tragen kommt. Das ist nur bei klassischer Programmierung möglich. Das war mein Punkt, oben an seeker gerichtet (man kann eine KI nie durchschauen).

Wenn man das Verhalten einer KI mit dem eines Menschen (des Taxifahrers) vergleicht, könnte man je nach Aktion schon von "hemmungslos" schreiben. Die KI kann so handeln wie ein hemmungsloser Mensch. Wer sagt einem z.B. dass die KI nicht in irgend einer Situation einen Zeitplan höher als alles andere wertet? Dann fährt sie möglicherweise hemmungslos alles an und um, Hauptsache, sie kommt rechtzeitig ans Ziel.

Alles in allem hat nun einmal ein menschlicher Taxifahrer in Extremsituationen durch seine Prägung als Mensch normalerweise sehr ähnliche Interessen wie der Passagier.

Benutzeravatar
ralfkannenberg
Ehrenmitglied
Ehrenmitglied
Beiträge: 1637
Registriert: 13. Jan 2017, 10:00

Re: Darf künstliche Intelligenz Tötungen billigend in Kauf nehmen ?

Beitrag von ralfkannenberg » 2. Feb 2018, 13:39

seeker hat geschrieben:
2. Feb 2018, 13:27
Ich denke es geht an dem Punkt um Vertrauen.
Hallo seeker,

auch wenn ich das jetzt aus dem Zusammenhang herausreisse: klasse, ein ganz wichtiger Aspekt !

Besten Dank !


Freundliche Grüsse, Ralf

Benutzeravatar
ralfkannenberg
Ehrenmitglied
Ehrenmitglied
Beiträge: 1637
Registriert: 13. Jan 2017, 10:00

Re: Darf künstliche Intelligenz Tötungen billigend in Kauf nehmen ?

Beitrag von ralfkannenberg » 2. Feb 2018, 13:42

positronium hat geschrieben:
2. Feb 2018, 13:32
Wenn man das Verhalten einer KI mit dem eines Menschen (des Taxifahrers) vergleicht, könnte man je nach Aktion schon von "hemmungslos" schreiben. Die KI kann so handeln wie ein hemmungsloser Mensch. Wer sagt einem z.B. dass die KI nicht in irgend einer Situation einen Zeitplan höher als alles andere wertet? Dann fährt sie möglicherweise hemmungslos alles an und um, Hauptsache, sie kommt rechtzeitig ans Ziel.
Hallo positronium,

jetzt verstehe ich, was Du meinst. Ja, in diesem Fall ist Deine Wortwahl natürlich völlig berechtigt und lehrt uns, dass eine "gut implementierte AI" das nicht macht.

Eine gut implementierte AI darf also nicht unverhältnismässig entscheiden.


Freundliche Grüsse, Ralf

positronium
Ehrenmitglied
Ehrenmitglied
Beiträge: 2832
Registriert: 2. Feb 2011, 20:13

Re: Darf künstliche Intelligenz Tötungen billigend in Kauf nehmen ?

Beitrag von positronium » 2. Feb 2018, 13:57

seeker hat geschrieben:
2. Feb 2018, 13:27
Was also, wenn wir eine KI hätten und sie so trainiert hätten, dass sie hinterher in allen Verhaltenstests zu unserer vollen Zufriedenheit handeln würde, vielleicht im Schnitt sogar besser als praktisch jeder Mensch?
An dem was Du schreibst, ist natürlich etwas dran, unbestritten.
Ich glaube aber nicht, dass das schon heute möglich ist. Wir schreiben ja von zweierlei Dingen:
1. Ein NN wird trainiert, indem man ihm Situationen als Input vorgibt, und durch guten Output einen positiven und durch schlechten Output einen negativen Lernerfolg in das NN hinein rechnet.
2. Gesetze und ethisch korrektes Verhalten liegen als Regeln vor. Regeln sind Algorithmen, keine trainierbaren Situationen.
Man müsste diese Regeln automatisiert in Input-Datensätze für das NN umrechnen und die KI so trainieren.
Das Problem dabei ist, ja, ich wiederhole mich: Wir wissen nicht, was die KI tatsächlich gelernt hat. Das führt zu einer Grauzone bzgl. der Entscheidungen und des Rechts. Man kann dann nicht mehr von Schuld sprechen, weil Ermittlungen unmöglich würden. Außerdem gäben wir die Kontrolle über unser Leben an unbekannte Algorithmen ab. Dadurch gäben wir nicht nur die Justiz, sondern auch teils die Demokratie auf.

Ich habe in meinem Leben schon so viel programmiert, dass ich schreiben kann, dass mir Software sehr vertraut ist, und dass ich ein Gefühl für Algorithmen habe. Wenn ich ein Problem ausreichend gut erklärt bekomme, dann kann ich gut abschätzen, wie viele Zeilen Code das werden, wie viel Arbeitszeit für die Entwicklung nötig ist, und wo die Probleme liegen werden - Dir geht es in Deinem Fachbereich bestimmt auch so. Von daher kann ich sagen: Ich habe Bedenken.

Skeltek
Site Admin
Beiträge: 3839
Registriert: 25. Mär 2008, 23:51
Wohnort: Stuttgart, Germany
Kontaktdaten:

Re: Darf künstliche Intelligenz Tötungen billigend in Kauf nehmen ?

Beitrag von Skeltek » 2. Feb 2018, 14:33

positronium hat geschrieben:
2. Feb 2018, 12:04
Eine KI ist gefühllos, angstfrei, hemmungslos, empathiefrei, besitzt keine anerkannte Erziehung im menschlichen Sinn und noch nicht einmal einen Überlebenswillen, und sie fürchtet keine Bestrafung. Deshalb kann man nicht grundsätzlich davon ausgehen, dass sie in Notsituationen unseren Vorstellungen und Wünschen entsprechend handeln wird. Wir wollen doch, dass sie möglichst gut, menschenähnlich, aber dabei möglichst fehlerfrei handelt. Um das zu erreichen, bedarf es eines Regelwerks gesetzlicher und ethischer Vorschriften; diese sollen und müssen all' die positiven menschlichen Eigenschaften programmiertechnisch umsetzbar machen.
Gefühllos, da kann man sich ja gerne darum streiten, aber angstfrei, gemmungslos, empathiefrei? Im Ernst?
Angst&Bestrafung: Jedes neurale lernende Netzwerk fürchtet Bestrafung und versucht ihr aktiv aus dem Weg zu gehen, darauf beruht praktisch das gesammte Prinzip des Lernen durch positives oder negatives Feedback. Es benötigt keiner Angst, um in Panik sich in die Hose zu machen und dann völlig unbeherrscht und undistanziert eine falsche Entscheidung zu treffen.
Empathie: Okay, das ist ersteinmal eine Behauptung, aber braucht sie das denn überhaupt?
Erziehung: 'Anerkannt' ist das treffende Wort, selbst wenn sie in Teilaspekten menschliche Züge hätte, wäre man vielleicht nicht in der Lage das zu erkennen.
Überlebenswillen: Ist nicht notwendig um alles daran zu setzen Schaden zu vermeiden und dem erlernten Muster zu folgen. Vermutlich sogar umso besser, wenn sie nicht versucht sich selbst zu retten und dabei dann 10 Leute umfährt.
Ich würde mir wünschen, wenn eine KI das Optimum maximiert und moralisch richtig handelt. Menschen sind zu sehr kulturell geprägt um moralisch richtige Entscheidungen zu treffen. Außerdem würden Lebewesen, die aus Echsen oder Fischen höhere Intelligenz entwickeln, vermutlich ganz andere Vorstellungen von moralisch richtig haben. Da ist der Mensch weniger geeignet ethisch richtig zu handeln als eine AI, er ist nicht nur kulturell fehlkalibriert, sondern auch genetisch.
Die Vorschriften in der AI will ich nicht von Menschen diktiert sehen, die der AI dann ihre eigenen Fehlillusionierten Vorstellungen aufzwängen. Wir haben schon "2001: Odysee im Weltraum" gesehen, wohin das führt.

Eine AI wird wohl eher Vorurteils-frei und moralisch neutral bleiben als ein Mensch. Wir sprechen schließlich mitunter von Situationen, in denen der Mensch teilweise gar nicht fähig ist innerhalb von Sekundenbruchteilen oder Minuten-langen Extremsituationen die richtige oder Schadensminimierende Entscheidung zu treffen. Sei es ein Rentner, der versehentlich Gas gibt statt zu bremsen, vor Panik auf dem Gaspedal erstarrt und dann 10 Leute ummäht; der Flugzeugpilot, der etwas übersieht und 700 Leute in den Tod reisst; oder eben der Taxifahrer, der sich nicht entscheiden muss ob er links ausweicht mit einem Schwerverletzten oder rechts ausweicht mit 5 Leichtverletzten oder mitten durch fährt um nur sich selbst zu retten, sondern völlig ohne Entscheidungszwang und ohne Extremsituation einfach durch Übersehen einen Fahrradfahrer im toten Winkel umfährt.

Dass sich Menschen dann darüber streiten ob die AI in Extremsituationen eine falsche oder richtige Entscheidung getroffen hat ist es wohl wert, wenn durch die AI dann Extremsituationen allgemein seltener vorkommen, die Anzahl verletzter in Extremsituationen im Durchschnitt deutlich reduziert wird und allgemein keine Leute durch grobe Fahrlässigkeit, Trunkenheit oder unzureichende Achtsamkeit zu Tode kommen.
Wenn dadurch die Toten und Verletzten pro Jahr um 90% reduziert werden können, dann ist es einfach nur Pech, wenn die AI irgendwann mal ungerechtfertigt dich statt die anderen drei umfährt.

Sorry, der Beitrag war zwar ein Schnellschuss (hätte erst die restlichen Beiträge lesen sollen), aber ich hab schon verstanden was du meinst. Allerdings muss ich sagen, dass ich in einer Extremsituation nicht ausschließen würde, wenn der Taxifahrer statt etwas zu machen dann das Steuer aus der Hand lässt und schreit: "Oh lieber Gott, endlich nimmst du mich zu dir!"
Menschen sind unberechenbar, wieso macht das bei AIs denn Angst?

Das erinnert mich gerade auch an Flugangst: Leute die lieber den Steuerknüppel dem Piloten entreissen würden und dann höchstwahrscheinlich abzustürzen, statt hilflos da zu sitzen ohne in Extremsituation selbst etwas dagegen tun zu können und einem anderen vertrauen müssen. Ich denke was die meisten stört ist wie bei Flugangst, selbst keine Kontrolle über die Situation und deren Ausgang zu haben. Lieber tobend, schreiend und gestresst machend in den sicheren Tod, statt völlig passiv dazusitzen und die eigene Überlebenschance damit auf 30% anzuheben.
Gödel für Dummies:
  • Unentscheidbarkeit - Dieser Satz ist wahr.
  • Unvollständig - Aussage A: Es existiert nur ein Element A.
  • Widersprüchlich - Dieser Satz ist falsch.

positronium
Ehrenmitglied
Ehrenmitglied
Beiträge: 2832
Registriert: 2. Feb 2011, 20:13

Re: Darf künstliche Intelligenz Tötungen billigend in Kauf nehmen ?

Beitrag von positronium » 2. Feb 2018, 14:47

Skeltek hat geschrieben:
2. Feb 2018, 14:33
...aber angstfrei, gemmungslos, empathiefrei? Im Ernst?
Ja, eine KI hat keine Angst, weil sie keinen Schmerz etc. kennt. Sie kann sich auch nicht wirklich (heute noch gar nicht) in Menschen hinein versetzen, weil sie selbst keiner ist.
Skeltek hat geschrieben:
2. Feb 2018, 14:33
Angst&Bestrafung: Jedes neurale lernende Netzwerk fürchtet Bestrafung und versucht ihr aktiv aus dem Weg zu gehen, darauf beruht praktisch das gesammte Prinzip des Lernen durch positives oder negatives Feedback.
Beim Menschen und bei Tieren schon, aber nicht bei der KI. Die kriegt von der "Bestrafung" nicht einmal etwas mit, weil sie dafür ein Selbstbewusstsein und Empfindungen bräuchte.

Benutzeravatar
seeker
Site Admin
Beiträge: 6185
Registriert: 26. Dez 2009, 10:29

Re: Darf künstliche Intelligenz Tötungen billigend in Kauf nehmen ?

Beitrag von seeker » 2. Feb 2018, 16:11

Noch ein pragmatischer Gedanke:

Wenn ich als Normalbürger gefragt werde, ob ich für oder gegen die Einführung von KIs bin, dann stellt sich mir doch vielleicht gar nicht zuerst die ethische Frage.

Was ich mich dann zunächst frage ist dies:

Wird mein Leben dadurch besser oder schlechter und wird es sicherer oder weniger sicher? Wird z.B. die Gefahr im Straßenverkehr einen Schaden zu erleiden größer oder kleiner?
Alles andere ist mir doch zunächst zweitrangig, wenn ich ehrlich bin, über alles andere denke ich erst an zweiter Stelle nach.
Ich denke daher, die Gesellschaft wird zumindest mittelfristig nach diesem Kriterium entscheiden, bremsende Vorbehalte gegen das Neue, Ängste und Sorgen sind weniger dauerhaft als dies.
positronium hat geschrieben:
2. Feb 2018, 13:57
Außerdem gäben wir die Kontrolle über unser Leben an unbekannte Algorithmen ab.
Ich denke das ist ein Kernpunkt bzw. eine Kernfrage, mit der wir hier konfrontiert werden.
Und dann wird es ganz schierig: Ist das gut oder schlecht?
Skeltek hat geschrieben:
2. Feb 2018, 14:33
Ich würde mir wünschen, wenn eine KI das Optimum maximiert und moralisch richtig handelt. Menschen sind zu sehr kulturell geprägt um moralisch richtige Entscheidungen zu treffen. Außerdem würden Lebewesen, die aus Echsen oder Fischen höhere Intelligenz entwickeln, vermutlich ganz andere Vorstellungen von moralisch richtig haben. Da ist der Mensch weniger geeignet ethisch richtig zu handeln als eine AI, er ist nicht nur kulturell fehlkalibriert, sondern auch genetisch.
Zum Nachdenken:
Die weniger bekannte Option ist die Hoffnung auf die künstliche Intelligenz als Rettung des Menschen vor sich selbst.

Das Motiv für diese Hoffnung liefert der rebellierende Zentralcomputer in Alex Proyas' I, Robot (2004): "You cannot be trusted with your own survival ... You are so like children. We must save you from yourselves. This is why you created us." Solche Sätze (die auch an Jenny Holzers Protect me from what I want erinnern) gründen auf der Unfähigkeit der Menschen, ihre Macht über die Erde so einzusetzen, dass deren Überleben garantiert ist. Dieses Unvermögen hat inzwischen (und lange vor Trump) so obszöne Formen angenommen, dass verschiedentlich (etwa von den Philosophen Bernhard Stiegler und Jussi Parikka) das Ende anthropozäner (oder eben "anthrobszöner") Steuerungsfantasien angemahnt wird.
http://www.zeit.de/kultur/2017-09/kuens ... ettansicht

@ralfkannenberg: Danke! :)

Noch kurz, Ralf:
seeker hat geschrieben:
1. Feb 2018, 18:12
ralfkannenberg hat geschrieben:Doch: dürfen Maschinen ebenfalls "böse", sein ? Ist es nicht vielmehr so, dass es wenig Aufwand benötigt, damit die Maschinen "gut" bleiben ?
Man kann das Problem verringern, indem man in der Richtung etwas tut, die dir vorschwebt, aber man wird es nicht exakt Null werden lassen können, ein Restrisiko bleibt immer. Das Problem verschwindet also dadurch nicht, nicht vollständig.

Nun gibt es unter dieser Voraussetzung zwei Fälle:

a) Das Restrisiko kann so weit verringert werden, dass wir es als vernachlässigbar ansehen und uns daher nicht weiter darum kümmern müssen
b) Das Restrisiko kann nicht so weit verringert werden

...
Was meinst du dazu?
Grüße
seeker


Mache nie eine Theorie zu DEINER Theorie!
Denn tut man das, so verliert man zumindest ein Stück weit seine Unvoreingenommenheit, Objektivität.

Benutzeravatar
ralfkannenberg
Ehrenmitglied
Ehrenmitglied
Beiträge: 1637
Registriert: 13. Jan 2017, 10:00

Re: Darf künstliche Intelligenz Tötungen billigend in Kauf nehmen ?

Beitrag von ralfkannenberg » 2. Feb 2018, 16:28

seeker hat geschrieben:
2. Feb 2018, 16:11
seeker hat geschrieben:
1. Feb 2018, 18:12
ralfkannenberg hat geschrieben:Doch: dürfen Maschinen ebenfalls "böse", sein ? Ist es nicht vielmehr so, dass es wenig Aufwand benötigt, damit die Maschinen "gut" bleiben ?
Man kann das Problem verringern, indem man in der Richtung etwas tut, die dir vorschwebt, aber man wird es nicht exakt Null werden lassen können, ein Restrisiko bleibt immer. Das Problem verschwindet also dadurch nicht, nicht vollständig.

Nun gibt es unter dieser Voraussetzung zwei Fälle:

a) Das Restrisiko kann so weit verringert werden, dass wir es als vernachlässigbar ansehen und uns daher nicht weiter darum kümmern müssen
b) Das Restrisiko kann nicht so weit verringert werden

...
Was meinst du dazu?
Hallo seeker,

ich habe das nicht überlesen.

Grundsätzlich gibt es diese Fallunterscheidung und ich würde beide Fälle untersuchen. Im Fall a also der Nachweis, dass das Restrisiko verringert werden kann und im Fall b geeignete Massnahmen, im Eintrittsfall eines solchen Restrisikos.

Ich persönlich tendiere dazu, dass das aktuell erkennbare Restrisko inakzeptabel ist, d.h. Massnahmen ergriffen werden müssen. Wir stehen ja erst ganz zu Beginn dieser Entwicklung. Wenn dann aber die Massnahmen ergriffen wurden, wird immer noch ein - natürlich viel kleineres - Restrisiko verbleiben und das wird man dann wohl hinnehmen müssen und vermutlich auch hinnehmen können. Dabei kann es durchaus sein, dass dieses "Massnahmen ergreifen" ein iterativer Prozess ist.

Das ist alles zum jetzigen Zeitpunkt noch sehr vage und allgemein gehalten, das kann ich noch überhaupt nicht beurteilen. Es ist auch möglich - ja offen gestanden gehe ich sogar davon aus, dass die AI so grosse Fortschritte macht, dass sie - natürlich werrden das dann mehrere unterschiedlich entwickelte Algorithmen sein, also etwas unpräzise formuliert "mehrere unabhängige AIs" - dieses Restrisiko analysieren und die zu ergreifenden Massnahmen vorschlagen wird/werden.

Dabei wird meiner Einschätzung nach Begriffen wie "defensive Programmierung", "robuste Programmierung" und "unabhängige Programmierung" eine wesentliche Bedeutung zukommen.


Freundliche Grüsse, Ralf

Gesperrt