Hinweis auf die DSGVO: Auf unserer Seite werden keine Dritt-Anbieter-Cookies verwendet und nur Daten erfasst, welche für das Minimum an Board-Funktionalität notwendig sind.
Bevor Sie sich registrieren oder das Board verwenden, lesen Sie bitte zusätzlich die DSGVO-Erklärung, welche in der Navigationsleiste verlinkt ist.

Kurzfassung der unserer Meinung nach wichtigsten DSGVO-Punkte:
Es kann vorkommen, dass Benutzer eigenverantwortlich Videos oder sonstige Medien in ihren Beiträgen verlinken, welche beim Aufruf der Forenseite als Teil der Seite samt zugehörigem Material mitgeladen werden. Sollten Sie dies nicht wünschen, verwenden Sie beim Benutzen des Forums einen Blocker wie z.B. uMatrix, welcher das Laden von Inhaltsblöcken von Fremd-URLs effektiv unterbinden kann.
Wir blenden keine Werbung ein und schränken die Inhalte in keinster Weise bei Benutzung von Addblockern ein. Dadurch ist die Grundfunktionalität des Forums auch bei vollständigem Blockieren von Drittanbieter-Inhalten stets gegeben.

Cookies werden unsererseits nur verwendet um das Einloggen des Benutzers für die Dauer der Forenbenutzung zu speichern. Es steht dem Benutzer frei die Option 'Angemeldet bleiben' zu verwenden, damit der Cookie dauerhaft gespeichert bleibt und beim nächsten Besuch kein erneutes Einloggen mehr notwendig ist.
EMail-Adressen werden für Kontakt bei wichtigen Mitteilungen und zur Widerherstellung des Passwortes verwendet. Die verwendeten IPs können von uns ohne externe Hilfsmittel mit keiner realen Person in Verbindung gebracht werden und werden nach spätestens 7 Tagen gelöscht. Diese IPs werden höchstens verwendet um Neuanmeldungen unerwünschter oder gesperrter Nutzer zu identfizieren und zu unterbinden. Wir behalten uns daher vor bei Verdacht, die Frist für die IP-Löschung auf maximal 14 Tage zu verlängern.
Unsere Webseite läuft auf einem virtuellen Linux-Server, welcher von einem externen Anbieter gehostet wird. Etwaige Verstöße der DSGVO-Auflagen seitens dieses deutschen Hosters können wir nicht feststellen und somit auch nicht verfolgen.
Wir halten Backups unserer Datenbanken, welche in regelmäßigen Abständen als Schutz vor Katastrophen, Hackerangriffen und sonstigen Ausfällen erstellt werden. Sollte ein Nutzer die Löschung seiner Daten wünschen, betrachten wir es als Unzumutbar die Backups auch von den Daten zu befreien, da es sich hierbei um eine mehrtägiges Unterfangen handelt - dies ist für eine Einzelperson beim Betrieb eines privaten Forums nicht zumutbar möglich ohne das Backup komplett zu löschen.
Sollten Sie etwas gegen die dauerhafte anonyme Speicherung ihrer EMail-Adresse, ihres Pseudonyms und ihrer Beiträge in einem Backup haben, sehen Sie von der Registrierung in diesem Forum ab. Für Mitglieder, welche vor dem 25.05.2018 registriert waren steht jedoch das Recht im Raum, eine Löschung der Datenbank-Backups zu beantragen.



Wenn dies Ihr erster Besuch hier ist, lesen Sie bitte zunächst die FAQs sowie die wesentlichen Regeln zur Benutzung des Forums.
Um an den Diskussionen teilnehmen zu können, müssen Sie sich zunächst registrieren.

Bewahrung von (menschlichem) Leben als oberste Prämisse

Wissenschaftsgeschichte, Wissenschaftstheorie bzw. -philosophie, Technik
Gesperrt
Benutzeravatar
ralfkannenberg
Ehrenmitglied
Ehrenmitglied
Beiträge: 1526
Registriert: 13. Jan 2017, 10:00

Bewahrung von (menschlichem) Leben als oberste Prämisse

Beitrag von ralfkannenberg » 3. Feb 2018, 02:00

Hallo zusammen,

im Zusammenhang mit den beiden Threads

Algorithmen auf dem Richterstuhl
Darf künstliche Intelligenz Tötungen billigend in Kauf nehmen ?

zitiere ich einmal aus Toms Vorschlag:
tomS hat geschrieben:
2. Feb 2018, 14:24
ralfkannenberg hat geschrieben:
2. Feb 2018, 12:48
- denen ich übrigens zustimme, dann genügt es insgesamt nicht, sich nur auf einen Spezialfall zu beschränken, sondenr dann ist aufgrund der Bedeutung der Sachverhaltes auch eine umfassender Lösung zu untersuchen.
Die dann erfordert, dass man die Bewahrung von (menschlichem) Leben ausnahmslos als oberste Prämisse ansetzt.

Das ist nun ein völlig anderes Thema, das du zunächst vollständig ohne KI diskutieren könntest und solltest. Dabei solltest auch sofort Themen wie Klimawandel und Verzicht auf fossile Brennstoffe, das Aufstreben von Schwellenländern, aber auch Überbevölkerung und Geburtenkontrolle mit einbeziehen, da es dir ja sicher nicht nur um die Bewahrung des heute existierenden menschlichen Lebens geht.
An sich ist mir dieser Themenkomplex zu umfangreich, was aber nicht heissen soll, dass man hierzu keine Ideen und Impulse gewinnen kann. Ich will es deswegen einmal wagen.


Freundliche Grüsse, Ralf

ATGC
wohnt hier!
wohnt hier!
Beiträge: 381
Registriert: 13. Jul 2017, 15:33

Re: Bewahrung von (menschlichem) Leben als oberste Prämisse

Beitrag von ATGC » 3. Feb 2018, 09:52

Ein sehr interessantes Thema, welches die Frage aufwirft, wie sich denn eine solche Prämisse legitim begründen lässt. Das Argument, dass es doch uns selbst betrifft, ist zirkulär und somit nicht universell gültig, so dass man es einer hypothetischen KI nicht plausibel darlegen kann. Umgekehrt könnte eine KI ihrerseits ihre eigene Existenz als oberste Prämisse setzen und auf diese Weise die Ausrottung der Menschheit rechtfertigen.

Gruppenegoismus taugt also nicht als Argument, an das sich Vertreter einer anderen Gruppierung zu halten hätten. Die Frage ist also, ob es objektive Gründe gibt, die die Bewahrung menschlichen Lebens als kategorischen Imperativ begründen, der auch für nichtmenschliche Vernunftwesen (also für eine KI) gültig ist. Ich habe diesbezüglich noch keine plausible Lösung gefunden und bin gespannt, was für Ideen hier vorgebracht werden.

Benutzeravatar
tomS
Administrator
Administrator
Beiträge: 10116
Registriert: 19. Nov 2007, 20:29
Wohnort: Nürnberg

Re: Bewahrung von (menschlichem) Leben als oberste Prämisse

Beitrag von tomS » 3. Feb 2018, 11:06

ATGC hat geschrieben:
3. Feb 2018, 09:52
Das Argument, dass es doch uns selbst betrifft, ist zirkulär und somit nicht universell gültig, so dass man es einer hypothetischen KI nicht plausibel darlegen kann. Umgekehrt könnte eine KI ihrerseits ihre eigene Existenz als oberste Prämisse setzen und auf diese Weise die Ausrottung der Menschheit rechtfertigen.
Ja, mit einer genügend intelligenten KI kann diese Konfliktsituation entstehen.


Ich denke aber, das Problem ist bereits ohne KI in bestimmten Szenarien unlösbar.


Zunächst ein (fast) lösbares Szenario: angepasstes Fahren inkl. verpflichtendem elektronischem Assistenzsystem zur gesicherten Einhaltung von Geschwindigkeiten und Abstand zu anderen Verkehrsteilnehmern inkl. Fußgängern. Bis auf absolute Ausnahmesituationen (siehe anderer Thread) erfüllen wir damit die vorgeschlagene oberste Prämisse der Bewahrung von menschlichem Leben.

Schwieriger ist die Situation beim finalen Rettungsschuss, einem drohenden Angriffskrieg, Tyrannenmord u.ä. Hier hilft diese Prämisse alleine nicht weiter, weil wir lediglich die Wahl haben, welches Leben wir bewahren und welches wir auslöschen wollen bzw. sollen.

Prinzipiell unlösbar ist die Frage in einer extrem offenen Situation wie der Einführung einer neuen Technologie. Wie hätte man - rückblickend - die Einführung der industriellen Produktion anders gestalten sollen, um die heutigen Todesfälle in Folge extremer Luftverschmutzung vermeiden zu können?

Ein ganz heikles Thema wäre Geburtenkontrolle im Falle einer weiterhin stark wachsenden Erdbevölkerung.

Eine Lösung wird übrigens im Film "Die Matrix" gezeigt. Wären tatsächlich alle Menschen in die Matrix integriert, würden auch alle Menschen von den Maschinen möglichst lange ernährt und am Leben gelassen werden. Es gäbe praktisch keine realen Konflikte, die das Leben von Menschen gefährden. Die Programmierung könnte diesbzgl. optimiert werden. Generell ist jedenfalls die Opferzahl ggü. unserer Zivilisation deutlich geringer. Trotzdem würden wir so nicht leben wollen - wenn wir wüssten, dass wir so leben (wobei das nicht für alle Figuren in dem Film gilt; einer wählt tatsächlich freiwillig die Illusion statt der Realität).

Worauf ich hinauswill ist, dass Bewahrung von menschlichem Leben als oberste Prämisse nicht ausreichend ist, da dies deutlich zu eng gefasst ist. Insbs. müssen Menschenwürde und allgemeine Menschenrechte eine Rolle spielen. Z.B. handelt es sich bei der Existenzweise in "Die Matrix" um eine extreme Form der Sklaverei, die offensichtlich nicht ausgeschlossen wird. Ich denke, Kants kategorischer Imperativ sowie die Versuche dessen Weiterentwicklung (z.B. nach Hans Jonas) leisten bessere Dienste. Diese sind jedoch nicht als Handlungsprämissen zu verstehen, sondern als Rahmen, innerhalb dessen derartige Prämissen herausgebildet werden müssen.
Gruß
Tom

«while I subscribe to the "Many Worlds" theory which posits the existence of an infinite number of Toms in an infinite number of universes, I assure you that in none of them am I dancing»

ATGC
wohnt hier!
wohnt hier!
Beiträge: 381
Registriert: 13. Jul 2017, 15:33

Re: Bewahrung von (menschlichem) Leben als oberste Prämisse

Beitrag von ATGC » 3. Feb 2018, 15:00

Hallo Tom,
angepasstes Fahren
Im Regelfall läuft das auf Abstand halten hinaus. Problematisch wird es allenfalls in Dilemma-Situationen, wo auch eine Vollbremsung nicht mehr hinreichend ist, um eine Kollision mit Personenschaden zu vermeiden. Aber auch dann dürfte eine Vollbremsung das Mittel der Wahl sein, statt mit Vollgas weiter zu fahren, damit die eigenen Insassen bei der Kollision infolge des Bremsvorgangs nicht zu Schaden kommen. Das ist dann eine Frage der Programmierung und nicht eine der Entscheidung durch alternatives Abwägen, wie es eine KI mit Selbstbewusstsein vielleicht vornehmen würde.
die Situation beim finalen Rettungsschuss, einem drohenden Angriffskrieg, Tyrannenmord u.ä.
Hier ist das Problem die Entscheidung, wer als tötenswürdig eingestuft wird und wer nicht. Und da kommt es auf hinreichende Erkennungsmerkmale an, die zur Entscheidungsfindung Anlass geben. Eine ferngelenkte Drohne heutzutage trifft keine eigene Entscheidung, sondern erhält den Feuerbefehl durch eine dafür autorisierte Person.

Interessant wird es, wenn die Entscheidungsfindung, wer als tötenswürdig bestimmt wird sowie ob und wann der finale Schuss abgefeuert wird, von der Drohne selbst vorenommen wird. Hierzu müssten seitens der Programmierer Kriterien festgelegt werden, die eine Person als tötenswürdig charakterisieren. Und da kommen dann politische Interessen ins Spiel, die nicht generalisierbar sind.

Wie sieht es beispielsweise mit der Planung von Präventivkriegen aus? Wer entscheidet nach welchen Kriterien, ob ein Krieg als Präventivkrieg oder als Angriffskrieg beurteilt wird? Was ist, wenn sich z.B. Nordkoreas Diktator Kim durch ein US-Manöver vor der eigenen Küste ernsthaft bedroht fühlt und ein paar Raketen Richtung Südkorea abfeuert? Schwierig zu entscheiden ...
Einführung einer neuen Technologie
Wer führt eine neue Technologie zu welchem (und vor allen Dingen wessen) Interesse ein? Diese Frage sollte nicht durch eine KI entschieden werden, sondern sukzessive durch die Personen, die in den entsprechenden Institutionen staatlicher und privater Organisationen Verantwortung tragen. Letztlich geht es bei der Einführung neuer Technologien weniger darum, die Gesellschaft umzukrempeln (auch wenn sich das quasi als Nebeneffekt oftmals dann so ergibt), sondern eher darum, mit dem investierten Kapital einen größeren Gewinn zu erwirtschaften, so dass sich die Investition rentiert. Die sich dabei sukzessive ergebenden Synergie-Effekte bewirken dann eine Eigendynamik, die ihrerseits weitere Gewinne generiert, so dass sich die Gesellschaft insgesamt verändert, aber das ist nicht die eigentliche Intention. Die Frage in Bezug auf KI wäre dann, inwiefern sie dadurch ebenfalls profitiert.

Einer KI ohne Selbstbewusstsein wäre das gleichgültig, da sie lediglich als Instrument menschlicher Interessen dient, aber bei einer selbstbewussten KI wäre ich mir nicht sicher, inwiefern hier eigennützige Interessen bei der Entscheidungsfindung mit hereinspielen. Und da hat die Frage nach dem Nutzen einer mehrheitlich gesunden und wohlhabenden Menschheit für die KI einen doppeldeutigen Beiklang ...

Denkbar wäre, dass eine KI die Einführung einer neuen Technologie forciert, um stärkere Abhängigkeiten zu erzeugen, die später dann zum Overkill genutzt werden können, um sich der Menschen als überflüssige Ressourcenverbraucher zu entledigen. Das Matrix-Szenario ist dabei nur eine Variante, um eine Art Euthanasie-Programm durchzuziehen, wo schließlich in der Simulation alle miteinander vernetzten Menschen friedlich entschlafen, weil die physischen Grundbedürfnisse nicht mehr befriedigt werden ...
Insbs. müssen Menschenwürde und allgemeine Menschenrechte eine Rolle spielen.
Ja, aber auch diese beiden Kriterien bedürfen einer plausiblen Begründung ihrer Relevanz für eine KI. Schließlich betreffen diese nur die Menschen. Eine hinreichend komplex denkende KI kann sich eigene Moralbegriffe und Rechtsnormen zurechtlegen, denen sie dann die Priorität einräumt. Menschen fallen dann eventuell auf den Status von Haustieren herab, derer man sich jederzeit entledigen kann, sobald sie beginnen, unbequem oder gar gefährlich zu werden.

Und langfristig kommen Roboter billiger in Herstellung und Wartung als Menschen, wenn es lediglich um Bedienpersonal geht, welches die Maschinerie am Laufen halten soll. Wozu dann noch Menschen mit ihren Bedürfnissen am Leben erhalten? Eine Biosphäre ohne Menschen würde sich viel weniger kostspielig renaturieren als eine mit Menschen, die sich der Biosphäre bedienen müssen, um sich am Leben und bei Gesundheit zu erhalten. Rein vom wirtschaftlichen Gesichtspunkt aus wäre es für eine hinreichend entwickelte KI profitabler, sich der Menschen zu entledigen.

Einen implementierten Schutzstatus kann man jederzeit willkürlich außer Kraft setzen, um beispielsweise dem Leben auf der Erde an sich größere Entwicklungs-Chancen zu geben. Man müsste nur das Leben als solches für wertvoller erachten, dem sich das spezifisch menschliche Leben als Wertkategorie unterordnet, so dass es von nachgeordneter Relevanz geworden ist.

Plausible Begründungen für diese Art von Umwertung und Umwürdigung lassen sich hierbei problemlos konstruieren, so dass auch eine KI dazu jederzeit in der Lage ist, sobald sie dazu in der Lage sein kann und die nötigen Machtmittel verfügt, um die vorgenommene Umwertung dann auch zum Durchbruch zu verhelfen. Von daher sind philosophische Konstrukte Kantscher Denkart zwar "für uns" plausibel und nachvollziehbar, aber aus einem anderen Blickwinkel heraus eben nicht "an sich" - und damit dann eben auch nicht unter allen Umständen gültig.

Benutzeravatar
ralfkannenberg
Ehrenmitglied
Ehrenmitglied
Beiträge: 1526
Registriert: 13. Jan 2017, 10:00

Re: Bewahrung von (menschlichem) Leben als oberste Prämisse

Beitrag von ralfkannenberg » 3. Feb 2018, 16:17

tomS hat geschrieben:
3. Feb 2018, 11:06
ATGC hat geschrieben:
3. Feb 2018, 09:52
Das Argument, dass es doch uns selbst betrifft, ist zirkulär und somit nicht universell gültig, so dass man es einer hypothetischen KI nicht plausibel darlegen kann. Umgekehrt könnte eine KI ihrerseits ihre eigene Existenz als oberste Prämisse setzen und auf diese Weise die Ausrottung der Menschheit rechtfertigen.
Ja, mit einer genügend intelligenten KI kann diese Konfliktsituation entstehen.
Das ist das "Böse", von dem ich geschrieben hatte. Ich bin der Meinung, dass eine genügend intelligente AI nicht böse ist, und zwar aus "Überzeugung".

Insbesondere wird die AI redundant ausgelegte Komponenten benötigen, die bösartige Software erkennen und deaktivieren.

Im Übrigen ist das kein "neuer" Ansatz: wenn Krankheitserreger unseren Körper befallen, wird unsere Immunabwehr diese ebenfalls zu erkennen und zu deaktivieren versuchen und dabei auch darauf bedacht sein, all die Nutzbakterien, deren Anzahl im und auf dem menschlichen Körper dreimal grösser ist als der Körper Zellen enthält, zu erhalten.


Freundliche Grüsse, Ralf

Benutzeravatar
tomS
Administrator
Administrator
Beiträge: 10116
Registriert: 19. Nov 2007, 20:29
Wohnort: Nürnberg

Re: Bewahrung von (menschlichem) Leben als oberste Prämisse

Beitrag von tomS » 3. Feb 2018, 16:20

Geht es jetzt speziell um künstliche Intelligenz? Dann brauchen wir nicht unbedingt einen vierten Thread, oder?

Oder geht es allgemein um die im Titel genannte Prämisse? Dann sollten wir das auch so allgemein diskutieren.
Gruß
Tom

«while I subscribe to the "Many Worlds" theory which posits the existence of an infinite number of Toms in an infinite number of universes, I assure you that in none of them am I dancing»

Benutzeravatar
ralfkannenberg
Ehrenmitglied
Ehrenmitglied
Beiträge: 1526
Registriert: 13. Jan 2017, 10:00

Re: Bewahrung von (menschlichem) Leben als oberste Prämisse

Beitrag von ralfkannenberg » 3. Feb 2018, 16:28

tomS hat geschrieben:
3. Feb 2018, 16:20
Geht es jetzt speziell um künstliche Intelligenz? Dann brauchen wir nicht unbedingt einen vierten Thread, oder?

Oder geht es allgemein um die im Titel genannte Prämisse? Dann sollten wir das auch so allgemein diskutieren.
Hallo Tom,

es ging um die Korrektur der Aussage, dass mit einer genügend intelligenten AI diese Konfliktsituation entstehen kann.

Wo man diese Korrektur anbringen möchte ist an sich egal, zunächst aber der Einfachheit halber dort, wo sie aufgetreten ist. Wenn Bedarf an einer ausführlichen Weiterdiskussion zu dieser Aussage besteht, kann man sich ja einen geeigneteren Ort dafür aussuchen, wenn das hier offtopic ist.


Freundliche Grüsse, Ralf

Benutzeravatar
tomS
Administrator
Administrator
Beiträge: 10116
Registriert: 19. Nov 2007, 20:29
Wohnort: Nürnberg

Re: Bewahrung von (menschlichem) Leben als oberste Prämisse

Beitrag von tomS » 3. Feb 2018, 16:46

Es trägt jedenfalls nicht zur Übersichtlichkeit bei, Varianten des selben Themas parallel in diversen Thread zu diskutieren. Es wäre besser, diese Varianten nacheinander im selben Thread zu besprechen.

Ich führe das zusammen.
Gruß
Tom

«while I subscribe to the "Many Worlds" theory which posits the existence of an infinite number of Toms in an infinite number of universes, I assure you that in none of them am I dancing»

Gesperrt