Hinweis auf die DSGVO: Auf unserer Seite werden keine Dritt-Anbieter-Cookies verwendet und nur Daten erfasst, welche für das Minimum an Board-Funktionalität notwendig sind.
Bevor Sie sich registrieren oder das Board verwenden, lesen Sie bitte zusätzlich die DSGVO-Erklärung, welche in der Navigationsleiste verlinkt ist.

Kurzfassung der unserer Meinung nach wichtigsten DSGVO-Punkte:
Es kann vorkommen, dass Benutzer eigenverantwortlich Videos oder sonstige Medien in ihren Beiträgen verlinken, welche beim Aufruf der Forenseite als Teil der Seite samt zugehörigem Material mitgeladen werden. Sollten Sie dies nicht wünschen, verwenden Sie beim Benutzen des Forums einen Blocker wie z.B. uMatrix, welcher das Laden von Inhaltsblöcken von Fremd-URLs effektiv unterbinden kann.
Wir blenden keine Werbung ein und schränken die Inhalte in keinster Weise bei Benutzung von Addblockern ein. Dadurch ist die Grundfunktionalität des Forums auch bei vollständigem Blockieren von Drittanbieter-Inhalten stets gegeben.

Cookies werden unsererseits nur verwendet um das Einloggen des Benutzers für die Dauer der Forenbenutzung zu speichern. Es steht dem Benutzer frei die Option 'Angemeldet bleiben' zu verwenden, damit der Cookie dauerhaft gespeichert bleibt und beim nächsten Besuch kein erneutes Einloggen mehr notwendig ist.
EMail-Adressen werden für Kontakt bei wichtigen Mitteilungen und zur Widerherstellung des Passwortes verwendet. Die verwendeten IPs können von uns ohne externe Hilfsmittel mit keiner realen Person in Verbindung gebracht werden und werden nach spätestens 7 Tagen gelöscht. Diese IPs werden höchstens verwendet um Neuanmeldungen unerwünschter oder gesperrter Nutzer zu identfizieren und zu unterbinden. Wir behalten uns daher vor bei Verdacht, die Frist für die IP-Löschung auf maximal 14 Tage zu verlängern.
Unsere Webseite läuft auf einem virtuellen Linux-Server, welcher von einem externen Anbieter gehostet wird. Etwaige Verstöße der DSGVO-Auflagen seitens dieses deutschen Hosters können wir nicht feststellen und somit auch nicht verfolgen.
Wir halten Backups unserer Datenbanken, welche in regelmäßigen Abständen als Schutz vor Katastrophen, Hackerangriffen und sonstigen Ausfällen erstellt werden. Sollte ein Nutzer die Löschung seiner Daten wünschen, betrachten wir es als Unzumutbar die Backups auch von den Daten zu befreien, da es sich hierbei um eine mehrtägiges Unterfangen handelt - dies ist für eine Einzelperson beim Betrieb eines privaten Forums nicht zumutbar möglich ohne das Backup komplett zu löschen.
Sollten Sie etwas gegen die dauerhafte anonyme Speicherung ihrer EMail-Adresse, ihres Pseudonyms und ihrer Beiträge in einem Backup haben, sehen Sie von der Registrierung in diesem Forum ab. Für Mitglieder, welche vor dem 25.05.2018 registriert waren steht jedoch das Recht im Raum, eine Löschung der Datenbank-Backups zu beantragen.



Wenn dies Ihr erster Besuch hier ist, lesen Sie bitte zunächst die FAQs sowie die wesentlichen Regeln zur Benutzung des Forums.
Um an den Diskussionen teilnehmen zu können, müssen Sie sich zunächst registrieren.

Algorithmen auf dem Richterstuhl

Wissenschaftsgeschichte, Wissenschaftstheorie bzw. -philosophie, Technik
Benutzeravatar
Dgoe
wohnt hier!
wohnt hier!
Beiträge: 394
Registriert: 20. Nov 2017, 17:32

Re: Algorithmen auf dem Richterstuhl

Beitrag von Dgoe » 3. Feb 2018, 12:57

Hallo Tom,

zu dem Algorithmus steht dort:
tomS hat geschrieben:
1. Feb 2018, 23:10
Aufgrund der Rechtsunsicherheit nimmt der Hersteller die Software vom Markt
Den Faden weitergesponnen: "Woraufhin ein anderer Hersteller mit einer Software, die für egal welchen Menschen und wieviele Menschen den gleichen Wert einsetzt und mit beanstandsloser Zulassung fast zum Marktführer wird.

Einziger verbliebene führende Konkurrent, ein Hersteller, der solch eine Berechnung ganz außen vor lässt und die verbliebene Rechenzeit für die Interpretation des fortlaufenden Inputs und für die Berechnung nutzt, wie die Insassen bestmöglichst überleben innerhalb eines vertretbaren Ausweich-, bzw. Bremsmanövers."


Mir fällt zufällig etwas ganz anderes ein, in dem Zusammenhang: Wie sieht es eigentlich mit externen Airbags aus? Muss ich mal googeln...


Gruß,
Dgoe
Der Optimist glaubt, dass wir in der besten aller möglichen Welten leben. Der Pessimist befürchtet, dass der Optimist damit Recht hat.

Benutzeravatar
ralfkannenberg
Ehrenmitglied
Ehrenmitglied
Beiträge: 1513
Registriert: 13. Jan 2017, 10:00

Re: Algorithmen auf dem Richterstuhl

Beitrag von ralfkannenberg » 3. Feb 2018, 17:05

tomS hat geschrieben:
3. Feb 2018, 11:18
Nun, mein Algorithmus steht immer noch da und darf gerne kritisiert oder modifiziert werden.
Hallo Tom,

an diese Stelle eine Frage: Dein Algorithmus ist doch zunächst einmal klassisch. Wo kommt da konkret die AI ins Spiel ?


Freundliche Grüsse, Ralf

Benutzeravatar
tomS
Administrator
Administrator
Beiträge: 10114
Registriert: 19. Nov 2007, 20:29
Wohnort: Nürnberg

Re: Algorithmen auf dem Richterstuhl

Beitrag von tomS » 3. Feb 2018, 18:02

Ich hatte dies bereits erklärt.

In der aktuellen Version stellt die KI Funktionen wie Mustererkennung bereit, um die "Objekte" zu identifizieren und zu kategorisieren. Die Bewertungsfunktion ist dann klassisch implementiert.

Eine Alternative wäre, auch die Funktion OnImminentCrash() mittels eines neuronalen Netzes zu zu implementieren. Dazu müsste man diesem während der Lernphase Szenarien vorgeben und die Reaktion erlernen lassen. Das erfordert jedoch wiederum, eine Bewertungsfunktion für die "Objekte" oder Szenarien während der Lernphase vorzugeben. Letztlich wird das Erlernen sowie die Reaktion dann unvollständig und nicht mehr nachvollziehbar im neuronalen Netz erfolgen, das Grundproblem der Existenz einer Bewertungsfunktion bleibt jedoch bestehen.

Anders formuliert: ich definiere - so wie in meiner o.g. Story - Bewertungskriterien und Werte für Menschen. Ob ich diese während der Lernphase zur Anwendung bringe oder erst während der Betriebsphase, ist ein irrelevantes Detail.
Gruß
Tom

«while I subscribe to the "Many Worlds" theory which posits the existence of an infinite number of Toms in an infinite number of universes, I assure you that in none of them am I dancing»

Benutzeravatar
Frank
Ehrenmitglied
Ehrenmitglied
Beiträge: 3433
Registriert: 12. Dez 2005, 23:22
Wohnort: Odenwald

Re: Algorithmen auf dem Richterstuhl

Beitrag von Frank » 3. Feb 2018, 18:11

Ich möchte alle Diskussionsteilnehmer darum bitten, zukünftig das ständige, gebetsmühlenartige Wiederholen sein zu lassen.
Das zerstört den ganzen Faden und werde das zukünftig behandeln wie ein Doppelpost und diese kommentarlos löschen.
Es wollen vieleicht noch Stille Mitlesen hier teilhaben und die verlieren sonst den Überblick.
Mit freundlichen Grüßen

Frank

Benutzeravatar
tomS
Administrator
Administrator
Beiträge: 10114
Registriert: 19. Nov 2007, 20:29
Wohnort: Nürnberg

Re: Algorithmen auf dem Richterstuhl

Beitrag von tomS » 3. Feb 2018, 18:29

Ergänzung zur Bewertung:


1) Im Falle eines Ausweichmanövers:

OnImminentCrash()
{
...

allObjects.sort( value );
target = allObjects.front();
setDirection( target );

...
}



2) Im Falle des Selbstlernens mit der Bewertung eines Szenarios:

EvalScenario()
{
...

Sum( allObjects, value );

...
}



Es wird über die Werte aller existierenden Objekte summiert (wobei man nun noch zwischen dem Wert eines lebenden und eines toten Menschen unterscheiden muss; am einfachsten setzt man für einen Toten den Wert Null an).

Anhand dieser Evaluierung wird einem Szenario ein Wert zugeordnet. Eine Reaktion auf ein bestimmtes Szenario kann bewertet werden, indem der Wert des Szenarios mit dem des aus der Reaktion resultierenden Szenarios verglichen wird. Die Bewertungsfunktion value(), die auf einzelne Objekte anzuwenden wäre, ist für (1) und (2) identisch.
Gruß
Tom

«while I subscribe to the "Many Worlds" theory which posits the existence of an infinite number of Toms in an infinite number of universes, I assure you that in none of them am I dancing»

Benutzeravatar
ATGC
wohnt hier!
wohnt hier!
Beiträge: 393
Registriert: 13. Jul 2017, 15:33
Wohnort: zu Hause

Re: Algorithmen auf dem Richterstuhl

Beitrag von ATGC » 3. Feb 2018, 18:51

Da mein letzter Post im mittlerweile geschlossenen Thread bislang noch unbeantwortet geblieben ist und ich mir dabei einige Mühe gegeben hatte, kopiere ich ihn hier noch einmal rein, um ggf. als Grundlage für weitere Diskussionen dienen zu können:

Hallo Tom,
angepasstes Fahren
Im Regelfall läuft das auf Abstand halten hinaus. Problematisch wird es allenfalls in Dilemma-Situationen, wo auch eine Vollbremsung nicht mehr hinreichend ist, um eine Kollision mit Personenschaden zu vermeiden. Aber auch dann dürfte eine Vollbremsung das Mittel der Wahl sein, statt mit Vollgas weiter zu fahren, damit die eigenen Insassen bei der Kollision infolge des Bremsvorgangs nicht zu Schaden kommen. Das ist dann eine Frage der Programmierung und nicht eine der Entscheidung durch alternatives Abwägen, wie es eine KI mit Selbstbewusstsein vielleicht vornehmen würde.
die Situation beim finalen Rettungsschuss, einem drohenden Angriffskrieg, Tyrannenmord u.ä.
Hier ist das Problem die Entscheidung, wer als tötenswürdig eingestuft wird und wer nicht. Und da kommt es auf hinreichende Erkennungsmerkmale an, die zur Entscheidungsfindung Anlass geben. Eine ferngelenkte Drohne heutzutage trifft keine eigene Entscheidung, sondern erhält den Feuerbefehl durch eine dafür autorisierte Person.

Interessant wird es, wenn die Entscheidungsfindung, wer als tötenswürdig bestimmt wird sowie ob und wann der finale Schuss abgefeuert wird, von der Drohne selbst vorenommen wird. Hierzu müssten seitens der Programmierer Kriterien festgelegt werden, die eine Person als tötenswürdig charakterisieren. Und da kommen dann politische Interessen ins Spiel, die nicht generalisierbar sind.

Wie sieht es beispielsweise mit der Planung von Präventivkriegen aus? Wer entscheidet nach welchen Kriterien, ob ein Krieg als Präventivkrieg oder als Angriffskrieg beurteilt wird? Was ist, wenn sich z.B. Nordkoreas Diktator Kim durch ein US-Manöver vor der eigenen Küste ernsthaft bedroht fühlt und ein paar Raketen Richtung Südkorea abfeuert? Schwierig zu entscheiden ...
Einführung einer neuen Technologie
Wer führt eine neue Technologie zu welchem (und vor allen Dingen wessen) Interesse ein? Diese Frage sollte nicht durch eine KI entschieden werden, sondern sukzessive durch die Personen, die in den entsprechenden Institutionen staatlicher und privater Organisationen Verantwortung tragen. Letztlich geht es bei der Einführung neuer Technologien weniger darum, die Gesellschaft umzukrempeln (auch wenn sich das quasi als Nebeneffekt oftmals dann so ergibt), sondern eher darum, mit dem investierten Kapital einen größeren Gewinn zu erwirtschaften, so dass sich die Investition rentiert. Die sich dabei sukzessive ergebenden Synergie-Effekte bewirken dann eine Eigendynamik, die ihrerseits weitere Gewinne generiert, so dass sich die Gesellschaft insgesamt verändert, aber das ist nicht die eigentliche Intention. Die Frage in Bezug auf KI wäre dann, inwiefern sie dadurch ebenfalls profitiert.

Einer KI ohne Selbstbewusstsein wäre das gleichgültig, da sie lediglich als Instrument menschlicher Interessen dient, aber bei einer selbstbewussten KI wäre ich mir nicht sicher, inwiefern hier eigennützige Interessen bei der Entscheidungsfindung mit hereinspielen. Und da hat die Frage nach dem Nutzen einer mehrheitlich gesunden und wohlhabenden Menschheit für die KI einen doppeldeutigen Beiklang ...

Denkbar wäre, dass eine KI die Einführung einer neuen Technologie forciert, um stärkere Abhängigkeiten zu erzeugen, die später dann zum Overkill genutzt werden können, um sich der Menschen als überflüssige Ressourcenverbraucher zu entledigen. Das Matrix-Szenario ist dabei nur eine Variante, um eine Art Euthanasie-Programm durchzuziehen, wo schließlich in der Simulation alle miteinander vernetzten Menschen friedlich entschlafen, weil die physischen Grundbedürfnisse nicht mehr befriedigt werden ...
Insbs. müssen Menschenwürde und allgemeine Menschenrechte eine Rolle spielen.
Ja, aber auch diese beiden Kriterien bedürfen einer plausiblen Begründung ihrer Relevanz für eine KI. Schließlich betreffen diese nur die Menschen. Eine hinreichend komplex denkende KI kann sich eigene Moralbegriffe und Rechtsnormen zurechtlegen, denen sie dann die Priorität einräumt. Menschen fallen dann eventuell auf den Status von Haustieren herab, derer man sich jederzeit entledigen kann, sobald sie beginnen, unbequem oder gar gefährlich zu werden.

Und langfristig kommen Roboter billiger in Herstellung und Wartung als Menschen, wenn es lediglich um Bedienpersonal geht, welches die Maschinerie am Laufen halten soll. Wozu dann noch Menschen mit ihren Bedürfnissen am Leben erhalten? Eine Biosphäre ohne Menschen würde sich viel weniger kostspielig renaturieren als eine mit Menschen, die sich der Biosphäre bedienen müssen, um sich am Leben und bei Gesundheit zu erhalten. Rein vom wirtschaftlichen Gesichtspunkt aus wäre es für eine hinreichend entwickelte KI profitabler, sich der Menschen zu entledigen.

Einen implementierten Schutzstatus kann man jederzeit willkürlich außer Kraft setzen, um beispielsweise dem Leben auf der Erde an sich größere Entwicklungs-Chancen zu geben. Man müsste nur das Leben als solches für wertvoller erachten, dem sich das spezifisch menschliche Leben als Wertkategorie unterordnet, so dass es von nachgeordneter Relevanz geworden ist.

Plausible Begründungen für diese Art von Umwertung und Umwürdigung lassen sich hierbei problemlos konstruieren, so dass auch eine KI dazu jederzeit in der Lage ist, sobald sie dazu in der Lage sein kann und die nötigen Machtmittel verfügt, um die vorgenommene Umwertung dann auch zum Durchbruch zu verhelfen. Von daher sind philosophische Konstrukte Kantscher Denkart zwar "für uns" plausibel und nachvollziehbar, aber aus einem anderen Blickwinkel heraus eben nicht "an sich" - und damit dann eben auch nicht unter allen Umständen gültig.

Benutzeravatar
Dgoe
wohnt hier!
wohnt hier!
Beiträge: 394
Registriert: 20. Nov 2017, 17:32

Re: Algorithmen auf dem Richterstuhl

Beitrag von Dgoe » 3. Feb 2018, 19:21

@Frank: Wie jetzt?

Gerade wollte ich Gebetsmühlenartig etwas wiederholen. Aber gut, lassen wir das, interessiert mich mittlerweile auch kaum noch, ob ein gemeinsamer Konsens gefunden werden kann, aber iwie auch doch, schon noch.

Ich verstehe @TomS sehr gut, meine ich, bei so einem übersichtlichen Algorithmus zumindest, bin aber anderer Meinung und diese Meinungsverschiedenheit ist auch nichts persönliches, lässt sich vielleicht aber durch immer weiter eingrenzende "Wiederholungen" und zusätzliche Argumente und/oder Ausräumung von Missverständnissen konkretisieren.

Ich hab andererseits aber auch alles längst gesagt, stimmt schon.

Ich bin als Laie auch vielmehr an Toms geschätzten Beiträgen in anderen Threads interessiert und beende meine Beteiligung hier in diesem.

Gruß,
Dgoe
Der Optimist glaubt, dass wir in der besten aller möglichen Welten leben. Der Pessimist befürchtet, dass der Optimist damit Recht hat.

Benutzeravatar
ralfkannenberg
Ehrenmitglied
Ehrenmitglied
Beiträge: 1513
Registriert: 13. Jan 2017, 10:00

Re: Algorithmen auf dem Richterstuhl

Beitrag von ralfkannenberg » 3. Feb 2018, 19:44

Frank hat geschrieben:
3. Feb 2018, 18:11
Ich möchte alle Diskussionsteilnehmer darum bitten, zukünftig das ständige, gebetsmühlenartige Wiederholen sein zu lassen.
Das zerstört den ganzen Faden und werde das zukünftig behandeln wie ein Doppelpost und diese kommentarlos löschen.
Es wollen vieleicht noch Stille Mitlesen hier teilhaben und die verlieren sonst den Überblick.
Hallo Frank,

ich weiss offen gestanden auch nicht weiter - schon das Set der Voraussetzungen ist unklar, in welchem Thread welche Voraussetzungen gelten, was trivial ist und was unrealistisch ist, weil zuviele Menschen keine Lust haben, einfache Massnahmen umzusetzen etc. etc.

Vielleicht ist es einfach noch zu früh solche Inhalte zu erörtern.

Meine persönliche Meinung kennt Ihr: die Anwendung einer solchen Bewertungsfunktion lehne ich zum jetzigen Zeitpunkt im vollen Umfang und ausnahmefrei ab, da man meines Erachtens dank einfacher Massnahmen auch ohne eine solche Anwendung die Vorteile der AI nutzen und die Zahl der Todesopfer massiv reduzieren kann. Und auch soll !

Und wenn es dann immer noch zu einem Unfall kommt, dann sollten die bereits bestehenden gesetzlichen Vorgaben genügend sein, den Fall zu qualifizieren, die Verantwortlichkeiten herauszuarbeiten und dann gegebenenfalls Sanktionierungen auszusprechen.

Ich will nun aber vorerst wieder auf der Zuschauerbank Platz nehmen und schauen, welche weitere interessante Ideen, auf die ich mich sehr freue, genannt werden; Threads hierzu gibt es nun ja genügend.


Freundliche Grüsse, Ralf

Benutzeravatar
Frank
Ehrenmitglied
Ehrenmitglied
Beiträge: 3433
Registriert: 12. Dez 2005, 23:22
Wohnort: Odenwald

Re: Algorithmen auf dem Richterstuhl

Beitrag von Frank » 3. Feb 2018, 20:52

ralfkannenberg hat geschrieben:
3. Feb 2018, 19:44
Ich will nun aber vorerst wieder auf der Zuschauerbank Platz nehmen ....
Vieleicht wäre es einfach mal gut einen Mittelweg zu finden und nicht von einem Extrem ins Andere zu fallen. :wink:

Zum Abschluß möchte ich noch sagen das es zu dem Thema viele interssante Meinungen hier gibt, aber ganz wenig Juristisches.
Ich gebe dir Recht Ralf, dass die bestehende Rechtsprechung hier bereits ausreicht, oder Umständen nur im Detail ergänzt werden muss.


Wer als Programmierer mit der Materie seelisch nicht zu recht kommt, der soll halt umsatteln. (Gibt ja genug andere Bereiche)


Klingt jetzt banal, aber so sehe ich die Sache.

Was soll denn da ein Ing. sagen, der Waffentechnik entwickelt? ;j
Mit freundlichen Grüßen

Frank

Benutzeravatar
tomS
Administrator
Administrator
Beiträge: 10114
Registriert: 19. Nov 2007, 20:29
Wohnort: Nürnberg

Re: Algorithmen auf dem Richterstuhl

Beitrag von tomS » 4. Feb 2018, 11:45

ATGC hat geschrieben:
3. Feb 2018, 18:51
angepasstes Fahren
Im Regelfall läuft das auf Abstand halten hinaus. Problematisch wird es allenfalls in Dilemma-Situationen, wo auch eine Vollbremsung nicht mehr hinreichend ist, um eine Kollision mit Personenschaden zu vermeiden. Aber auch dann dürfte eine Vollbremsung das Mittel der Wahl sein, statt mit Vollgas weiter zu fahren, damit die eigenen Insassen bei der Kollision infolge des Bremsvorgangs nicht zu Schaden kommen. Das ist dann eine Frage der Programmierung und nicht eine der Entscheidung durch alternatives Abwägen, wie es eine KI mit Selbstbewusstsein vielleicht vornehmen würde.
Ich denke, wir sind uns einig, das man das fast vollumfänglich durch andere Maßnahmen als mittels (ggf. umstrittener) KI hinbekommt.

ATGC hat geschrieben:
3. Feb 2018, 18:51
die Situation beim finalen Rettungsschuss, einem drohenden Angriffskrieg, Tyrannenmord u.ä.
Hier ist das Problem die Entscheidung, wer als tötenswürdig eingestuft wird und wer nicht. Und da kommt es auf hinreichende Erkennungsmerkmale an, die zur Entscheidungsfindung Anlass geben. Eine ferngelenkte Drohne heutzutage trifft keine eigene Entscheidung, sondern erhält den Feuerbefehl durch eine dafür autorisierte Person.

Interessant wird es, wenn die Entscheidungsfindung, wer als tötenswürdig bestimmt wird sowie ob und wann der finale Schuss abgefeuert wird, von der Drohne selbst vorenommen wird. Hierzu müssten seitens der Programmierer Kriterien festgelegt werden, die eine Person als tötenswürdig charakterisieren. Und da kommen dann politische Interessen ins Spiel, die nicht generalisierbar sind.
Das Beispiel war von mir noch ohne den Hintergedanken "KI" gemeint. Es zeigt m.E., dass die oberste Prämisse "Bewahrung menschlichen Lebens" bereits in bekannten Situationen ohne KI nicht ausreichend ist.

Wenn man diese "Entscheidung" nun auf eine KI überträgt, geschieht doch letztlich folgendes: bisher wurden Entscheidungskriterien z.B. politisch festgelegt, anschließend wurde ein Drohnenpilot beauftragt, sie 1:1 umzusetzen. Pflanzt man dieselben Kriterien einer autonomen Drohne ein, ändert sich zunächst in der Sache = in jeder einzelnen Situation und für jedes einzelne Ziel nichts; die selbe Entscheidung wird lediglich an einem anderen Ort und zu einer anderen Zeit getroffen.

Was sich jedoch ändert ist, dass man eine autonome Drohne mit Tötungsprogramm geschaffen hat. Ab diesem Zeitpunkt ist man in der Lage, dieses autonom ablaufen zu lassen, d.h. dass sich z.B. Politiker nicht mehr im Einzelfall entscheiden müssen, sondern dass sie ein einmal festgelegtes Muster in allen weiteren Fällen vollständig ohne eigene Beteiligung durch allein die Drohnen ausführen lassen.

Die wesentliche Änderung findet also gar nicht in der Drohne selbst statt, sondern im Nutzungsverhalten der Drohne.

ATGC hat geschrieben:
3. Feb 2018, 18:51
Einführung einer neuen Technologie
Wer führt eine neue Technologie zu welchem (und vor allen Dingen wessen) Interesse ein? Diese Frage sollte nicht durch eine KI entschieden werden, sondern sukzessive durch die Personen, die in den entsprechenden Institutionen staatlicher und privater Organisationen Verantwortung tragen.
Auch in diesem Beispiel ging es mir lediglich darum, zu zeigen, dass die oberste Prämisse "Bewahrung menschlichen Lebens" bereits in bekannten Situationen ohne KI nicht ausreichend ist.

ATGC hat geschrieben:
3. Feb 2018, 18:51
Insbs. müssen Menschenwürde und allgemeine Menschenrechte eine Rolle spielen.
Ja, aber auch diese beiden Kriterien bedürfen einer plausiblen Begründung ihrer Relevanz für eine KI. Schließlich betreffen diese nur die Menschen. Eine hinreichend komplex denkende KI kann sich eigene Moralbegriffe und Rechtsnormen zurechtlegen, denen sie dann die Priorität einräumt. Menschen fallen dann eventuell auf den Status von Haustieren herab, derer man sich jederzeit entledigen kann, sobald sie beginnen, unbequem oder gar gefährlich zu werden.
Ich sehe zunächst mal Menschenrechte als Rechte von Menschen als höherwertig an als Rechte von KIs.

Tatsächlich ist es jedoch so, dass bei hinreichend intelligenten KIs das Problem entstehen könnte, dass diese per se schützenswert sind, weil sie letztlich uns schützen. Z.B. genießen Polizisten besondere Rechte, weil sie als Teil eines Verfassungsorgans unseren Staat und unsere Gemeinschaft schützen. Wäre es denkbar, derartige Rechte auf eine KI zu übertragen? Wäre es denkbar, dass eine bestimmte KI in einer Konfliktsituation bevorzugt zu schützen ist, einfach weil es sich um eine Polizei-KI handelt?

Ich sehe dabei erhebliche Probleme, selbst wenn diese KIs noch keinen eigenen Moralbegriff entwickelt haben.
ATGC hat geschrieben:
3. Feb 2018, 18:51
Plausible Begründungen für diese Art von Umwertung und Umwürdigung lassen sich hierbei problemlos konstruieren, so dass auch eine KI dazu jederzeit in der Lage ist, sobald sie dazu in der Lage sein kann und die nötigen Machtmittel verfügt, um die vorgenommene Umwertung dann auch zum Durchbruch zu verhelfen.
Das wäre die fast schon logische Konsequenz, wenn man KIs immer mehr Befugnisse überträgt, weil sie letztlich die "besseren" Entscheidungen in uns überfordernden komplexen Situationen treffen.

Eine andere Alternative, die zumindest aus der Zwickmühle "Mensch vs. KI" heraushilft, ist die mittelfristige Verschmelzung von Mensch und KI gemäß Kurzweil.
Gruß
Tom

«while I subscribe to the "Many Worlds" theory which posits the existence of an infinite number of Toms in an infinite number of universes, I assure you that in none of them am I dancing»

Benutzeravatar
tomS
Administrator
Administrator
Beiträge: 10114
Registriert: 19. Nov 2007, 20:29
Wohnort: Nürnberg

Re: Algorithmen auf dem Richterstuhl

Beitrag von tomS » 4. Feb 2018, 11:52

Frank hat geschrieben:
3. Feb 2018, 20:52
Ich gebe dir Recht Ralf, dass die bestehende Rechtsprechung hier bereits ausreicht, oder Umständen nur im Detail ergänzt werden muss.
Wenn du das so siehst, dann muss es für dich ja ein leichtes sein, zunächst als Politiker für die von mir genannte Bewertungsfunktion grob die Eckpunkte in einem Gesetz zu fixieren (das mit dem Grundgesetz vereinbar sein muss) sowie anschließend die Bewertung für Menschen und Menschengruppen im Detail festzulegen.
Gruß
Tom

«while I subscribe to the "Many Worlds" theory which posits the existence of an infinite number of Toms in an infinite number of universes, I assure you that in none of them am I dancing»

Benutzeravatar
seeker
Ehrenmitglied
Ehrenmitglied
Beiträge: 5867
Registriert: 26. Dez 2009, 10:29

Re: Algorithmen auf dem Richterstuhl

Beitrag von seeker » 4. Feb 2018, 12:52

Ich denke, wir sollten die Diskussion besser strukturieren, zunächst in:

I. Nähere Zukunft
II. Fernere Zukunft

Dazu wären m.E. getrennte Threads sinnvoll.


Dann sollte man unterscheiden zwischen:

a) Ethische Fragen (was soll sein)
b) Gesellschaftliche Fragen (was wird wahrscheinlich sein)



Ansonsten möchte ich an der Stelle versuchen ein paar aus meiner Sicht wichtige Dinge aus diesem Thread kurz zusammenzufassen (ich beziehe mich hier auf I., II. sollte in einen anderen Thread):


1. Gibt es ein ethisches Problem durch die Einführung von KIs?
Ja, das gibt es.
Nebenfrage: Wie groß/dramatisch ist das Problem?

2. Ist es möglich dieses Problem durch technische Maßnahmen, geschickte Programmierung, bessere Infrastruktur, Schulung der Leute, etc. vollständig zu lösen?
Nein, das ist es nicht.

3. Ist es möglich das Problem durch 2. abzuschwächen?
Selbstverständlich, Abschwächungen und Verschlimmerungen sind immer möglich.
Nebenfrage: Wie weit ist es abschwächbar und wie schlimm/dramatisch/neu wäre das Problem dann noch?

4. Wird die Einführung von KIs gesellschaftliche Auswirkungen und Auswirkungen auf unser tägliches Leben haben?
Mit hoher Sicherheit ist davon auszugehen.
Nebenfrage: Welche? Worauf sollte man sich einstellen?

5. Ist es möglich die Einführung von KIs zu verhindern?
Realistisch gesehen natürlich nicht, nicht in der Breite.

6. Ist es möglich die Verwendung von KIs einzuschränken, zu regulieren?
Ja, ist es.
Nebenfrage: Inwieweit? Was ist hier realistisch?

7. Ist die Einführung von KIs unter der derzeitigen Gesetzeslage möglich?
In Bereichen, die derzeit als unkritisch angesehen werden ja, in kritischeren Bereichen nein.
Nebenfragen: Auf welche Änderungen können wir uns realistisch gesehen einstellen? Welche Änderungen wären vernünftig?

8. In welcher Form, in welcher Art und Weise werden wir es wahrscheinlich mit den KIs zu welchem Zeitpunkt zu tun bekommen (Roadmap)?


Ich schlage vor die Frage 2. abzuschließen, das sollte doch nun geklärt sein.
Frage 1. und 3. sind m. E. eigentlich auch schon gut durchleuchtet, nur evtl. die Nebenfragen noch nicht.
Grüße
seeker


Mache nie eine Theorie zu DEINER Theorie!
Denn tut man das, so verliert man zumindest ein Stück weit seine Unvoreingenommenheit, Objektivität.

Benutzeravatar
tomS
Administrator
Administrator
Beiträge: 10114
Registriert: 19. Nov 2007, 20:29
Wohnort: Nürnberg

Re: Algorithmen auf dem Richterstuhl

Beitrag von tomS » 4. Feb 2018, 13:25

seeker hat geschrieben:
4. Feb 2018, 12:52
1. Gibt es ein ethisches Problem durch die Einführung von KIs?
Ja, das gibt es.

2. Ist es möglich dieses Problem durch technische Maßnahmen, geschickte Programmierung, bessere Infrastruktur, Schulung der Leute, etc. vollständig zu lösen?

3. Ist es möglich das Problem durch 2. abzuschwächen?
Selbstverständlich, Abschwächungen und Verschlimmerungen sind immer möglich.

4. Wird die Einführung von KIs gesellschaftliche Auswirkungen und Auswirkungen auf unser tägliches Leben haben?
Mit hoher Sicherheit ist davon auszugehen.

5. Ist es möglich die Einführung von KIs zu verhindern?
Realistisch gesehen natürlich nicht, nicht in der Breite.

6. Ist es möglich die Verwendung von KIs einzuschränken, zu regulieren?
Ja, ist es.

7. Ist die Einführung von KIs unter der derzeitigen Gesetzeslage möglich?
In Bereichen, die derzeit als unkritisch angesehen werden ja, in kritischeren Bereichen nein.

8. In welcher Form, in welcher Art und Weise werden wir es wahrscheinlich mit den KIs zu welchem Zeitpunkt zu tun bekommen (Roadmap)?


Ich schlage vor die Frage 2. abzuschließen, das sollte doch nun geklärt sein.
Frage 1. und 3. sind m. E. eigentlich auch schon gut durchleuchtet, nur evtl. die Nebenfragen noch nicht.
Dem stimme ich zu.
Gruß
Tom

«while I subscribe to the "Many Worlds" theory which posits the existence of an infinite number of Toms in an infinite number of universes, I assure you that in none of them am I dancing»

Benutzeravatar
ATGC
wohnt hier!
wohnt hier!
Beiträge: 393
Registriert: 13. Jul 2017, 15:33
Wohnort: zu Hause

Re: Algorithmen auf dem Richterstuhl

Beitrag von ATGC » 4. Feb 2018, 14:08

Hallo Tom,
wir sind uns einig, das man das fast vollumfänglich durch andere Maßnahmen als mittels (ggf. umstrittener) KI hinbekommt.
Ja, zumindest ohne selbstbewusste KI.
Es zeigt m.E., dass die oberste Prämisse "Bewahrung menschlichen Lebens" bereits in bekannten Situationen ohne KI nicht ausreichend ist.
Ach doch, die Prämisse repräsentiert das anzustrebende Ideal. Inwiefern es praktisch umsetzbar ist, entscheidet sich u.a. in solchen Dilemma-Situationen. Das hat dann aber nichts mehr mit dem Ideal zu tun, sondern mit der Abwägung der praktikablen Mittel, um das erstrebte Ideal möglichst vollumfänglich zu erreichen. Und hier sehe ich beim Menschen eine Gefühlskomponente mit hineinspielen, die bei einer KI fehlen würde. "Berechnendes Handeln" kann sich hierbei von "berechnetem Handeln" unterscheiden. Irrtümer können sich kurzfristig verheerend auswirken, aber langfristig nachhaltig stabilisierend sein.

Beispiel: Das verpatzte Hitler-Attentat von Stauffenberg. Wäre es geglückt, wäre der Zweite Weltkrieg eher vorbei gewesen und einige Millionen Menschen hätten nicht noch sterben müssen. Da es scheiterte, wurde der Krieg bis zur finalen Katastrophe ausgefochten, was auf die Nachkriegsgeneration gerade wegen der katastrophalen Folgen dahingehend motivierend wirkte, so etwas unter allen Umständen künftig zu vermeiden.

Die im Zuge des Zweiten Weltkrieges entwickelte Atombombe wäre möglicherweise gar nicht bis zur Endmontage weiterentwickelt worden, wenn es im Sommer 1944 zur Kapitulation gekommen wäre. Japan hätte sich einer Invasion seitens der Sowjetunion ab Herbst 1944 nicht so lange erwehren können, so dass es dort gar nicht zum Abwurf der Bombe gekommen wäre. Die Welt nach der Bombe ist jedenfalls eine ganz andere geworden als es eine ohne Bombe geworden wäre.

Verheerende kurzfristige Folgen haben also langfristig einen stabilisierenden Effekt gehabt - eben wegen der Monstrosität der geschaffenen Fakten. Geschichtsprognosen sind halt immer zweischneidig und man läuft Gefahr, dabei stets in Zynismus abzugleiten, wenn man potentielle Menschenopfer als Rechengröße benutzt, um Handeln oder Nichthandelnb zu rechtfertigen.
Die wesentliche Änderung findet also gar nicht in der Drohne selbst statt, sondern im Nutzungsverhalten der Drohne.
Die wesentliche Änderung ist nicht das Nutzungsverhalten (ob mit oder ohne menschlichen Befehl bleibt es beim Töten) sondern das Verhalten der Drohne, die nun nicht mehr von Außen gesteuert wird, sondern sich selbst von Innen steuert, indem sie den Tötungsakt autonom vornimmt. Und das ist dann schon wesentlich, weil dem menschlichen Zugriff entzogen - und damit un-menschlich.
ging es mir lediglich darum, zu zeigen, dass die oberste Prämisse "Bewahrung menschlichen Lebens" bereits in bekannten Situationen ohne KI nicht ausreichend ist.
Neue Technologien werden in der Regel auch nicht deshalb eingeführt, um menschliches Leben zu bewahren, sondern um menschliches Leben als Kaufkraft zu verwerten. Irgendwie müssen sich die getätigten Investitionen ja auch mal wieder rentieren. Wenn hierbei jedoch eine KI ins Spiel kommt, kann das langfristig grundsätzlich eine andere Wendung nehmen als die, die ursprünglich seitens der (menschlichen) Erfinder Intention gewesen ist. Da kann es dann eben auch mal passieren, dass ein ganzer Wirtschaftszweig oder gar das ganze globale Wirtschaftssystem ins Rutschen kommt, wenn sich die neue Technologie als fatal erweist, man aber aufgrund neu entstandener Abhängigkeiten nicht einfach mal so wieder daraus aussteigen kann.
Ich sehe zunächst mal Menschenrechte als Rechte von Menschen als höherwertig an als Rechte von KIs.
Das sehe ich auch so, aber wir sind als Menschen naturgemäß in dieser Entscheidung befangen ... ;)
Wäre es denkbar, dass eine bestimmte KI in einer Konfliktsituation bevorzugt zu schützen ist, einfach weil es sich um eine Polizei-KI handelt?
Natürlich ist das denkbar. Und in sensiblen Bereichen ist das heute auch schon Alltag - auch wenn es noch keine ausgereiften KI's betrifft. Man denke nur an die Steuerung und Regelung von Energieversorgung. Das sind Datenverbundsysteme, die bereits heute einen besonderen Schutzstatus genießen, weil anderenfalls die Maschinerie der modernen Zivilisation sehr schnell kollabieren könnte.
Ich sehe dabei erhebliche Probleme, selbst wenn diese KIs noch keinen eigenen Moralbegriff entwickelt haben.
Mit einem autonom entwickelten Moralbegriff potenziert sich das grundsätzliche Problem der Schutzwürdigkeit einer bestimmten KI, da dann eine Legitimation gegeben ist, die zerstörerisches Handeln gegen menschliche Interessen begründet. Ohne solch einen autonom entwickelten Moralbegriff begründet sich die Schutzwürdigkeit über fremdbestimmte Interessen (z.B. menschliche Vorgaben, gesetzliche Regelungen usw.), die aber langfristig bei einer selbstbewussten KI Gefahr laufen, nicht automatisch übernommen zu werden - insbesondere dann, wenn aus der gesetzlich vorgegebenen Schutzwürdigkeit ein Bewusstsein von Würde erwächst, welche sich die KI autonom selbst zuweist, ohne auf menschliche Ideengeber zurückzugreifen.
die mittelfristige Verschmelzung von Mensch und KI gemäß Kurzweil.
Ich denke, das wird nicht funktionieren, weil die jeweiligen Substrate dann doch zu verschieden sind, um sie 1 zu 1 übertragen zu können. Denkbar ist ein Roboter, der wie ein Mensch denkt und fühlt (falls man Gefühle simulieren kann, was für uns jedoch unentscheidbar ist, weil es sich hier um ein Qualia-Problem handelt), aber in Ermangelung eines Körpers, der gemeinsam mit dem Gehirn eine biochemisch vernetzte Ganzheit bildet, kein Mensch ist, sondern etwas anderes, das einen echten Menschen lediglich simuliert.

Der andere Weg über die Erweiterung des Gehirns mit künstlichen Implantaten führt ebenfalls vom Menschen weg und zur Maschine hin, sobald das Gehirn aus dem biochemischen Kontext des Körpers in den künstlichen Kontext des Roboters übertragen wird und fortan nur noch in einer Nährlösung schwimmt, um die Nervenzellen bei Betrieb zu halten. Am Ende verschwindet der Mensch, aber er verschmilzt nicht, wie es sich Kurzweil ausgedacht hat.

Benutzeravatar
tomS
Administrator
Administrator
Beiträge: 10114
Registriert: 19. Nov 2007, 20:29
Wohnort: Nürnberg

Re: Algorithmen auf dem Richterstuhl

Beitrag von tomS » 4. Feb 2018, 15:27

ATGC hat geschrieben:
4. Feb 2018, 14:08
Es zeigt m.E., dass die oberste Prämisse "Bewahrung menschlichen Lebens" bereits in bekannten Situationen ohne KI nicht ausreichend ist.
Ach doch, die Prämisse repräsentiert das anzustrebende Ideal. Inwiefern es praktisch umsetzbar ist, entscheidet sich u.a. in solchen Dilemma-Situationen.

Beispiel: Das verpatzte Hitler-Attentat von Stauffenberg. Wäre es geglückt, wäre der Zweite Weltkrieg eher vorbei gewesen und einige Millionen Menschen hätten nicht noch sterben müssen. Da es scheiterte, wurde der Krieg bis zur finalen Katastrophe ausgefochten, was auf die Nachkriegsgeneration gerade wegen der katastrophalen Folgen dahingehend motivierend wirkte, so etwas unter allen Umständen künftig zu vermeiden.
Und genau dieses Beispiel zeigt, dass diese oberste Prämisse alleine unzureichend ist, weil sie uns nicht sagt, welche und wieviele gegenwärtige oder zukünftige Leben wie abzuwägen wären.

ATGC hat geschrieben:
4. Feb 2018, 14:08
Verheerende kurzfristige Folgen haben also langfristig einen stabilisierenden Effekt gehabt - eben wegen der Monstrosität der geschaffenen Fakten. Geschichtsprognosen sind halt immer zweischneidig und man läuft Gefahr, dabei stets in Zynismus abzugleiten, wenn man potentielle Menschenopfer als Rechengröße benutzt, um Handeln oder Nichthandelnb zu rechtfertigen.
Rückblickend magst du recht haben. Aber in der konkreten Situation, der Entscheidung die Bombe zu bauen - oder nicht, bzw. sie abzuwerfen - oder nicht, hilft diese Prämisse alleine überhaupt nicht.

ATGC hat geschrieben:
4. Feb 2018, 14:08
Die wesentliche Änderung findet also gar nicht in der Drohne selbst statt, sondern im Nutzungsverhalten der Drohne.
Die wesentliche Änderung ist nicht das Nutzungsverhalten (ob mit oder ohne menschlichen Befehl bleibt es beim Töten) sondern das Verhalten der Drohne, die nun nicht mehr von Außen gesteuert wird, sondern sich selbst von Innen steuert, indem sie den Tötungsakt autonom vornimmt. Und das ist dann schon wesentlich, weil dem menschlichen Zugriff entzogen - und damit un-menschlich.
So meine ich das nicht.

Wenn in jedem konkreten Einzelfall Menschen konkret entscheiden, dann ist es ziemlich egal, ob sie diese Entscheidung auf ein Papier schreiben oder in ein Computerprogramm eintippen.

Fakt ist aber, dass sie mit der Entwicklung des Computerprogramms nicht mehr in jedem Einzelfall konkret entscheiden. Sie tun dies sicher einigemale während der Erprobungsphase, später nicht mehr. Zu Beginn bestätigen sie jede Entscheidung der Drohne zur Sicherheit, später nicht mehr. Dabei ändert sich im Zuge dieser Autonomisierung nichts Wesentliches der Programmierung der Drohne, sondern am Nutzungsverhalten. Man glaubt, dass sie funktioniert, also darf sie alleine entscheiden.

Man kann dies sogar somit der Software implementieren, dass diese völlig unverändert bleibt: wenn die Drohne ein potentielles Ziel identifiziert hat, fragt bittet sind nicht um eine Bestätigung sondern um den Abbruch ihrer Aktion. Wenn sie innerhalb einer bestimmten Zeit keinen Abbruchbefehl erhält, führt sie die Tötung durch.

Das ist nun nicht ganz das selbe, aber im Kern zeigt es, das es immer noch der Mensch ist, der entscheidet, dass die Drohne autonom und allein handeln dar.

ATGC hat geschrieben:
4. Feb 2018, 14:08
Wäre es denkbar, dass eine bestimmte KI in einer Konfliktsituation bevorzugt zu schützen ist, einfach weil es sich um eine Polizei-KI handelt?
Natürlich ist das denkbar. Und in sensiblen Bereichen ist das heute auch schon Alltag - auch wenn es noch keine ausgereiften KI's betrifft. Man denke nur an die Steuerung und Regelung von Energieversorgung. Das sind Datenverbundsysteme, die bereits heute einen besonderen Schutzstatus genießen, weil anderenfalls die Maschinerie der modernen Zivilisation sehr schnell kollabieren könnte.
Könntest du dir vorstellen, dass der Begriff "Widerstand gegen die Staatsgewalt" auch für Polizeidrohnen gilt? Nehmen wir an, Polizeidrohnen lösen eine nicht genehmigte Demonstration zunächst friedlich auf. Zuletzt werden jedoch Menschen inhaftiert, weil sie dem Befehl zum Räumen des Platzes nicht folgegeleistet haben.

ATGC hat geschrieben:
4. Feb 2018, 14:08
Mit einem autonom entwickelten Moralbegriff potenziert sich das grundsätzliche Problem der Schutzwürdigkeit einer bestimmten KI, da dann eine Legitimation gegeben ist, die zerstörerisches Handeln gegen menschliche Interessen begründet.
Erschwerend kommt hinzu, dass wir - außer dem Turingtest - keine Methode kennen, um überhaupt entscheiden zu können, ob z.B. ein autonomer Moralbegriff vorliegt. Und ich denke, wir sind uns einig, dass die Anwendung des Turingtests hier höchst fragwürdig wäre.

ATGC hat geschrieben:
4. Feb 2018, 14:08
die mittelfristige Verschmelzung von Mensch und KI gemäß Kurzweil.
... Am Ende verschwindet der Mensch, aber er verschmilzt nicht, wie es sich Kurzweil ausgedacht hat.
Kurzweil spekuliert natürlich; niemand kann das heute absehen.

Die Gefahr besteht letztlich darin, dass wir doch ziemlich sicher sagen können, dass wir heute eine Entwicklung anstoßen, deren Ende völlig offen ist.
Gruß
Tom

«while I subscribe to the "Many Worlds" theory which posits the existence of an infinite number of Toms in an infinite number of universes, I assure you that in none of them am I dancing»

Benutzeravatar
ralfkannenberg
Ehrenmitglied
Ehrenmitglied
Beiträge: 1513
Registriert: 13. Jan 2017, 10:00

Re: Algorithmen auf dem Richterstuhl

Beitrag von ralfkannenberg » 4. Feb 2018, 16:57

tomS hat geschrieben:
4. Feb 2018, 15:27
Die Gefahr besteht letztlich darin, dass wir doch ziemlich sicher sagen können, dass wir heute eine Entwicklung anstoßen, deren Ende völlig offen ist.
Hallo Tom,

ein wahres Wort.

Und nun: stösst Du diese Entwicklung an oder sistierst Du sie, bis genauere Analysen vorliegen ?


Freundliche Grüsse, Ralf

Benutzeravatar
Frank
Ehrenmitglied
Ehrenmitglied
Beiträge: 3433
Registriert: 12. Dez 2005, 23:22
Wohnort: Odenwald

Re: Algorithmen auf dem Richterstuhl

Beitrag von Frank » 4. Feb 2018, 18:44

tomS hat geschrieben:
4. Feb 2018, 15:27
Die Gefahr besteht letztlich darin, dass wir doch ziemlich sicher sagen können, dass wir heute eine Entwicklung anstoßen, deren Ende völlig offen ist.

Meinst du , du hättest das Monopol auf dieses Dilemma?
Wievielen Erfinder, Forscher, Wissenschaftler haben sich dieselben Fragen in der Vergangenheit schon gestellt?
Manchmal muss man halt einfach mal machen. :wink:
Mit freundlichen Grüßen

Frank

Benutzeravatar
ATGC
wohnt hier!
wohnt hier!
Beiträge: 393
Registriert: 13. Jul 2017, 15:33
Wohnort: zu Hause

Re: Algorithmen auf dem Richterstuhl

Beitrag von ATGC » 4. Feb 2018, 18:57

Hallo Tom,
dieses Beispiel zeigt, dass diese oberste Prämisse alleine unzureichend ist, weil sie uns nicht sagt, welche und wieviele gegenwärtige oder zukünftige Leben wie abzuwägen wären.
Als oberste Prämisse - und damit Zielvorgabe - kann das schon durchgehen, aber aus einer Zielvorgabe leiten sich keine Maßnahmen und Methoden ab. Es ist umgekehrt: Die Maßnahmen und Methoden sind auf die Zielvorgabe ausgerichtet. Das heißt: Nicht die Prämisse ist unzureichend, sondern die Abgleichung der Methoden auf das Ziel ist nicht immer eindeutig bestimmbar, weil manchmal die reine Anzahl der betroffenen Personen nicht hinreichend ist, um zu einem optimalen Urteil zu gelangen. Hier müssten dann kontextuale Bezüge mit einfließen, um der Zielvorgabe gerecht zu werden.

Eine utilitaristische Ethik stößt da schnell an seine Grenzen, wenn wir humanistische Bewertungsmaßstäbe anlegen. Die oberste Prämisse ist daher also nicht deshalb unpraktikabel weil sie nicht hinreichend wäre, sondern sie ist lediglich zu unscharf, weil sie den Kontext zwar implizit mit enthält, aber nicht eigens benennt, um neben einer Zielvorgabe zugleich auch als Handlungsanweisung tauglich zu sein. Da die Kontexte jedoch zu komplex sind, um eigens ausformuliert zu werden, müssen konkrete Handlungsanweisungen stets jeweils in konkreten Situationen neu ermittelt werden. Und dabei ist die oberste Prämisse wieder ein hinreichender Grundsatz, an dem sich bei der Abwägung ausgerichtet werden muss.
Aber in der konkreten Situation, der Entscheidung die Bombe zu bauen - oder nicht, bzw. sie abzuwerfen - oder nicht, hilft diese Prämisse alleine überhaupt nicht.
Glaubt man dem, was die beteiligten Wissenschaftler und Politiker sowie Militärs nach dem Krieg mitgeteilt haben, war die Prämisse die, den Krieg in Japan möglichst schnell zu beenden, um eine Invasion abzuwenden, die mehreren Hundertausend Soldaten das Leben gekostet hätte. Insofern passt hier schon die Prämisse, menschliches Leben zu schonen - nur dass diese natürlich aus einer einseitigen Perspektive heraus formuliert wurde.

Dennoch wären bei einer Invasion in Japan wahrscheinlich auch mehrere Millionen Japaner ums Leben gekommen. Insofern passt auch hier wieder die Prämisse - rund 200.000 tote Japaner in Hiroshima und Nagasaki kann man dann gegen vielleicht das Zehnfache an Toten aufrechnen, die bei einer Invasion ums Leben gekommen wären. Wie gesagt, die Grenze zum Zynismus überschreitet man bei solchen Rechnereien sehr schnell ...
im Kern zeigt es, das es immer noch der Mensch ist, der entscheidet, dass die Drohne autonom und allein handeln darf.
Wenn es so wie von Dir beschrieben abliefe, ja, aber wenn irgendwann die Bitte um Abbruch dann auch entbehrlich wird, nicht mehr. Und spätestens dann hätte man die Schwelle zur Un-Menschlichkeit überschritten. Wie Neil Armstrong einst sagte: Ein kleiner Schritt für einen Menschen, aber ein Riesensprung für die Menschheit. Was dann längerfristig daraus wird, entzieht sich den Prognosen ...
Könntest du dir vorstellen, dass der Begriff "Widerstand gegen die Staatsgewalt" auch für Polizeidrohnen gilt?
Natürlich. Solche Drohnen wären Eigentum des Staates, die die Staatsgewalt konkret umsetzen. Insofern trifft dieser Begriff hier zu. Es macht z.B. keinen Unterschied, ob ich bei einer Demonstration gegen einen Wasserwerfer agiere oder gegen einen Beamten, der den Wasserwerfer bedient. In beiden Fällen leiste ich Widerstand gegen die Staatsgewalt. Im Falle des Wasserwerfers handle ich mir noch eine Anklage wegen Sachbeschädigung ein. Beim Polizeibeamten bekomme ich noch eine Anklage wegen Körperverletzung, falls ich ihn attackiere. Ich sehe da keinen wesentlichen Unterschied zwischen Wasserwerfer und Polizeidrohne. Beide kann man wieder reparieren, so dass beides unter Sachbeschädigung fällt - in Tateinheit mit Widerstand gegen die Staatsgewalt natürlich. Bei Körperverletzungen sieht das dann schon anders aus.
ich denke, wir sind uns einig, dass die Anwendung des Turingtests hier höchst fragwürdig wäre.
Entscheidend ist am Ende das zerstörerische Tun, welches mit einer autonomen Moral zumindest verbal begründet wird. Ob diese verbale Begründung lediglich eine vorgeschobene Ausflucht ist oder ein tatsächlich gegebener Fakt, ist hierbei nebensächlich. Analog ist das früher bei Wehrdienstverweigerern gewesen: Ob die vorgebrachte moralische Überzeugung tatsächlich vorhanden war oder lediglich antrainiert und vorgeschoben wurde, ließ sich nicht mit letzter Sicherheit feststellen. Am Ende wurde über die Rechtmäßigkeit der vorgebrachten Skrupel entschieden. Das dürfte dann auch Praxis bei einer destruktiv agierenden KI werden.
Kurzweil spekuliert natürlich; niemand kann das heute absehen.
Na ja, was ich von Kurzweil lesen durfte ("Homo s@piens") war schon sehr suggestiv und als Tatsachenbehauptung vorgebracht. Für ihn (und auch für Moravec, der ähnlich argumentiert) scheint das unausweichlicher Fakt zu sein, dem man sich bedingungslos zu unterwerfen habe. Und wie neuerdings Tegmark schreibt, wäre alles andere der Versuch, wieder in die Steinzeit oder ins Mittelalter zurückzukehren, wo doch aber niemand wirklich wieder hinwill ... Ehrlich gesagt gehen mir diese Suggestivlinge mit ihren Techno-Eschatologien mächtig auf die Nerven. Schaut man etwas genauer hin, ist da nämlich nur eine Menge heißer Luft, aber nichts mit Substanz. Wo bleibt da bitteschön die Evidenz der Unausweichlichkeit?
Die Gefahr besteht letztlich darin, dass wir doch ziemlich sicher sagen können, dass wir heute eine Entwicklung anstoßen, deren Ende völlig offen ist.
Das haben sich die frühen Quastenflosser bestimmt auch gedacht, als sie damit begonnen haben, das Festland als Lebensraum zu erobern ... :D

Benutzeravatar
ATGC
wohnt hier!
wohnt hier!
Beiträge: 393
Registriert: 13. Jul 2017, 15:33
Wohnort: zu Hause

Re: Algorithmen auf dem Richterstuhl

Beitrag von ATGC » 4. Feb 2018, 19:03

Hallo Ralf,
stösst Du diese Entwicklung an oder sistierst Du sie, bis genauere Analysen vorliegen ?
Eine sehr gute Frage. In wessen Entscheidungskompetenz liegt es, ob diese Entwicklung angestoßen oder sistiert wird? Kann Tom dazu etwas Substantielles beitragen? Du? Ich? :wn:

Benutzeravatar
tomS
Administrator
Administrator
Beiträge: 10114
Registriert: 19. Nov 2007, 20:29
Wohnort: Nürnberg

Re: Algorithmen auf dem Richterstuhl

Beitrag von tomS » 4. Feb 2018, 19:27

Frank hat geschrieben:
4. Feb 2018, 18:44
tomS hat geschrieben:
4. Feb 2018, 15:27
Die Gefahr besteht letztlich darin, dass wir doch ziemlich sicher sagen können, dass wir heute eine Entwicklung anstoßen, deren Ende völlig offen ist.
Wievielen Erfinder, Forscher, Wissenschaftler haben sich dieselben Fragen in der Vergangenheit schon gestellt?
Das weiß ich nicht, in bin nicht dabei gewesen.

Aber zu einigen Punkten kann man schon was sagen: Verbrennungsmotoren? vorher Null Diskussion. Plastikverpackungen? vorher Null Diskussion. Kernenergie? vorher Null Diskussion (da geheim). Gentechnik? Ja, da wurde und wird schritthaltend diskutiert.

Wir sind also das erstmal in der Situation, dass wir einigermaßen rechtzeitig in diese Diskussion einsteigen können und - aufgrund der enormen Dynamik - auch müssen.
Frank hat geschrieben:
4. Feb 2018, 18:44
Manchmal muss man halt einfach mal machen.
Mit welcher Zielsetzung und zu wessen Nutzen oder Schaden möchtest du einfach was machen?

Und der o.g. Bewertungsalgorithmus gefällt dir aber auch nicht :-)
Gruß
Tom

«while I subscribe to the "Many Worlds" theory which posits the existence of an infinite number of Toms in an infinite number of universes, I assure you that in none of them am I dancing»

Benutzeravatar
seeker
Ehrenmitglied
Ehrenmitglied
Beiträge: 5867
Registriert: 26. Dez 2009, 10:29

Re: Algorithmen auf dem Richterstuhl

Beitrag von seeker » 4. Feb 2018, 19:34

tomS hat geschrieben:
4. Feb 2018, 15:27
Fakt ist aber, dass sie mit der Entwicklung des Computerprogramms nicht mehr in jedem Einzelfall konkret entscheiden. Sie tun dies sicher einigemale während der Erprobungsphase, später nicht mehr.
Das liegt daran, dass ein Programm allgemein programmiert werden muss, alle möglichen speziellen Fälle sind nicht programmierbar, schon deshalb nicht, weil man sie nicht in Gänze vorhersehen kann.
Ich frage an dem Punkt aber immer noch, wo denn der prinzipielle Unterschied ist, wenn etwas allgemein programmiert ist, zu etwas anderem, das allgemein gebaut ist?
Wo ist der Unterschied z.B. zu einem Sicherheitsgurt, der in bestimmbaren sehr seltenen Fällen auch Leben kostet (im Auto eingeklemmt, Genickbruch, etc.)?
Ist es die eindringlicher erscheinende Präzision und Verstehbarkeit eines Programms, die man dann als "Befehl" interpretieren kann?
Ist es deshalb ein Unterschied, weil man es bei einem Programm einfach nicht mehr so leicht ignorieren kann? Was ist es?
Und ist es nun ein kategorischer Unterschied oder ein gradueller?
ATGC hat geschrieben:
4. Feb 2018, 14:08
Irrtümer können sich kurzfristig verheerend auswirken, aber langfristig nachhaltig stabilisierend sein.

Beispiel: Das verpatzte Hitler-Attentat von Stauffenberg. Wäre es geglückt, wäre der Zweite Weltkrieg eher vorbei gewesen und einige Millionen Menschen hätten nicht noch sterben müssen. Da es scheiterte, wurde der Krieg bis zur finalen Katastrophe ausgefochten, was auf die Nachkriegsgeneration gerade wegen der katastrophalen Folgen dahingehend motivierend wirkte, so etwas unter allen Umständen künftig zu vermeiden.
Das Problem ist, dass man es immer erst hinterher sicher weiß - nicht einmal dann.
Das ist auch das Problem mit dem Passagierflugzeugabschuss im Notfall. Ich denke der Utilitarismus ist eine gute Sache, aber man sollte ihn auch nicht übertreiben, sehr viele Menschenleben gegen wenige abzuwägen ist noch naheliegend, kann sogar notwenig sein, aber eine detaillierte Bewertung wie hoch der Wert einer speziellen Person ist, wäre übertrieben, das würde wahrscheinlich eben jene indirekten zersetzenden Folgen haben, von denen du auch sprichst.

Höhere ethische Ziele (was sein soll) muss man sich leisten können, ich garantiere, dass der deutsche Staat das Passagierflugzeugabschussverbot dann kippen würde, wenn tatsächlich einmal ein paar Flugzeuge in Stadien gekracht wären. Letztlich hängt Ethik auch immer davon ab, was IST und was möglich ist, wenn man ehrlich ist.
So ist z.B. Artikel 1 Grundgesetz: "Die Würde des Menschen ist unantastbar." nicht als eine Feststellung der faktischen Realität zu sehen, sondern als eine Handlungsanweisung, was sein soll. Eigentlich müsste es heißen: "Die Würde des Menschen soll so weit wie irgend möglich unangetastet bleiben.", denn faktisch müssen wir zugeben, dass sie sehr wohl angetastet werden kann und auch hier und da zuweilen wird: in Altersheimen, in Gefängnissen, beim Obdachlosen, bei manchen Arbeitgebern, an machen Sterbebetten im Krankenhaus, usw.
Ziele der Ethik

Die Ethik ist von ihrer Zielsetzung her eine praktische Wissenschaft. Es geht ihr nicht um ein Wissen um seiner selbst willen (theoria), sondern um eine verantwortbare Praxis. Sie soll dem Menschen (in einer immer unüberschaubarer werdenden Welt) Hilfen für seine sittlichen Entscheidungen liefern. Dabei kann die Ethik allerdings nur allgemeine Prinzipien guten Handelns oder ethischen Urteilens überhaupt oder Wertvorzugsurteile für bestimmte Typen von Problemsituationen begründen. Die Anwendung dieser Prinzipien auf den einzelnen Fall ist im Allgemeinen nicht durch sie leistbar, sondern Aufgabe der praktischen Urteilskraft und des geschulten Gewissens. Aristoteles vergleicht dies mit der Kunst des Arztes und des Steuermanns. Diese verfügen über ein theoretisches Wissen, das aber situationsspezifisch angewendet werden muss. Entsprechend muss auch die praktische Urteilskraft allgemeine Prinzipien immer wieder auf neue Situationen und Lebenslagen anwenden. Dabei spielt für die richtige sittliche Entscheidung neben der Kenntnis allgemeiner Prinzipien die Schulung der Urteilskraft in praktischer Erfahrung eine wichtige Rolle.
https://de.wikipedia.org/wiki/Ethik#Ziele_der_Ethik

In dem blau gefärbten Satz steckt ein Problem.
Weder der Programmierer einer KI kann das leisten, weil er allgemein programmieren muss und es hier um den speziellen Fall geht, noch die KI selbst, weil sie dafür eine Person mit einem Gewissen sein müsste.

Aber vielleicht sehen wir das Ganze auch falsch:

Führt eine KI tatsächlich "Befehle" aus? Müsste sie dazu nicht eine Person sein? Ist sie nicht vielmehr eine Maschine, die sich im Grunde in nichts von einem komplizierten Räderwerk unterschiedet, vorerst, in der näheren Zukunft jedenfalls?
Trifft eine KI tatsächlich Entscheidungen oder kann es nur so aussehen, erscheint uns das vielleicht nur aus einer bestimmten Perspektive so?
Trifft der Programmierer der KI präzise Entscheidungen für alle speziellen Fälle, wo er doch das Allgemeine programmiert?
Worin liegt der Unterschied zum Gurt? Vielleicht in der Statistik? Aber auch beim Gurt macht man vorher Statistiken... Worin liegt er?
Grüße
seeker


Mache nie eine Theorie zu DEINER Theorie!
Denn tut man das, so verliert man zumindest ein Stück weit seine Unvoreingenommenheit, Objektivität.

Benutzeravatar
tomS
Administrator
Administrator
Beiträge: 10114
Registriert: 19. Nov 2007, 20:29
Wohnort: Nürnberg

Re: Algorithmen auf dem Richterstuhl

Beitrag von tomS » 4. Feb 2018, 19:40

ralfkannenberg hat geschrieben:
4. Feb 2018, 16:57
tomS hat geschrieben:
4. Feb 2018, 15:27
Die Gefahr besteht letztlich darin, dass wir doch ziemlich sicher sagen können, dass wir heute eine Entwicklung anstoßen, deren Ende völlig offen ist.
ein wahres Wort.

Und nun: stösst Du diese Entwicklung an oder sistierst Du sie, bis genauere Analysen vorliegen ?
Zumindest sollte es einen gesellschaftlichen Diskurs geben innerhalb dessen vernünftige Rahmenbedingungen erörtert werden D.h. gerade nicht - zumindest nicht vordringlich - genauere Analysen der KIs, sondern auf Basis des heute von Fachleuten vermuteten Potentials der KIs eine Risikoabschätzung, diverse Ausstiegsszenarien sowie ein Entwurf angepasster ethischer Grundsätze (nicht zwingend um diese tatsächlich zu ändern, sondern um die Tatsachen der Verschiebung ethischer Grundsätze ins Bewusstsein zu rufen). Letztlich also nur das, was man bei anderen Technologien verpasst hat und nun versucht nachzuholen.

Es ist schon erstaunlich, dass sogar nicht fortschrittsfeindliche Wissenschaftler hier warnend den Finger heben.
Gruß
Tom

«while I subscribe to the "Many Worlds" theory which posits the existence of an infinite number of Toms in an infinite number of universes, I assure you that in none of them am I dancing»

Benutzeravatar
tomS
Administrator
Administrator
Beiträge: 10114
Registriert: 19. Nov 2007, 20:29
Wohnort: Nürnberg

Re: Algorithmen auf dem Richterstuhl

Beitrag von tomS » 4. Feb 2018, 19:46

ATGC hat geschrieben:
4. Feb 2018, 19:03
In wessen Entscheidungskompetenz liegt es, ob diese Entwicklung angestoßen oder sistiert wird?
Solange keine fundierten Erkenntnisse über Gefahren vorgebracht werden oder direkt gegen Gesetze verstoßen wird, liegt die Entscheidung bei Forschungseinrichtungen, den Wirtschaftsunternehmen sowie letztlich den Anwendern.
Gruß
Tom

«while I subscribe to the "Many Worlds" theory which posits the existence of an infinite number of Toms in an infinite number of universes, I assure you that in none of them am I dancing»

Benutzeravatar
tomS
Administrator
Administrator
Beiträge: 10114
Registriert: 19. Nov 2007, 20:29
Wohnort: Nürnberg

Re: Algorithmen auf dem Richterstuhl

Beitrag von tomS » 4. Feb 2018, 20:24

seeker hat geschrieben:
4. Feb 2018, 19:34
tomS hat geschrieben:
4. Feb 2018, 15:27
Fakt ist aber, dass sie mit der Entwicklung des Computerprogramms nicht mehr in jedem Einzelfall konkret entscheiden. Sie tun dies sicher einigemale während der Erprobungsphase, später nicht mehr.
Das liegt daran, dass ein Programm allgemein programmiert werden muss, alle möglichen speziellen Fälle sind nicht programmierbar, schon deshalb nicht, weil man sie nicht in Gänze vorhersehen kann.
Ja, das ist sicher ein Punkt, aber nicht der, auf den ich hinauswollte.

Man kann die autonome Drohne mit einer allgemeinen KI ausstatten. Aber das ist kein wesentlicher Unterschied zu den heutigen Drohnen.

Der Unterschied ist, dass die heutigen Drohen abhängig sind, während die autonomen dies ebenfalls sein können, wenn man sie nicht frei lässt - oder auch nicht, d.h. unabhängig sind, wenn man sie tatsächlich frei lässt. Mein Beispiel war, dass die immer stattfindende Rückfrage an den Befehlsleitstand einen "Timeout" eingebaut bekommt. Während eine nicht freie, jedoch technisch autonome Drohne eine Tötungsaktion nicht durchführt, wenn sie innerhalb einer bestimmten Zeit keine Bestätigung erhält, würde eine freie Drohne die Tötungsaktion dann einfach durchführen.

Der wesentlichen Unterschied liegt m.E. nicht in diesen wenigen Zeilen Programmcode, sondern in der Art und Weise wie der Mensch damit umgeht. Zunächst wird er jede einzelne Aktion genau überwachen und jede Aktion bestätigen. Später tritt dann eine Art Gewöhnungseffekt ein - "die Drohne wird das schon richten" - und zuletzt ist sie aufgrund von Faulheit oder Gewöhnung tatsächlich frei.

Freigelassen hat sie aber der Mensch. Das Programm der Drohne wurde nie modifiziert.

seeker hat geschrieben:
4. Feb 2018, 19:34
Ist es die eindringlicher erscheinende Präzision und Verstehbarkeit eines Programms, die man dann als "Befehl" interpretieren kann?
Ist es deshalb ein Unterschied, weil man es bei einem Programm einfach nicht mehr so leicht ignorieren kann? Was ist es?
Und ist es nun ein kategorischer Unterschied oder ein gradueller?
Es ist m.E. die Tatsache, dass der Mensch zusammen mit der Entscheidung vermeintlich auch die Verantwortung und letztlich die Schuld überträgt.

Im Falle des Airbags liegt die Entscheidung bei einem Sensorsystem, die Verantwortung liegt beim Autobauer. Im Falle der autonomen und freien Drohne liegt die Entscheidung bei der Drohne, und die Verantwortung bzw. Schuld vermeintlich auch.

Es ist m.E. genau dies der eklatante Verstoß gegen die Menschenwürde des potentiellen Opfers, dass der Mörder (ein Mensch) sogar diese Verantwortung für ein Verbrechen nicht mehr tragen möchte und sie an einen Automaten delegiert. Das trifft auch dann zu, wenn es sich - wie beim autonomen Fahren - sicher nicht um Mord handelt (es gibt m.E. heute keinen geeigneten Begriff dafür).

Die Verantwortung für den Tod eines Menschen muss beim Menschen bleiben, das ist man dem potentiellen Opfer schuldig.

Und wenn man dies akzeptiert, dann muss man sich die Frage gefallen lassen, bei welchem konkreten Menschen oder welcher Personengruppe diese Schuld konkret bleiben soll (Politiker, technischer Experte, Programmierer, ...). Darüber wäre zu diskutieren.

Möchte die Gesellschaft, dass der Verkehrsausschuss des deutschen Bundestages die Bewertungsfunktion für autonome Fahrzeuge als Gesetz festschreibt? Nein? Wer dann ? Keiner? Dann gibt es kein autonomes Fahren.

seeker hat geschrieben:
4. Feb 2018, 19:34
Ziele der Ethik
Die Ethik ist von ihrer Zielsetzung her eine praktische Wissenschaft. Es geht ihr nicht um ein Wissen um seiner selbst willen (theoria), sondern um eine verantwortbare Praxis. Sie soll dem Menschen (in einer immer unüberschaubarer werdenden Welt) Hilfen für seine sittlichen Entscheidungen liefern. Dabei kann die Ethik allerdings nur allgemeine Prinzipien guten Handelns oder ethischen Urteilens überhaupt oder Wertvorzugsurteile für bestimmte Typen von Problemsituationen begründen. Die Anwendung dieser Prinzipien auf den einzelnen Fall ist im Allgemeinen nicht durch sie leistbar, sondern Aufgabe der praktischen Urteilskraft und des geschulten Gewissens. Aristoteles vergleicht dies mit der Kunst des Arztes und des Steuermanns. Diese verfügen über ein theoretisches Wissen, das aber situationsspezifisch angewendet werden muss. Entsprechend muss auch die praktische Urteilskraft allgemeine Prinzipien immer wieder auf neue Situationen und Lebenslagen anwenden. Dabei spielt für die richtige sittliche Entscheidung neben der Kenntnis allgemeiner Prinzipien die Schulung der Urteilskraft in praktischer Erfahrung eine wichtige Rolle.
https://de.wikipedia.org/wiki/Ethik#Ziele_der_Ethik

In dem blau gefärbten Satz steckt ein Problem.
Weder der Programmierer einer KI kann das leisten, weil er allgemein programmieren muss und es hier um den speziellen Fall geht, noch die KI selbst, weil sie dafür eine Person mit einem Gewissen sein müsste.
Also lautet die elementare Forderung, dass es Aufgabe der praktischen Urteilskraft und des geschulten Gewissens bleiben muss.

Und das würde bedeuten, dass wir auf eine Technologie verzichten, wenn diese umgekehrt genau diese Beteiligung des geschulten Gewissens verdrängt.

Ich denke, dass Artikel Eins des Grundgesetzes

(1) Die Würde des Menschen ist unantastbar. Sie zu achten und zu schützen ist Verpflichtung aller staatlichen Gewalt.
(2) Das deutsche Volk bekennt sich darum zu unverletzlichen und unveräußerlichen Menschenrechten als Grundlage jeder menschlichen Gemeinschaft, des Friedens und der Gerechtigkeit in der Welt.

tatsächlich als oberste Prämisse weiterhin ausreichend ist; es stellt den Menschen, die Menschenwürde, die Menschenrechte sowie die menschliche Gemeinschaft in den Mittelpunkt.

Freilich ist es von diesem ausgehend ein weiter und beschwerlicher Weg, entsprechende Gesetze zu schreiben oder existierende zu ergänzen. Aber der Mensch sollte es uns wert sein, diesen Weg zu gehen. Dazu müsste man die Diskussion jedoch verstärkte unter diesem Aspekt führen, nicht nur unter dem des Nutzens.
Gruß
Tom

«while I subscribe to the "Many Worlds" theory which posits the existence of an infinite number of Toms in an infinite number of universes, I assure you that in none of them am I dancing»

Benutzeravatar
ATGC
wohnt hier!
wohnt hier!
Beiträge: 393
Registriert: 13. Jul 2017, 15:33
Wohnort: zu Hause

Re: Algorithmen auf dem Richterstuhl

Beitrag von ATGC » 4. Feb 2018, 21:18

Hallo seeker,
Das Problem ist, dass man es immer erst hinterher sicher weiß - nicht einmal dann.
Richtig. Und wenn man die Entscheidung darüber, ob interveniert wird oder nicht, einer Maschine überlässt, stellt sich die Verantwortungsfrage für eventuelle negative Folgen aus juristischer Sicht ganz anders als wenn ein Mensch bzw. eine Gruppe von Menschen entschieden hätte. Im Zweifelsfall will es dann nämlich keiner gewesen sein ...
So ist z.B. Artikel 1 Grundgesetz: "Die Würde des Menschen ist unantastbar." nicht als eine Feststellung der faktischen Realität zu sehen, sondern als eine Handlungsanweisung, was sein soll.
Es ist genau genommen beides. Im Falle einer Verletzung der Menschenwürde wird über Gerichte die Ausgangssituation - also die unverletzte Menschenwürde - per Urteil wieder hergestellt, nachdem die Verletzung derselben gerichtlich festgestellt worden ist. Im Juristendeutsch heißt das dann, dass der Rechtsfrieden wieder hergestellt worden ist.
Eigentlich müsste es heißen: "Die Würde des Menschen soll so weit wie irgend möglich unangetastet bleiben.", ...
Das wäre langfristig fatal, denn aus dem faktischen Nichtvorhandensein uneingeschränkter Menschenwürde leitet sich kein Sollen ab, welches dieses Nichtvorhandensein faktisch legitimieren würde. Denn das "so weit wie irgend möglich" ist wieder auslegungsfähig, was jedoch bei einer kategorisch festgelegten Gültigkeit von vornherein unterbunden wird. Daher ist die Einhaltung der Menschenwürde ein uneingeschränkt einklagbares Recht und nicht eine nur begrenzt umsetzbare Handlungsanweisung mit Möglichkeitsspielräumen. Ich denke, die Mütter und Väter des Grundgesetzes haben sich in Auswertung der Folgen der NS-Herrschaft sehr gründlich dazu Gedanken gemacht. Wohl wissend, was eine Aufweichung für Folgen nach sich ziehen kann ...
In dem blau gefärbten Satz steckt ein Problem.
Das Problem ist jedes Mal neu von Fall zu Fall zu lösen, indem man sich an Wertmaßstäben orientiert, die zuvor geschult und per Erfahrung angeeignet worden sind. Wir entscheiden uns oftmals weniger aufgrund rationalen Abwägens statt emotionalen Triebkräften, da wir in Notsituationen, wo es auf schnelles Handeln ankommt, oftmals nicht die Zeit haben, Wertkategorien gegeneinander zu gewichten. Wir handeln dann gewissermaßen "aus dem Bauch heraus", ohne lange darüber nachzudenken, ob es auch ethisch normkonform ist - eben weil über Sozialisation und Erziehung ein bestimmtes moralisches Grundwissen unterbewusst vorhanden ist, das dann aktiviert werden kann, ohne es noch zusätzlich ausbuchstabieren zu müssen.

Das ist im Prinzip das, was unter dem blau hervorgehobenen Satz im Wikipedia-Zitat ausgeführt worden ist: Die Erfahrung macht es. Und die wäre für eine KI prinzipiell erlernbar. Insofern würde sich hier kein prinzipiell anderes Problem ergeben als das, was auch für Menschen gilt, die ihre eigene persönliche Erfahrung und Schulung in das konkrete Handeln einbringen. Der Programmierer müsste die Algorithmen so programmieren, dass die KI lernfähig ist, aber das dürfte ja kein unlösbares Problem sein.
Trifft eine KI tatsächlich Entscheidungen oder kann es nur so aussehen, erscheint uns das vielleicht nur aus einer bestimmten Perspektive so?
Ab einem bestimmten Komplexitätsgrad wird man hier nicht mehr sinnvoll unterscheiden können. Aus praktischer Sicht heraus wird man dazu übergehen, vorgenommene Handlungen einer KI zugleich auch als autonom entschiedene Handlungen zu betrachten. Und dann stellt sich die oben erwähnte Verantwortungsfrage - einschließlich der Frage der juristischen Beurteilung derselben.

Antworten