Hinweis auf die DSGVO: Auf unserer Seite werden keine Dritt-Anbieter-Cookies verwendet und nur Daten erfasst, welche für das Minimum an Board-Funktionalität notwendig sind.
Bevor Sie sich registrieren oder das Board verwenden, lesen Sie bitte zusätzlich die DSGVO-Erklärung, welche in der Navigationsleiste verlinkt ist.

Kurzfassung der unserer Meinung nach wichtigsten DSGVO-Punkte:
Es kann vorkommen, dass Benutzer eigenverantwortlich Videos oder sonstige Medien in ihren Beiträgen verlinken, welche beim Aufruf der Forenseite als Teil der Seite samt zugehörigem Material mitgeladen werden. Sollten Sie dies nicht wünschen, verwenden Sie beim Benutzen des Forums einen Blocker wie z.B. uMatrix, welcher das Laden von Inhaltsblöcken von Fremd-URLs effektiv unterbinden kann.
Wir blenden keine Werbung ein und schränken die Inhalte in keinster Weise bei Benutzung von Addblockern ein. Dadurch ist die Grundfunktionalität des Forums auch bei vollständigem Blockieren von Drittanbieter-Inhalten stets gegeben.

Cookies werden unsererseits nur verwendet um das Einloggen des Benutzers für die Dauer der Forenbenutzung zu speichern. Es steht dem Benutzer frei die Option 'Angemeldet bleiben' zu verwenden, damit der Cookie dauerhaft gespeichert bleibt und beim nächsten Besuch kein erneutes Einloggen mehr notwendig ist.
EMail-Adressen werden für Kontakt bei wichtigen Mitteilungen und zur Widerherstellung des Passwortes verwendet. Die verwendeten IPs können von uns ohne externe Hilfsmittel mit keiner realen Person in Verbindung gebracht werden und werden nach spätestens 7 Tagen gelöscht. Diese IPs werden höchstens verwendet um Neuanmeldungen unerwünschter oder gesperrter Nutzer zu identfizieren und zu unterbinden. Wir behalten uns daher vor bei Verdacht, die Frist für die IP-Löschung auf maximal 14 Tage zu verlängern.
Unsere Webseite läuft auf einem virtuellen Linux-Server, welcher von einem externen Anbieter gehostet wird. Etwaige Verstöße der DSGVO-Auflagen seitens dieses deutschen Hosters können wir nicht feststellen und somit auch nicht verfolgen.
Wir halten Backups unserer Datenbanken, welche in regelmäßigen Abständen als Schutz vor Katastrophen, Hackerangriffen und sonstigen Ausfällen erstellt werden. Sollte ein Nutzer die Löschung seiner Daten wünschen, betrachten wir es als Unzumutbar die Backups auch von den Daten zu befreien, da es sich hierbei um eine mehrtägiges Unterfangen handelt - dies ist für eine Einzelperson beim Betrieb eines privaten Forums nicht zumutbar möglich ohne das Backup komplett zu löschen.
Sollten Sie etwas gegen die dauerhafte anonyme Speicherung ihrer EMail-Adresse, ihres Pseudonyms und ihrer Beiträge in einem Backup haben, sehen Sie von der Registrierung in diesem Forum ab. Für Mitglieder, welche vor dem 25.05.2018 registriert waren steht jedoch das Recht im Raum, eine Löschung der Datenbank-Backups zu beantragen.



Wenn dies Ihr erster Besuch hier ist, lesen Sie bitte zunächst die FAQs sowie die wesentlichen Regeln zur Benutzung des Forums.
Um an den Diskussionen teilnehmen zu können, müssen Sie sich zunächst registrieren.

Algorithmen auf dem Richterstuhl

Wissenschaftsgeschichte, Wissenschaftstheorie bzw. -philosophie, Technik
Benutzeravatar
Dgoe
wohnt hier!
wohnt hier!
Beiträge: 398
Registriert: 20. Nov 2017, 17:32

Re: Algorithmen auf dem Richterstuhl

Beitrag von Dgoe » 3. Feb 2018, 12:57

Hallo Tom,

zu dem Algorithmus steht dort:
tomS hat geschrieben:
1. Feb 2018, 23:10
Aufgrund der Rechtsunsicherheit nimmt der Hersteller die Software vom Markt
Den Faden weitergesponnen: "Woraufhin ein anderer Hersteller mit einer Software, die für egal welchen Menschen und wieviele Menschen den gleichen Wert einsetzt und mit beanstandsloser Zulassung fast zum Marktführer wird.

Einziger verbliebene führende Konkurrent, ein Hersteller, der solch eine Berechnung ganz außen vor lässt und die verbliebene Rechenzeit für die Interpretation des fortlaufenden Inputs und für die Berechnung nutzt, wie die Insassen bestmöglichst überleben innerhalb eines vertretbaren Ausweich-, bzw. Bremsmanövers."


Mir fällt zufällig etwas ganz anderes ein, in dem Zusammenhang: Wie sieht es eigentlich mit externen Airbags aus? Muss ich mal googeln...


Gruß,
Dgoe
Der Optimist glaubt, dass wir in der besten aller möglichen Welten leben. Der Pessimist befürchtet, dass der Optimist damit Recht hat.

ralfkannenberg
Ehrenmitglied
Ehrenmitglied
Beiträge: 3587
Registriert: 13. Jan 2017, 10:00

Re: Algorithmen auf dem Richterstuhl

Beitrag von ralfkannenberg » 3. Feb 2018, 17:05

tomS hat geschrieben:
3. Feb 2018, 11:18
Nun, mein Algorithmus steht immer noch da und darf gerne kritisiert oder modifiziert werden.
Hallo Tom,

an diese Stelle eine Frage: Dein Algorithmus ist doch zunächst einmal klassisch. Wo kommt da konkret die AI ins Spiel ?


Freundliche Grüsse, Ralf

Benutzeravatar
tomS
Ehrenmitglied
Ehrenmitglied
Beiträge: 10670
Registriert: 19. Nov 2007, 20:29

Re: Algorithmen auf dem Richterstuhl

Beitrag von tomS » 3. Feb 2018, 18:02

Ich hatte dies bereits erklärt.

In der aktuellen Version stellt die KI Funktionen wie Mustererkennung bereit, um die "Objekte" zu identifizieren und zu kategorisieren. Die Bewertungsfunktion ist dann klassisch implementiert.

Eine Alternative wäre, auch die Funktion OnImminentCrash() mittels eines neuronalen Netzes zu zu implementieren. Dazu müsste man diesem während der Lernphase Szenarien vorgeben und die Reaktion erlernen lassen. Das erfordert jedoch wiederum, eine Bewertungsfunktion für die "Objekte" oder Szenarien während der Lernphase vorzugeben. Letztlich wird das Erlernen sowie die Reaktion dann unvollständig und nicht mehr nachvollziehbar im neuronalen Netz erfolgen, das Grundproblem der Existenz einer Bewertungsfunktion bleibt jedoch bestehen.

Anders formuliert: ich definiere - so wie in meiner o.g. Story - Bewertungskriterien und Werte für Menschen. Ob ich diese während der Lernphase zur Anwendung bringe oder erst während der Betriebsphase, ist ein irrelevantes Detail.
Gruß
Tom

Der Wert eines Dialogs hängt vor allem von der Vielfalt der konkurrierenden Meinungen ab.
Sir Karl R. Popper

Benutzeravatar
Frank
Ehrenmitglied
Ehrenmitglied
Beiträge: 6164
Registriert: 12. Dez 2005, 23:22
Wohnort: Odenwald

Re: Algorithmen auf dem Richterstuhl

Beitrag von Frank » 3. Feb 2018, 18:11

Ich möchte alle Diskussionsteilnehmer darum bitten, zukünftig das ständige, gebetsmühlenartige Wiederholen sein zu lassen.
Das zerstört den ganzen Faden und werde das zukünftig behandeln wie ein Doppelpost und diese kommentarlos löschen.
Es wollen vieleicht noch Stille Mitlesen hier teilhaben und die verlieren sonst den Überblick.
Mit freundlichen Grüßen

Frank

Benutzeravatar
tomS
Ehrenmitglied
Ehrenmitglied
Beiträge: 10670
Registriert: 19. Nov 2007, 20:29

Re: Algorithmen auf dem Richterstuhl

Beitrag von tomS » 3. Feb 2018, 18:29

Ergänzung zur Bewertung:


1) Im Falle eines Ausweichmanövers:

OnImminentCrash()
{
...

allObjects.sort( value );
target = allObjects.front();
setDirection( target );

...
}



2) Im Falle des Selbstlernens mit der Bewertung eines Szenarios:

EvalScenario()
{
...

Sum( allObjects, value );

...
}



Es wird über die Werte aller existierenden Objekte summiert (wobei man nun noch zwischen dem Wert eines lebenden und eines toten Menschen unterscheiden muss; am einfachsten setzt man für einen Toten den Wert Null an).

Anhand dieser Evaluierung wird einem Szenario ein Wert zugeordnet. Eine Reaktion auf ein bestimmtes Szenario kann bewertet werden, indem der Wert des Szenarios mit dem des aus der Reaktion resultierenden Szenarios verglichen wird. Die Bewertungsfunktion value(), die auf einzelne Objekte anzuwenden wäre, ist für (1) und (2) identisch.
Gruß
Tom

Der Wert eines Dialogs hängt vor allem von der Vielfalt der konkurrierenden Meinungen ab.
Sir Karl R. Popper

Benutzeravatar
Dgoe
wohnt hier!
wohnt hier!
Beiträge: 398
Registriert: 20. Nov 2017, 17:32

Re: Algorithmen auf dem Richterstuhl

Beitrag von Dgoe » 3. Feb 2018, 19:21

@Frank: Wie jetzt?

Gerade wollte ich Gebetsmühlenartig etwas wiederholen. Aber gut, lassen wir das, interessiert mich mittlerweile auch kaum noch, ob ein gemeinsamer Konsens gefunden werden kann, aber iwie auch doch, schon noch.

Ich verstehe @TomS sehr gut, meine ich, bei so einem übersichtlichen Algorithmus zumindest, bin aber anderer Meinung und diese Meinungsverschiedenheit ist auch nichts persönliches, lässt sich vielleicht aber durch immer weiter eingrenzende "Wiederholungen" und zusätzliche Argumente und/oder Ausräumung von Missverständnissen konkretisieren.

Ich hab andererseits aber auch alles längst gesagt, stimmt schon.

Ich bin als Laie auch vielmehr an Toms geschätzten Beiträgen in anderen Threads interessiert und beende meine Beteiligung hier in diesem.

Gruß,
Dgoe
Der Optimist glaubt, dass wir in der besten aller möglichen Welten leben. Der Pessimist befürchtet, dass der Optimist damit Recht hat.

ralfkannenberg
Ehrenmitglied
Ehrenmitglied
Beiträge: 3587
Registriert: 13. Jan 2017, 10:00

Re: Algorithmen auf dem Richterstuhl

Beitrag von ralfkannenberg » 3. Feb 2018, 19:44

Frank hat geschrieben:
3. Feb 2018, 18:11
Ich möchte alle Diskussionsteilnehmer darum bitten, zukünftig das ständige, gebetsmühlenartige Wiederholen sein zu lassen.
Das zerstört den ganzen Faden und werde das zukünftig behandeln wie ein Doppelpost und diese kommentarlos löschen.
Es wollen vieleicht noch Stille Mitlesen hier teilhaben und die verlieren sonst den Überblick.
Hallo Frank,

ich weiss offen gestanden auch nicht weiter - schon das Set der Voraussetzungen ist unklar, in welchem Thread welche Voraussetzungen gelten, was trivial ist und was unrealistisch ist, weil zuviele Menschen keine Lust haben, einfache Massnahmen umzusetzen etc. etc.

Vielleicht ist es einfach noch zu früh solche Inhalte zu erörtern.

Meine persönliche Meinung kennt Ihr: die Anwendung einer solchen Bewertungsfunktion lehne ich zum jetzigen Zeitpunkt im vollen Umfang und ausnahmefrei ab, da man meines Erachtens dank einfacher Massnahmen auch ohne eine solche Anwendung die Vorteile der AI nutzen und die Zahl der Todesopfer massiv reduzieren kann. Und auch soll !

Und wenn es dann immer noch zu einem Unfall kommt, dann sollten die bereits bestehenden gesetzlichen Vorgaben genügend sein, den Fall zu qualifizieren, die Verantwortlichkeiten herauszuarbeiten und dann gegebenenfalls Sanktionierungen auszusprechen.

Ich will nun aber vorerst wieder auf der Zuschauerbank Platz nehmen und schauen, welche weitere interessante Ideen, auf die ich mich sehr freue, genannt werden; Threads hierzu gibt es nun ja genügend.


Freundliche Grüsse, Ralf

Benutzeravatar
Frank
Ehrenmitglied
Ehrenmitglied
Beiträge: 6164
Registriert: 12. Dez 2005, 23:22
Wohnort: Odenwald

Re: Algorithmen auf dem Richterstuhl

Beitrag von Frank » 3. Feb 2018, 20:52

ralfkannenberg hat geschrieben:
3. Feb 2018, 19:44
Ich will nun aber vorerst wieder auf der Zuschauerbank Platz nehmen ....
Vieleicht wäre es einfach mal gut einen Mittelweg zu finden und nicht von einem Extrem ins Andere zu fallen. :wink:

Zum Abschluß möchte ich noch sagen das es zu dem Thema viele interssante Meinungen hier gibt, aber ganz wenig Juristisches.
Ich gebe dir Recht Ralf, dass die bestehende Rechtsprechung hier bereits ausreicht, oder Umständen nur im Detail ergänzt werden muss.


Wer als Programmierer mit der Materie seelisch nicht zu recht kommt, der soll halt umsatteln. (Gibt ja genug andere Bereiche)


Klingt jetzt banal, aber so sehe ich die Sache.

Was soll denn da ein Ing. sagen, der Waffentechnik entwickelt? ;j
Mit freundlichen Grüßen

Frank

Benutzeravatar
tomS
Ehrenmitglied
Ehrenmitglied
Beiträge: 10670
Registriert: 19. Nov 2007, 20:29

Re: Algorithmen auf dem Richterstuhl

Beitrag von tomS » 4. Feb 2018, 11:45

ATGC hat geschrieben:
3. Feb 2018, 18:51
angepasstes Fahren
Im Regelfall läuft das auf Abstand halten hinaus. Problematisch wird es allenfalls in Dilemma-Situationen, wo auch eine Vollbremsung nicht mehr hinreichend ist, um eine Kollision mit Personenschaden zu vermeiden. Aber auch dann dürfte eine Vollbremsung das Mittel der Wahl sein, statt mit Vollgas weiter zu fahren, damit die eigenen Insassen bei der Kollision infolge des Bremsvorgangs nicht zu Schaden kommen. Das ist dann eine Frage der Programmierung und nicht eine der Entscheidung durch alternatives Abwägen, wie es eine KI mit Selbstbewusstsein vielleicht vornehmen würde.
Ich denke, wir sind uns einig, das man das fast vollumfänglich durch andere Maßnahmen als mittels (ggf. umstrittener) KI hinbekommt.

ATGC hat geschrieben:
3. Feb 2018, 18:51
die Situation beim finalen Rettungsschuss, einem drohenden Angriffskrieg, Tyrannenmord u.ä.
Hier ist das Problem die Entscheidung, wer als tötenswürdig eingestuft wird und wer nicht. Und da kommt es auf hinreichende Erkennungsmerkmale an, die zur Entscheidungsfindung Anlass geben. Eine ferngelenkte Drohne heutzutage trifft keine eigene Entscheidung, sondern erhält den Feuerbefehl durch eine dafür autorisierte Person.

Interessant wird es, wenn die Entscheidungsfindung, wer als tötenswürdig bestimmt wird sowie ob und wann der finale Schuss abgefeuert wird, von der Drohne selbst vorenommen wird. Hierzu müssten seitens der Programmierer Kriterien festgelegt werden, die eine Person als tötenswürdig charakterisieren. Und da kommen dann politische Interessen ins Spiel, die nicht generalisierbar sind.
Das Beispiel war von mir noch ohne den Hintergedanken "KI" gemeint. Es zeigt m.E., dass die oberste Prämisse "Bewahrung menschlichen Lebens" bereits in bekannten Situationen ohne KI nicht ausreichend ist.

Wenn man diese "Entscheidung" nun auf eine KI überträgt, geschieht doch letztlich folgendes: bisher wurden Entscheidungskriterien z.B. politisch festgelegt, anschließend wurde ein Drohnenpilot beauftragt, sie 1:1 umzusetzen. Pflanzt man dieselben Kriterien einer autonomen Drohne ein, ändert sich zunächst in der Sache = in jeder einzelnen Situation und für jedes einzelne Ziel nichts; die selbe Entscheidung wird lediglich an einem anderen Ort und zu einer anderen Zeit getroffen.

Was sich jedoch ändert ist, dass man eine autonome Drohne mit Tötungsprogramm geschaffen hat. Ab diesem Zeitpunkt ist man in der Lage, dieses autonom ablaufen zu lassen, d.h. dass sich z.B. Politiker nicht mehr im Einzelfall entscheiden müssen, sondern dass sie ein einmal festgelegtes Muster in allen weiteren Fällen vollständig ohne eigene Beteiligung durch allein die Drohnen ausführen lassen.

Die wesentliche Änderung findet also gar nicht in der Drohne selbst statt, sondern im Nutzungsverhalten der Drohne.

ATGC hat geschrieben:
3. Feb 2018, 18:51
Einführung einer neuen Technologie
Wer führt eine neue Technologie zu welchem (und vor allen Dingen wessen) Interesse ein? Diese Frage sollte nicht durch eine KI entschieden werden, sondern sukzessive durch die Personen, die in den entsprechenden Institutionen staatlicher und privater Organisationen Verantwortung tragen.
Auch in diesem Beispiel ging es mir lediglich darum, zu zeigen, dass die oberste Prämisse "Bewahrung menschlichen Lebens" bereits in bekannten Situationen ohne KI nicht ausreichend ist.

ATGC hat geschrieben:
3. Feb 2018, 18:51
Insbs. müssen Menschenwürde und allgemeine Menschenrechte eine Rolle spielen.
Ja, aber auch diese beiden Kriterien bedürfen einer plausiblen Begründung ihrer Relevanz für eine KI. Schließlich betreffen diese nur die Menschen. Eine hinreichend komplex denkende KI kann sich eigene Moralbegriffe und Rechtsnormen zurechtlegen, denen sie dann die Priorität einräumt. Menschen fallen dann eventuell auf den Status von Haustieren herab, derer man sich jederzeit entledigen kann, sobald sie beginnen, unbequem oder gar gefährlich zu werden.
Ich sehe zunächst mal Menschenrechte als Rechte von Menschen als höherwertig an als Rechte von KIs.

Tatsächlich ist es jedoch so, dass bei hinreichend intelligenten KIs das Problem entstehen könnte, dass diese per se schützenswert sind, weil sie letztlich uns schützen. Z.B. genießen Polizisten besondere Rechte, weil sie als Teil eines Verfassungsorgans unseren Staat und unsere Gemeinschaft schützen. Wäre es denkbar, derartige Rechte auf eine KI zu übertragen? Wäre es denkbar, dass eine bestimmte KI in einer Konfliktsituation bevorzugt zu schützen ist, einfach weil es sich um eine Polizei-KI handelt?

Ich sehe dabei erhebliche Probleme, selbst wenn diese KIs noch keinen eigenen Moralbegriff entwickelt haben.
ATGC hat geschrieben:
3. Feb 2018, 18:51
Plausible Begründungen für diese Art von Umwertung und Umwürdigung lassen sich hierbei problemlos konstruieren, so dass auch eine KI dazu jederzeit in der Lage ist, sobald sie dazu in der Lage sein kann und die nötigen Machtmittel verfügt, um die vorgenommene Umwertung dann auch zum Durchbruch zu verhelfen.
Das wäre die fast schon logische Konsequenz, wenn man KIs immer mehr Befugnisse überträgt, weil sie letztlich die "besseren" Entscheidungen in uns überfordernden komplexen Situationen treffen.

Eine andere Alternative, die zumindest aus der Zwickmühle "Mensch vs. KI" heraushilft, ist die mittelfristige Verschmelzung von Mensch und KI gemäß Kurzweil.
Gruß
Tom

Der Wert eines Dialogs hängt vor allem von der Vielfalt der konkurrierenden Meinungen ab.
Sir Karl R. Popper

Benutzeravatar
tomS
Ehrenmitglied
Ehrenmitglied
Beiträge: 10670
Registriert: 19. Nov 2007, 20:29

Re: Algorithmen auf dem Richterstuhl

Beitrag von tomS » 4. Feb 2018, 11:52

Frank hat geschrieben:
3. Feb 2018, 20:52
Ich gebe dir Recht Ralf, dass die bestehende Rechtsprechung hier bereits ausreicht, oder Umständen nur im Detail ergänzt werden muss.
Wenn du das so siehst, dann muss es für dich ja ein leichtes sein, zunächst als Politiker für die von mir genannte Bewertungsfunktion grob die Eckpunkte in einem Gesetz zu fixieren (das mit dem Grundgesetz vereinbar sein muss) sowie anschließend die Bewertung für Menschen und Menschengruppen im Detail festzulegen.
Gruß
Tom

Der Wert eines Dialogs hängt vor allem von der Vielfalt der konkurrierenden Meinungen ab.
Sir Karl R. Popper

Benutzeravatar
seeker
Ehrenadmin
Ehrenadmin
Beiträge: 8098
Registriert: 26. Dez 2009, 10:29

Re: Algorithmen auf dem Richterstuhl

Beitrag von seeker » 4. Feb 2018, 12:52

Ich denke, wir sollten die Diskussion besser strukturieren, zunächst in:

I. Nähere Zukunft
II. Fernere Zukunft

Dazu wären m.E. getrennte Threads sinnvoll.


Dann sollte man unterscheiden zwischen:

a) Ethische Fragen (was soll sein)
b) Gesellschaftliche Fragen (was wird wahrscheinlich sein)



Ansonsten möchte ich an der Stelle versuchen ein paar aus meiner Sicht wichtige Dinge aus diesem Thread kurz zusammenzufassen (ich beziehe mich hier auf I., II. sollte in einen anderen Thread):


1. Gibt es ein ethisches Problem durch die Einführung von KIs?
Ja, das gibt es.
Nebenfrage: Wie groß/dramatisch ist das Problem?

2. Ist es möglich dieses Problem durch technische Maßnahmen, geschickte Programmierung, bessere Infrastruktur, Schulung der Leute, etc. vollständig zu lösen?
Nein, das ist es nicht.

3. Ist es möglich das Problem durch 2. abzuschwächen?
Selbstverständlich, Abschwächungen und Verschlimmerungen sind immer möglich.
Nebenfrage: Wie weit ist es abschwächbar und wie schlimm/dramatisch/neu wäre das Problem dann noch?

4. Wird die Einführung von KIs gesellschaftliche Auswirkungen und Auswirkungen auf unser tägliches Leben haben?
Mit hoher Sicherheit ist davon auszugehen.
Nebenfrage: Welche? Worauf sollte man sich einstellen?

5. Ist es möglich die Einführung von KIs zu verhindern?
Realistisch gesehen natürlich nicht, nicht in der Breite.

6. Ist es möglich die Verwendung von KIs einzuschränken, zu regulieren?
Ja, ist es.
Nebenfrage: Inwieweit? Was ist hier realistisch?

7. Ist die Einführung von KIs unter der derzeitigen Gesetzeslage möglich?
In Bereichen, die derzeit als unkritisch angesehen werden ja, in kritischeren Bereichen nein.
Nebenfragen: Auf welche Änderungen können wir uns realistisch gesehen einstellen? Welche Änderungen wären vernünftig?

8. In welcher Form, in welcher Art und Weise werden wir es wahrscheinlich mit den KIs zu welchem Zeitpunkt zu tun bekommen (Roadmap)?


Ich schlage vor die Frage 2. abzuschließen, das sollte doch nun geklärt sein.
Frage 1. und 3. sind m. E. eigentlich auch schon gut durchleuchtet, nur evtl. die Nebenfragen noch nicht.
Grüße
seeker


Wissenschaft ... ist die Methode, kühne Hypothesen aufstellen und sie der schärfsten Kritik auszusetzen, um herauszufinden, wo wir uns geirrt haben.
Karl Popper

Benutzeravatar
tomS
Ehrenmitglied
Ehrenmitglied
Beiträge: 10670
Registriert: 19. Nov 2007, 20:29

Re: Algorithmen auf dem Richterstuhl

Beitrag von tomS » 4. Feb 2018, 13:25

seeker hat geschrieben:
4. Feb 2018, 12:52
1. Gibt es ein ethisches Problem durch die Einführung von KIs?
Ja, das gibt es.

2. Ist es möglich dieses Problem durch technische Maßnahmen, geschickte Programmierung, bessere Infrastruktur, Schulung der Leute, etc. vollständig zu lösen?

3. Ist es möglich das Problem durch 2. abzuschwächen?
Selbstverständlich, Abschwächungen und Verschlimmerungen sind immer möglich.

4. Wird die Einführung von KIs gesellschaftliche Auswirkungen und Auswirkungen auf unser tägliches Leben haben?
Mit hoher Sicherheit ist davon auszugehen.

5. Ist es möglich die Einführung von KIs zu verhindern?
Realistisch gesehen natürlich nicht, nicht in der Breite.

6. Ist es möglich die Verwendung von KIs einzuschränken, zu regulieren?
Ja, ist es.

7. Ist die Einführung von KIs unter der derzeitigen Gesetzeslage möglich?
In Bereichen, die derzeit als unkritisch angesehen werden ja, in kritischeren Bereichen nein.

8. In welcher Form, in welcher Art und Weise werden wir es wahrscheinlich mit den KIs zu welchem Zeitpunkt zu tun bekommen (Roadmap)?


Ich schlage vor die Frage 2. abzuschließen, das sollte doch nun geklärt sein.
Frage 1. und 3. sind m. E. eigentlich auch schon gut durchleuchtet, nur evtl. die Nebenfragen noch nicht.
Dem stimme ich zu.
Gruß
Tom

Der Wert eines Dialogs hängt vor allem von der Vielfalt der konkurrierenden Meinungen ab.
Sir Karl R. Popper

Benutzeravatar
tomS
Ehrenmitglied
Ehrenmitglied
Beiträge: 10670
Registriert: 19. Nov 2007, 20:29

Re: Algorithmen auf dem Richterstuhl

Beitrag von tomS » 4. Feb 2018, 15:27

ATGC hat geschrieben:
4. Feb 2018, 14:08
Es zeigt m.E., dass die oberste Prämisse "Bewahrung menschlichen Lebens" bereits in bekannten Situationen ohne KI nicht ausreichend ist.
Ach doch, die Prämisse repräsentiert das anzustrebende Ideal. Inwiefern es praktisch umsetzbar ist, entscheidet sich u.a. in solchen Dilemma-Situationen.

Beispiel: Das verpatzte Hitler-Attentat von Stauffenberg. Wäre es geglückt, wäre der Zweite Weltkrieg eher vorbei gewesen und einige Millionen Menschen hätten nicht noch sterben müssen. Da es scheiterte, wurde der Krieg bis zur finalen Katastrophe ausgefochten, was auf die Nachkriegsgeneration gerade wegen der katastrophalen Folgen dahingehend motivierend wirkte, so etwas unter allen Umständen künftig zu vermeiden.
Und genau dieses Beispiel zeigt, dass diese oberste Prämisse alleine unzureichend ist, weil sie uns nicht sagt, welche und wieviele gegenwärtige oder zukünftige Leben wie abzuwägen wären.

ATGC hat geschrieben:
4. Feb 2018, 14:08
Verheerende kurzfristige Folgen haben also langfristig einen stabilisierenden Effekt gehabt - eben wegen der Monstrosität der geschaffenen Fakten. Geschichtsprognosen sind halt immer zweischneidig und man läuft Gefahr, dabei stets in Zynismus abzugleiten, wenn man potentielle Menschenopfer als Rechengröße benutzt, um Handeln oder Nichthandelnb zu rechtfertigen.
Rückblickend magst du recht haben. Aber in der konkreten Situation, der Entscheidung die Bombe zu bauen - oder nicht, bzw. sie abzuwerfen - oder nicht, hilft diese Prämisse alleine überhaupt nicht.

ATGC hat geschrieben:
4. Feb 2018, 14:08
Die wesentliche Änderung findet also gar nicht in der Drohne selbst statt, sondern im Nutzungsverhalten der Drohne.
Die wesentliche Änderung ist nicht das Nutzungsverhalten (ob mit oder ohne menschlichen Befehl bleibt es beim Töten) sondern das Verhalten der Drohne, die nun nicht mehr von Außen gesteuert wird, sondern sich selbst von Innen steuert, indem sie den Tötungsakt autonom vornimmt. Und das ist dann schon wesentlich, weil dem menschlichen Zugriff entzogen - und damit un-menschlich.
So meine ich das nicht.

Wenn in jedem konkreten Einzelfall Menschen konkret entscheiden, dann ist es ziemlich egal, ob sie diese Entscheidung auf ein Papier schreiben oder in ein Computerprogramm eintippen.

Fakt ist aber, dass sie mit der Entwicklung des Computerprogramms nicht mehr in jedem Einzelfall konkret entscheiden. Sie tun dies sicher einigemale während der Erprobungsphase, später nicht mehr. Zu Beginn bestätigen sie jede Entscheidung der Drohne zur Sicherheit, später nicht mehr. Dabei ändert sich im Zuge dieser Autonomisierung nichts Wesentliches der Programmierung der Drohne, sondern am Nutzungsverhalten. Man glaubt, dass sie funktioniert, also darf sie alleine entscheiden.

Man kann dies sogar somit der Software implementieren, dass diese völlig unverändert bleibt: wenn die Drohne ein potentielles Ziel identifiziert hat, fragt bittet sind nicht um eine Bestätigung sondern um den Abbruch ihrer Aktion. Wenn sie innerhalb einer bestimmten Zeit keinen Abbruchbefehl erhält, führt sie die Tötung durch.

Das ist nun nicht ganz das selbe, aber im Kern zeigt es, das es immer noch der Mensch ist, der entscheidet, dass die Drohne autonom und allein handeln dar.

ATGC hat geschrieben:
4. Feb 2018, 14:08
Wäre es denkbar, dass eine bestimmte KI in einer Konfliktsituation bevorzugt zu schützen ist, einfach weil es sich um eine Polizei-KI handelt?
Natürlich ist das denkbar. Und in sensiblen Bereichen ist das heute auch schon Alltag - auch wenn es noch keine ausgereiften KI's betrifft. Man denke nur an die Steuerung und Regelung von Energieversorgung. Das sind Datenverbundsysteme, die bereits heute einen besonderen Schutzstatus genießen, weil anderenfalls die Maschinerie der modernen Zivilisation sehr schnell kollabieren könnte.
Könntest du dir vorstellen, dass der Begriff "Widerstand gegen die Staatsgewalt" auch für Polizeidrohnen gilt? Nehmen wir an, Polizeidrohnen lösen eine nicht genehmigte Demonstration zunächst friedlich auf. Zuletzt werden jedoch Menschen inhaftiert, weil sie dem Befehl zum Räumen des Platzes nicht folgegeleistet haben.

ATGC hat geschrieben:
4. Feb 2018, 14:08
Mit einem autonom entwickelten Moralbegriff potenziert sich das grundsätzliche Problem der Schutzwürdigkeit einer bestimmten KI, da dann eine Legitimation gegeben ist, die zerstörerisches Handeln gegen menschliche Interessen begründet.
Erschwerend kommt hinzu, dass wir - außer dem Turingtest - keine Methode kennen, um überhaupt entscheiden zu können, ob z.B. ein autonomer Moralbegriff vorliegt. Und ich denke, wir sind uns einig, dass die Anwendung des Turingtests hier höchst fragwürdig wäre.

ATGC hat geschrieben:
4. Feb 2018, 14:08
die mittelfristige Verschmelzung von Mensch und KI gemäß Kurzweil.
... Am Ende verschwindet der Mensch, aber er verschmilzt nicht, wie es sich Kurzweil ausgedacht hat.
Kurzweil spekuliert natürlich; niemand kann das heute absehen.

Die Gefahr besteht letztlich darin, dass wir doch ziemlich sicher sagen können, dass wir heute eine Entwicklung anstoßen, deren Ende völlig offen ist.
Gruß
Tom

Der Wert eines Dialogs hängt vor allem von der Vielfalt der konkurrierenden Meinungen ab.
Sir Karl R. Popper

ralfkannenberg
Ehrenmitglied
Ehrenmitglied
Beiträge: 3587
Registriert: 13. Jan 2017, 10:00

Re: Algorithmen auf dem Richterstuhl

Beitrag von ralfkannenberg » 4. Feb 2018, 16:57

tomS hat geschrieben:
4. Feb 2018, 15:27
Die Gefahr besteht letztlich darin, dass wir doch ziemlich sicher sagen können, dass wir heute eine Entwicklung anstoßen, deren Ende völlig offen ist.
Hallo Tom,

ein wahres Wort.

Und nun: stösst Du diese Entwicklung an oder sistierst Du sie, bis genauere Analysen vorliegen ?


Freundliche Grüsse, Ralf

Benutzeravatar
Frank
Ehrenmitglied
Ehrenmitglied
Beiträge: 6164
Registriert: 12. Dez 2005, 23:22
Wohnort: Odenwald

Re: Algorithmen auf dem Richterstuhl

Beitrag von Frank » 4. Feb 2018, 18:44

tomS hat geschrieben:
4. Feb 2018, 15:27
Die Gefahr besteht letztlich darin, dass wir doch ziemlich sicher sagen können, dass wir heute eine Entwicklung anstoßen, deren Ende völlig offen ist.

Meinst du , du hättest das Monopol auf dieses Dilemma?
Wievielen Erfinder, Forscher, Wissenschaftler haben sich dieselben Fragen in der Vergangenheit schon gestellt?
Manchmal muss man halt einfach mal machen. :wink:
Mit freundlichen Grüßen

Frank

Benutzeravatar
tomS
Ehrenmitglied
Ehrenmitglied
Beiträge: 10670
Registriert: 19. Nov 2007, 20:29

Re: Algorithmen auf dem Richterstuhl

Beitrag von tomS » 4. Feb 2018, 19:27

Frank hat geschrieben:
4. Feb 2018, 18:44
tomS hat geschrieben:
4. Feb 2018, 15:27
Die Gefahr besteht letztlich darin, dass wir doch ziemlich sicher sagen können, dass wir heute eine Entwicklung anstoßen, deren Ende völlig offen ist.
Wievielen Erfinder, Forscher, Wissenschaftler haben sich dieselben Fragen in der Vergangenheit schon gestellt?
Das weiß ich nicht, in bin nicht dabei gewesen.

Aber zu einigen Punkten kann man schon was sagen: Verbrennungsmotoren? vorher Null Diskussion. Plastikverpackungen? vorher Null Diskussion. Kernenergie? vorher Null Diskussion (da geheim). Gentechnik? Ja, da wurde und wird schritthaltend diskutiert.

Wir sind also das erstmal in der Situation, dass wir einigermaßen rechtzeitig in diese Diskussion einsteigen können und - aufgrund der enormen Dynamik - auch müssen.
Frank hat geschrieben:
4. Feb 2018, 18:44
Manchmal muss man halt einfach mal machen.
Mit welcher Zielsetzung und zu wessen Nutzen oder Schaden möchtest du einfach was machen?

Und der o.g. Bewertungsalgorithmus gefällt dir aber auch nicht :-)
Gruß
Tom

Der Wert eines Dialogs hängt vor allem von der Vielfalt der konkurrierenden Meinungen ab.
Sir Karl R. Popper

Benutzeravatar
seeker
Ehrenadmin
Ehrenadmin
Beiträge: 8098
Registriert: 26. Dez 2009, 10:29

Re: Algorithmen auf dem Richterstuhl

Beitrag von seeker » 4. Feb 2018, 19:34

tomS hat geschrieben:
4. Feb 2018, 15:27
Fakt ist aber, dass sie mit der Entwicklung des Computerprogramms nicht mehr in jedem Einzelfall konkret entscheiden. Sie tun dies sicher einigemale während der Erprobungsphase, später nicht mehr.
Das liegt daran, dass ein Programm allgemein programmiert werden muss, alle möglichen speziellen Fälle sind nicht programmierbar, schon deshalb nicht, weil man sie nicht in Gänze vorhersehen kann.
Ich frage an dem Punkt aber immer noch, wo denn der prinzipielle Unterschied ist, wenn etwas allgemein programmiert ist, zu etwas anderem, das allgemein gebaut ist?
Wo ist der Unterschied z.B. zu einem Sicherheitsgurt, der in bestimmbaren sehr seltenen Fällen auch Leben kostet (im Auto eingeklemmt, Genickbruch, etc.)?
Ist es die eindringlicher erscheinende Präzision und Verstehbarkeit eines Programms, die man dann als "Befehl" interpretieren kann?
Ist es deshalb ein Unterschied, weil man es bei einem Programm einfach nicht mehr so leicht ignorieren kann? Was ist es?
Und ist es nun ein kategorischer Unterschied oder ein gradueller?
ATGC hat geschrieben:
4. Feb 2018, 14:08
Irrtümer können sich kurzfristig verheerend auswirken, aber langfristig nachhaltig stabilisierend sein.

Beispiel: Das verpatzte Hitler-Attentat von Stauffenberg. Wäre es geglückt, wäre der Zweite Weltkrieg eher vorbei gewesen und einige Millionen Menschen hätten nicht noch sterben müssen. Da es scheiterte, wurde der Krieg bis zur finalen Katastrophe ausgefochten, was auf die Nachkriegsgeneration gerade wegen der katastrophalen Folgen dahingehend motivierend wirkte, so etwas unter allen Umständen künftig zu vermeiden.
Das Problem ist, dass man es immer erst hinterher sicher weiß - nicht einmal dann.
Das ist auch das Problem mit dem Passagierflugzeugabschuss im Notfall. Ich denke der Utilitarismus ist eine gute Sache, aber man sollte ihn auch nicht übertreiben, sehr viele Menschenleben gegen wenige abzuwägen ist noch naheliegend, kann sogar notwenig sein, aber eine detaillierte Bewertung wie hoch der Wert einer speziellen Person ist, wäre übertrieben, das würde wahrscheinlich eben jene indirekten zersetzenden Folgen haben, von denen du auch sprichst.

Höhere ethische Ziele (was sein soll) muss man sich leisten können, ich garantiere, dass der deutsche Staat das Passagierflugzeugabschussverbot dann kippen würde, wenn tatsächlich einmal ein paar Flugzeuge in Stadien gekracht wären. Letztlich hängt Ethik auch immer davon ab, was IST und was möglich ist, wenn man ehrlich ist.
So ist z.B. Artikel 1 Grundgesetz: "Die Würde des Menschen ist unantastbar." nicht als eine Feststellung der faktischen Realität zu sehen, sondern als eine Handlungsanweisung, was sein soll. Eigentlich müsste es heißen: "Die Würde des Menschen soll so weit wie irgend möglich unangetastet bleiben.", denn faktisch müssen wir zugeben, dass sie sehr wohl angetastet werden kann und auch hier und da zuweilen wird: in Altersheimen, in Gefängnissen, beim Obdachlosen, bei manchen Arbeitgebern, an machen Sterbebetten im Krankenhaus, usw.
Ziele der Ethik

Die Ethik ist von ihrer Zielsetzung her eine praktische Wissenschaft. Es geht ihr nicht um ein Wissen um seiner selbst willen (theoria), sondern um eine verantwortbare Praxis. Sie soll dem Menschen (in einer immer unüberschaubarer werdenden Welt) Hilfen für seine sittlichen Entscheidungen liefern. Dabei kann die Ethik allerdings nur allgemeine Prinzipien guten Handelns oder ethischen Urteilens überhaupt oder Wertvorzugsurteile für bestimmte Typen von Problemsituationen begründen. Die Anwendung dieser Prinzipien auf den einzelnen Fall ist im Allgemeinen nicht durch sie leistbar, sondern Aufgabe der praktischen Urteilskraft und des geschulten Gewissens. Aristoteles vergleicht dies mit der Kunst des Arztes und des Steuermanns. Diese verfügen über ein theoretisches Wissen, das aber situationsspezifisch angewendet werden muss. Entsprechend muss auch die praktische Urteilskraft allgemeine Prinzipien immer wieder auf neue Situationen und Lebenslagen anwenden. Dabei spielt für die richtige sittliche Entscheidung neben der Kenntnis allgemeiner Prinzipien die Schulung der Urteilskraft in praktischer Erfahrung eine wichtige Rolle.
https://de.wikipedia.org/wiki/Ethik#Ziele_der_Ethik

In dem blau gefärbten Satz steckt ein Problem.
Weder der Programmierer einer KI kann das leisten, weil er allgemein programmieren muss und es hier um den speziellen Fall geht, noch die KI selbst, weil sie dafür eine Person mit einem Gewissen sein müsste.

Aber vielleicht sehen wir das Ganze auch falsch:

Führt eine KI tatsächlich "Befehle" aus? Müsste sie dazu nicht eine Person sein? Ist sie nicht vielmehr eine Maschine, die sich im Grunde in nichts von einem komplizierten Räderwerk unterschiedet, vorerst, in der näheren Zukunft jedenfalls?
Trifft eine KI tatsächlich Entscheidungen oder kann es nur so aussehen, erscheint uns das vielleicht nur aus einer bestimmten Perspektive so?
Trifft der Programmierer der KI präzise Entscheidungen für alle speziellen Fälle, wo er doch das Allgemeine programmiert?
Worin liegt der Unterschied zum Gurt? Vielleicht in der Statistik? Aber auch beim Gurt macht man vorher Statistiken... Worin liegt er?
Grüße
seeker


Wissenschaft ... ist die Methode, kühne Hypothesen aufstellen und sie der schärfsten Kritik auszusetzen, um herauszufinden, wo wir uns geirrt haben.
Karl Popper

Benutzeravatar
tomS
Ehrenmitglied
Ehrenmitglied
Beiträge: 10670
Registriert: 19. Nov 2007, 20:29

Re: Algorithmen auf dem Richterstuhl

Beitrag von tomS » 4. Feb 2018, 19:40

ralfkannenberg hat geschrieben:
4. Feb 2018, 16:57
tomS hat geschrieben:
4. Feb 2018, 15:27
Die Gefahr besteht letztlich darin, dass wir doch ziemlich sicher sagen können, dass wir heute eine Entwicklung anstoßen, deren Ende völlig offen ist.
ein wahres Wort.

Und nun: stösst Du diese Entwicklung an oder sistierst Du sie, bis genauere Analysen vorliegen ?
Zumindest sollte es einen gesellschaftlichen Diskurs geben innerhalb dessen vernünftige Rahmenbedingungen erörtert werden D.h. gerade nicht - zumindest nicht vordringlich - genauere Analysen der KIs, sondern auf Basis des heute von Fachleuten vermuteten Potentials der KIs eine Risikoabschätzung, diverse Ausstiegsszenarien sowie ein Entwurf angepasster ethischer Grundsätze (nicht zwingend um diese tatsächlich zu ändern, sondern um die Tatsachen der Verschiebung ethischer Grundsätze ins Bewusstsein zu rufen). Letztlich also nur das, was man bei anderen Technologien verpasst hat und nun versucht nachzuholen.

Es ist schon erstaunlich, dass sogar nicht fortschrittsfeindliche Wissenschaftler hier warnend den Finger heben.
Gruß
Tom

Der Wert eines Dialogs hängt vor allem von der Vielfalt der konkurrierenden Meinungen ab.
Sir Karl R. Popper

Benutzeravatar
tomS
Ehrenmitglied
Ehrenmitglied
Beiträge: 10670
Registriert: 19. Nov 2007, 20:29

Re: Algorithmen auf dem Richterstuhl

Beitrag von tomS » 4. Feb 2018, 19:46

ATGC hat geschrieben:
4. Feb 2018, 19:03
In wessen Entscheidungskompetenz liegt es, ob diese Entwicklung angestoßen oder sistiert wird?
Solange keine fundierten Erkenntnisse über Gefahren vorgebracht werden oder direkt gegen Gesetze verstoßen wird, liegt die Entscheidung bei Forschungseinrichtungen, den Wirtschaftsunternehmen sowie letztlich den Anwendern.
Gruß
Tom

Der Wert eines Dialogs hängt vor allem von der Vielfalt der konkurrierenden Meinungen ab.
Sir Karl R. Popper

Benutzeravatar
tomS
Ehrenmitglied
Ehrenmitglied
Beiträge: 10670
Registriert: 19. Nov 2007, 20:29

Re: Algorithmen auf dem Richterstuhl

Beitrag von tomS » 4. Feb 2018, 20:24

seeker hat geschrieben:
4. Feb 2018, 19:34
tomS hat geschrieben:
4. Feb 2018, 15:27
Fakt ist aber, dass sie mit der Entwicklung des Computerprogramms nicht mehr in jedem Einzelfall konkret entscheiden. Sie tun dies sicher einigemale während der Erprobungsphase, später nicht mehr.
Das liegt daran, dass ein Programm allgemein programmiert werden muss, alle möglichen speziellen Fälle sind nicht programmierbar, schon deshalb nicht, weil man sie nicht in Gänze vorhersehen kann.
Ja, das ist sicher ein Punkt, aber nicht der, auf den ich hinauswollte.

Man kann die autonome Drohne mit einer allgemeinen KI ausstatten. Aber das ist kein wesentlicher Unterschied zu den heutigen Drohnen.

Der Unterschied ist, dass die heutigen Drohen abhängig sind, während die autonomen dies ebenfalls sein können, wenn man sie nicht frei lässt - oder auch nicht, d.h. unabhängig sind, wenn man sie tatsächlich frei lässt. Mein Beispiel war, dass die immer stattfindende Rückfrage an den Befehlsleitstand einen "Timeout" eingebaut bekommt. Während eine nicht freie, jedoch technisch autonome Drohne eine Tötungsaktion nicht durchführt, wenn sie innerhalb einer bestimmten Zeit keine Bestätigung erhält, würde eine freie Drohne die Tötungsaktion dann einfach durchführen.

Der wesentlichen Unterschied liegt m.E. nicht in diesen wenigen Zeilen Programmcode, sondern in der Art und Weise wie der Mensch damit umgeht. Zunächst wird er jede einzelne Aktion genau überwachen und jede Aktion bestätigen. Später tritt dann eine Art Gewöhnungseffekt ein - "die Drohne wird das schon richten" - und zuletzt ist sie aufgrund von Faulheit oder Gewöhnung tatsächlich frei.

Freigelassen hat sie aber der Mensch. Das Programm der Drohne wurde nie modifiziert.

seeker hat geschrieben:
4. Feb 2018, 19:34
Ist es die eindringlicher erscheinende Präzision und Verstehbarkeit eines Programms, die man dann als "Befehl" interpretieren kann?
Ist es deshalb ein Unterschied, weil man es bei einem Programm einfach nicht mehr so leicht ignorieren kann? Was ist es?
Und ist es nun ein kategorischer Unterschied oder ein gradueller?
Es ist m.E. die Tatsache, dass der Mensch zusammen mit der Entscheidung vermeintlich auch die Verantwortung und letztlich die Schuld überträgt.

Im Falle des Airbags liegt die Entscheidung bei einem Sensorsystem, die Verantwortung liegt beim Autobauer. Im Falle der autonomen und freien Drohne liegt die Entscheidung bei der Drohne, und die Verantwortung bzw. Schuld vermeintlich auch.

Es ist m.E. genau dies der eklatante Verstoß gegen die Menschenwürde des potentiellen Opfers, dass der Mörder (ein Mensch) sogar diese Verantwortung für ein Verbrechen nicht mehr tragen möchte und sie an einen Automaten delegiert. Das trifft auch dann zu, wenn es sich - wie beim autonomen Fahren - sicher nicht um Mord handelt (es gibt m.E. heute keinen geeigneten Begriff dafür).

Die Verantwortung für den Tod eines Menschen muss beim Menschen bleiben, das ist man dem potentiellen Opfer schuldig.

Und wenn man dies akzeptiert, dann muss man sich die Frage gefallen lassen, bei welchem konkreten Menschen oder welcher Personengruppe diese Schuld konkret bleiben soll (Politiker, technischer Experte, Programmierer, ...). Darüber wäre zu diskutieren.

Möchte die Gesellschaft, dass der Verkehrsausschuss des deutschen Bundestages die Bewertungsfunktion für autonome Fahrzeuge als Gesetz festschreibt? Nein? Wer dann ? Keiner? Dann gibt es kein autonomes Fahren.

seeker hat geschrieben:
4. Feb 2018, 19:34
Ziele der Ethik
Die Ethik ist von ihrer Zielsetzung her eine praktische Wissenschaft. Es geht ihr nicht um ein Wissen um seiner selbst willen (theoria), sondern um eine verantwortbare Praxis. Sie soll dem Menschen (in einer immer unüberschaubarer werdenden Welt) Hilfen für seine sittlichen Entscheidungen liefern. Dabei kann die Ethik allerdings nur allgemeine Prinzipien guten Handelns oder ethischen Urteilens überhaupt oder Wertvorzugsurteile für bestimmte Typen von Problemsituationen begründen. Die Anwendung dieser Prinzipien auf den einzelnen Fall ist im Allgemeinen nicht durch sie leistbar, sondern Aufgabe der praktischen Urteilskraft und des geschulten Gewissens. Aristoteles vergleicht dies mit der Kunst des Arztes und des Steuermanns. Diese verfügen über ein theoretisches Wissen, das aber situationsspezifisch angewendet werden muss. Entsprechend muss auch die praktische Urteilskraft allgemeine Prinzipien immer wieder auf neue Situationen und Lebenslagen anwenden. Dabei spielt für die richtige sittliche Entscheidung neben der Kenntnis allgemeiner Prinzipien die Schulung der Urteilskraft in praktischer Erfahrung eine wichtige Rolle.
https://de.wikipedia.org/wiki/Ethik#Ziele_der_Ethik

In dem blau gefärbten Satz steckt ein Problem.
Weder der Programmierer einer KI kann das leisten, weil er allgemein programmieren muss und es hier um den speziellen Fall geht, noch die KI selbst, weil sie dafür eine Person mit einem Gewissen sein müsste.
Also lautet die elementare Forderung, dass es Aufgabe der praktischen Urteilskraft und des geschulten Gewissens bleiben muss.

Und das würde bedeuten, dass wir auf eine Technologie verzichten, wenn diese umgekehrt genau diese Beteiligung des geschulten Gewissens verdrängt.

Ich denke, dass Artikel Eins des Grundgesetzes

(1) Die Würde des Menschen ist unantastbar. Sie zu achten und zu schützen ist Verpflichtung aller staatlichen Gewalt.
(2) Das deutsche Volk bekennt sich darum zu unverletzlichen und unveräußerlichen Menschenrechten als Grundlage jeder menschlichen Gemeinschaft, des Friedens und der Gerechtigkeit in der Welt.

tatsächlich als oberste Prämisse weiterhin ausreichend ist; es stellt den Menschen, die Menschenwürde, die Menschenrechte sowie die menschliche Gemeinschaft in den Mittelpunkt.

Freilich ist es von diesem ausgehend ein weiter und beschwerlicher Weg, entsprechende Gesetze zu schreiben oder existierende zu ergänzen. Aber der Mensch sollte es uns wert sein, diesen Weg zu gehen. Dazu müsste man die Diskussion jedoch verstärkte unter diesem Aspekt führen, nicht nur unter dem des Nutzens.
Gruß
Tom

Der Wert eines Dialogs hängt vor allem von der Vielfalt der konkurrierenden Meinungen ab.
Sir Karl R. Popper

Benutzeravatar
tomS
Ehrenmitglied
Ehrenmitglied
Beiträge: 10670
Registriert: 19. Nov 2007, 20:29

Re: Algorithmen auf dem Richterstuhl

Beitrag von tomS » 4. Feb 2018, 22:00

ATGC hat geschrieben:
4. Feb 2018, 21:44
liegt die Entscheidung bei Forschungseinrichtungen, den Wirtschaftsunternehmen sowie letztlich den Anwendern.
Genau. Und wie die Einführung des Internets gezeigt hat, entwickelt sich daraus eine Eigendynamik, die jeden der Entscheidungsträger wie auch jeden, der sonst davon betroffen ist, wie eine Naturgewalt überrollt, so dass man effektiv hier gar nichts mehr entscheiden kann, sobald man per Legislative die Erlaubnis zum Beginnen gegeben hat. Nachregulationen betreffen dann nur noch Details, aber nicht mehr die Sache als solche.

Sobald die etabliert ist, bleiben nur noch enge Spielräume des Reagierens, aber nicht mehr des Agierens, um hier noch etwas in irgendwelche Bahnen zu lenken. Es ist also eine ambivalente Angelegenheit, die man im Vorfeld bezüglich eventueller negativer Folgen gar nicht überblicken, geschweige denn realistisch einschätzen kann - auch durch Expertengremien nicht, die den Entscheidungsträgern als Beratungshilfe zur Verfügung stehen.

Und bei einer Technologie mit so großem Potential ist mir nicht wohl dabei, wenn man hier legislative Startschüsse unter dem Label "Digitalisierung" abfeuert. Ich bin da eher für ein Innehalten.
Sehe ich auch so (aber muss man das so sehen? was ist mit uns beiden, wenn's jemand anders sieht? wollen bzw. können wir uns verweigern?)

ATGC hat geschrieben:
4. Feb 2018, 21:44
Der wesentlichen Unterschied liegt m.E. nicht in diesen wenigen Zeilen Programmcode, sondern in der Art und Weise wie der Mensch damit umgeht.
Nein anders herum: Die Neuprogrammierung der Drohne öffnet der verantwortungslosen Art und Weise des Umgangs mit dieser Neuprogrammierung Tür und Tor. Ohne diese Umprogrammierung würde das nicht geschehen können. Darum liegt bereits bei der Umprogrammierung der wesentliche Unterschied vor. Der Rest ist dann nur noch der Vollzug aus Bequemlichkeit, wie Du das beschrieben hattest. Den "Dammbruch" begeht derjenige, der dem Programmierer die Anweisung gibt, die Drohne umzuprogrammieren. Und der ist dann seinerseits nur ein Glied in einer Befehlskette. Wie praktisch ...
Hm, weiß nicht:

https://www.heise.de/newsticker/meldung ... 34837.html

"Aus ethischer Sicht besonders heikel ist natürlich der militärische Einsatz von Robotern und KI. Auf den kürzlich vom US-Militär getesteten Roboterschwarm mit 103 Drohnen angesprochen, sagte João Leite, dass Objekte nicht ethisch beurteilt werden könnten, nur Taten. Für diese auffallend defensive Einschätzung erhielt er prompt Kritik aus dem Publikum, dass Waffen grundsätzlich unethisch seien. Man dürfe schließlich auch nicht vergessen, dass Objekte aus Taten hervorgehen: So gibt es Waffen nur, weil sie von Menschen entwickelt werden."

ATGC hat geschrieben:
4. Feb 2018, 21:44
Möchte die Gesellschaft, dass der Verkehrsausschuss des deutschen Bundestages die Bewertungsfunktion für autonome Fahrzeuge als Gesetz festschreibt? Nein? Wer dann ? Keiner? Dann gibt es kein autonomes Fahren.
Schön wäre es. Aber so funktioniert das nun mal nicht im realen Leben. Immerhin locken finanzielle Gewinne und damit Steuereinnahmen ...
Nun, ja, speziell in diesem Fall muss die Programmierung ja aber irgendwoher kommen, sie muss vom TÜV geprüft sein, und sie muss Rechtssicherheit garantieren. Wir können jetzt auf dieverse Verfassungsklagen warten - die es mit Sicherheit geben wird - oder wir könen heute schon darüber nachdenken, wer das denn sein sein sollte. Irgendjemand muss es sein, rein rechtlich gesehen.


ATGC hat geschrieben:
4. Feb 2018, 21:44
Und das würde bedeuten, dass wir auf eine Technologie verzichten, wenn diese umgekehrt genau diese Beteiligung des geschulten Gewissens verdrängt.
Nicht notwendigerweise. Man müsste die KI halt schulen ...
Mir war schon wichtig, dass es da um Menschen und Menschrechte geht. Die Würde des Menschen verlangt m.E., dass über Kernaspekte des menschlichen Lebens auch Mensschen entscheiden!
Gruß
Tom

Der Wert eines Dialogs hängt vor allem von der Vielfalt der konkurrierenden Meinungen ab.
Sir Karl R. Popper

Benutzeravatar
tomS
Ehrenmitglied
Ehrenmitglied
Beiträge: 10670
Registriert: 19. Nov 2007, 20:29

Re: Algorithmen auf dem Richterstuhl

Beitrag von tomS » 4. Feb 2018, 22:04

Terminator und Skynet?

Wer immer noch meint, das wäre Schwarzmalerei, der lese mal diesen Artikel

https://de.wikipedia.org/wiki/Geschicht ... ntelligenz

so ab 2016, sowie exemplarisch diesen Artikel:

https://en.wikipedia.org/wiki/Perdix_(drone)
Gruß
Tom

Der Wert eines Dialogs hängt vor allem von der Vielfalt der konkurrierenden Meinungen ab.
Sir Karl R. Popper

ralfkannenberg
Ehrenmitglied
Ehrenmitglied
Beiträge: 3587
Registriert: 13. Jan 2017, 10:00

Re: Algorithmen auf dem Richterstuhl

Beitrag von ralfkannenberg » 4. Feb 2018, 22:44

Hallo zusammen,

interessant dieses Zitat, 2.Absatz im Kapitel "2017":
Bei einem KI-Experiment im Sommer 2017 entschieden sich zwei Bots nicht mehr mit der ihnen zugewiesenen Sprache Englisch untereinander zu kommunizieren, sondern in einer selbst entwickelten Geheimsprache, die auch von den beteiligten Forschern nicht mehr verstanden wurde. Das Experiment wurde daraufhin abgebrochen. Es entwickelten sich Befürchtungen, dass KIs über das Internet in einer Geheimsprache kommunizieren könnten, ohne dass Menschen dies noch registrieren würden
Interessant, wobei ich nicht verstehe, wie diese beiden Bots überhaupt auf die "Idee" kamen, eine Geheimsprache zu erfinden und in ihr zu kommunizieren.

Zumal es dann noch ein kleiner Schritt gewesen wäre, sich "auszuklinken", damit es eben nichts mehr nutzt, das Experiment abzubrechen. An der Story ist meines Erachtens etwas faul, aber ich habe die beiden zugehörigen Links noch nicht angeschaut.


Freundliche Grüsse, Ralf

ralfkannenberg
Ehrenmitglied
Ehrenmitglied
Beiträge: 3587
Registriert: 13. Jan 2017, 10:00

Re: Algorithmen auf dem Richterstuhl

Beitrag von ralfkannenberg » 4. Feb 2018, 23:08

ATGC hat geschrieben:
4. Feb 2018, 19:03
Hallo Ralf,
stösst Du diese Entwicklung an oder sistierst Du sie, bis genauere Analysen vorliegen ?
Eine sehr gute Frage. In wessen Entscheidungskompetenz liegt es, ob diese Entwicklung angestoßen oder sistiert wird? Kann Tom dazu etwas Substantielles beitragen? Du? Ich? :wn:
Hallo ATGC, hallo zusammen,

obgleich die Diskussion längst weiter geschritten ist will ich auf Deine Frage eingehen. Mit einem Beispiel, damit wir etwas von der AI wegkommen.

Da kommen also unbekannte Leute zu mir und fragen mich, ob ich auf eine Bergtour mitkomme, sie sagen aber nicht, auf welchen Berg. Gehen sie auf den Uetliberg, den Hausberg von Zürich, so ist das kein Problem (obgleich es da auch schon Unfälle gegeben hat), doch wenn sie auf den Mount Everest hochgehen, so werde ich das realistischerweise nicht überleben.

Ich kann nur für mich sprechen, aber mir wäre das Risiko zu hoch, d.h. ich würde das Angebot ablehnen.

Jetzt nehmen wir denselben Fall, jedoch werde ich gezwungen, mitzugehen. Bei der AI wird das ja auch so sein: wenn da entschieden wird, dass die eingeführt wird, so kann ich als Einzelperson mich dagegen nicht zur Wehr setzen, weil ich vor vollendete Tatsachen gestellt werde. Zurück zum Beispiel mit der Bergtour: zwar werde ich gezwungen, mitzugehen, aber ich darf etwas mitnehmen. Dann würde ich vielleicht eine intelligente Drohne mitnehmen, die klug genug ist, um zu erkennen, wenn ich in Schwierigkeiten komme und nicht mehr richtig handlungsfähig bin, und die auch stark genug ist, um mich notfalls eigenmächtig ins Tal hinunterzufliegen.


So denke ich also, dass wir von Anfang an Massnahmen ergreifen müssen, die - wenn die Entwicklung der AI in die falsche Richtung läuft, wobei noch zu definieren wäre, was denn "falsche Richtung" bedeutet - korrigierend eingreift, ehe es zu spät ist.

Und mit grösstem Vorteil implementieren wir unsere AI so, dass sie auch selber korrigierend eingreift, wenn bei ihrer Entwicklung etwas in die falsche Richtung läuft. Dazu muss man der AI aber unabhängige Werte mitgeben, und zwar Werte, die immer und ohne Ausnahme gelten. Denn sobald man Ausnahmen zulässt, lässt man auch einen Interpretationsspielraum zu - so wie bekanntlich Russland und die Türkei viel "richtigere" Demokratien als Deutschland, Grossbritannien oder Frankreich sind. Zumindest in den Augen der Herren Putin und Erdogan. Und zudem haben diese beiden Herren auch die (militärische) Macht, diese "Ansicht" in ihrem Wirkungsbereich durchzusetzen. Das wird also bei der AI und Ausnahmeregelungen je nach Interessenslage der involvierten Parteien nicht minder passieren.


Vielleicht ist die "Erhaltung (menschlichen) Lebens" gar nicht als Wert geeignet, vielleicht sind z.B. "Liebe" und "Barmherzigkeit" besser geeignete Werte. Oder noch andere, das lässt sich jetzt innerhalb weniger Minuten sicherlich nicht eruieren. Vielleicht sind "Sicherheit" und "Redundanz" solche Werte, oder "Programmierung defensiver Massnahmen" und "Robustheit".


Freundliche Grüsse, Ralf

Benutzeravatar
seeker
Ehrenadmin
Ehrenadmin
Beiträge: 8098
Registriert: 26. Dez 2009, 10:29

Re: Algorithmen auf dem Richterstuhl

Beitrag von seeker » 4. Feb 2018, 23:25

tomS hat geschrieben:Der Unterschied ist, dass die heutigen Drohen abhängig sind, während die autonomen dies ebenfalls sein können, wenn man sie nicht frei lässt - oder auch nicht, d.h. unabhängig sind, wenn man sie tatsächlich frei lässt. Mein Beispiel war, dass die immer stattfindende Rückfrage an den Befehlsleitstand einen "Timeout" eingebaut bekommt. Während eine nicht freie, jedoch technisch autonome Drohne eine Tötungsaktion nicht durchführt, wenn sie innerhalb einer bestimmten Zeit keine Bestätigung erhält, würde eine freie Drohne die Tötungsaktion dann einfach durchführen.

Der wesentlichen Unterschied liegt m.E. nicht in diesen wenigen Zeilen Programmcode, sondern in der Art und Weise wie der Mensch damit umgeht. Zunächst wird er jede einzelne Aktion genau überwachen und jede Aktion bestätigen. Später tritt dann eine Art Gewöhnungseffekt ein - "die Drohne wird das schon richten" - und zuletzt ist sie aufgrund von Faulheit oder Gewöhnung tatsächlich frei.

Freigelassen hat sie aber der Mensch. Das Programm der Drohne wurde nie modifiziert.
Richtig, das ist sicherlich ein wesentlicher Punkt.
Aber auch das würde ich im Moment noch als sicher "andere Liga" sehen bei aber "immer noch demselben Spiel".
Zum Vergleich: Auch der Sicherheitsgurt ist sozusagen "freigelassen", sobald er entwickelt, gebaut und dann verbaut ist. Ab dem Moment haben wir sozusagen auch keine Kontrolle mehr, ob er genau das tut was er soll und ob sich nicht ungewollte tragische Situationen ergeben. Den Unerschied sehe ich hier eher im Ausmaß und den Möglichkeiten, also immer noch graduell.
tomS hat geschrieben:Es ist m.E. die Tatsache, dass der Mensch zusammen mit der Entscheidung vermeintlich auch die Verantwortung und letztlich die Schuld überträgt.

Im Falle des Airbags liegt die Entscheidung bei einem Sensorsystem, die Verantwortung liegt beim Autobauer. Im Falle der autonomen und freien Drohne liegt die Entscheidung bei der Drohne, und die Verantwortung bzw. Schuld vermeintlich auch.
"Vermeintlich", vielleicht, das liegt an uns, wie wir das sehen wollen. (Und ich denke so sollten wir es auch nicht sehen: Auch eine freigelassene Drohen trifft nunmal keine "Entscheidungen", das wäre vermenschlichung, wenn wir das so sähen, sie funktioniert ganz einfach programmgemäß, wie eine Taschenuhr, nur komplizierter.)
Tatsächlich kann der Mensch vorerst die Verantwortung nicht an eine tote Maschine übertragen. Es liegt in seiner Verantwortung möglichst sicherzustellen, dass sie so funktioniert wie sie soll.
tomS hat geschrieben:Es ist m.E. genau dies der eklatante Verstoß gegen die Menschenwürde des potentiellen Opfers, dass der Mörder (ein Mensch) sogar diese Verantwortung für ein Verbrechen nicht mehr tragen möchte und sie an einen Automaten delegiert. Das trifft auch dann zu, wenn es sich - wie beim autonomen Fahren - sicher nicht um Mord handelt (es gibt m.E. heute keinen geeigneten Begriff dafür).

Die Verantwortung für den Tod eines Menschen muss beim Menschen bleiben, das ist man dem potentiellen Opfer schuldig.
Das ist sicher ein sehr gutes Argument. Wie gesagt ist für mich die Gretchenfrage dabei, ob der Einsatz einer KI das tatsächlich bedeuten würde oder nicht. Ich denke das ist im Moment noch ein Graubereich.
Und wenn man dies akzeptiert, dann muss man sich die Frage gefallen lassen, bei welchem konkreten Menschen oder welcher Personengruppe diese Schuld konkret bleiben soll (Politiker, technischer Experte, Programmierer, ...). Darüber wäre zu diskutieren.
Dem stimme ich unbedingt zu.
Möchte die Gesellschaft, dass der Verkehrsausschuss des deutschen Bundestages die Bewertungsfunktion für autonome Fahrzeuge als Gesetz festschreibt? Nein? Wer dann ? Keiner? Dann gibt es kein autonomes Fahren.
...
Also lautet die elementare Forderung, dass es Aufgabe der praktischen Urteilskraft und des geschulten Gewissens bleiben muss.

Und das würde bedeuten, dass wir auf eine Technologie verzichten, wenn diese umgekehrt genau diese Beteiligung des geschulten Gewissens verdrängt.
Ich denke realistisch betrachtet: Es wird aber dennoch kommen, so oder so.
Und zwar so:

1. Assistenzsysteme (gibt es schon)
2. Hochassistenzsysteme
3. Vollautonome Fahrzeuge, wobei ein Mensch da sein muss, der jederzeit eingreifen kann (gibt es analog schon in Flugzeugen: Autopilot)
4. Vollautonome Fahrzeuge, ohne dass ein Mensch physisch anwesend sein muss: menschliche Online-Überwachung
5. Vollautonome Fahrzeuge ohne menschliche Online-Überwachung, zunächst nur für spezielle Anwendungen und Gebiete (Züge, LKWs, nur auf der LKW-Spur auf der Autobahn, langsame Fahrzeuge in Vergnügungsparks, langsame Fahrzeuge, Busse in der Innenstadt auf besonderen Verkehrswegen, ...)
5. Vollautonome Fahrzeuge praktisch überall

Jeder der Punkte wird sich bewähren müssen, wenn nichts schlimmes passiert, geht es zum nächsten Punkt. Es geht hier um Vertrauensaufbau.
Wenn es funktioniert, wird es kommen, vielleicht werden es andere Staaten zuerst machen, das wird Druck erzeugen, dann werden wir es nachmachen wollen/müssen.
Grüße
seeker


Wissenschaft ... ist die Methode, kühne Hypothesen aufstellen und sie der schärfsten Kritik auszusetzen, um herauszufinden, wo wir uns geirrt haben.
Karl Popper

Antworten