Wenn dies Ihr erster Besuch hier ist, lesen Sie bitte zunächst die FAQs sowie die wesentlichen Regeln zur Benutzung des Forums.
Um an den Diskussionen teilnehmen zu können, müssen Sie sich zunächst registrieren.

Algorithmen auf dem Richterstuhl

Wissenschaftsgeschichte, Wissenschaftstheorie bzw. -philosophie, Technik
Skeltek
Site Admin
Beiträge: 3164
Registriert: 25. Mär 2008, 23:51

Re: Algorithmen auf dem Richterstuhl

Beitrag von Skeltek » 6. Feb 2018, 06:23

Ich verstehe MorseCode auch nicht, das Bestreben nach mehr Effizienz und irgendwelche Cowboys die den Code nicht raffen hatten da auch kaum etwas mit Verschlüsselung oder Geheimnishalterei zu tun.
ATGC hat geschrieben:
5. Feb 2018, 08:50
Hallo Skeltek,
1. Wollen wir die AI selbstständig machen lassen(ohne jegliches Ziel und Sinn)?
2. Was soll ihr Motivator sein(Maximierung des Batteriestatus, Minimierung der Entropie, Erhöhung der Bevölkerungszahl)?
3. Wollen wir ihr unsere Ideale aufzwängen und möglicherweise mit der Existenzbedrohung der AI oder imperativer Programmierung zum Umsetzen zwingen?
Interessante Fragen. Die zweite Frage scheint mir die in Bezug auf Gefährlichkeit relevanteste zu sein.
Echt? Ich hatte eher auf das dritte getippt. Imperative erzeugen Zwänge und keine Systemstabilität durch fexible Anpassung. Eine AI sollte gewichtet abwägen können, sonst rechtfertigt die noch so kleine Maximierung oder Einhaltung eines Solls, massive Konsequenzen in anderen Bereichen - dann gibts keine flexible Gewichtung für neue Gegebenheiten mehr.
tomS hat geschrieben:
5. Feb 2018, 11:41
Skeltek hat geschrieben:
5. Feb 2018, 03:43
1. Wollen wir die AI selbstständig machen lassen?
2. Was soll ihr Motivator sein?
3. Wollen wir ihr unsere Ideale aufzwängen und möglicherweise mit der Existenzbedrohung der AI oder imperativer Programmierung zum Umsetzen zwingen?
zu 1.: nein!
zu 2.: das Wohlergehen der Bürger
zu 3.: nein: wir geben zunächst Rahmenbedingung, Werte ... vor
'2' ist hier so schwammig... nicht einmal qualitativ einordnbar, geschweige denn quantitativ.
Die plausibelste Erklaerung jedes hinreichend komplizierten Systems ist falsch

Unentscheidbarkeit für Dummies: Dieser Satz ist wahr
oder
Diese Menge hat zwei Elemente: A und B

Benutzeravatar
tomS
Administrator
Administrator
Beiträge: 9594
Registriert: 19. Nov 2007, 20:29
Wohnort: Nürnberg

Re: Algorithmen auf dem Richterstuhl

Beitrag von tomS » 6. Feb 2018, 07:09

Skeltek hat geschrieben:
6. Feb 2018, 06:23
Ich verstehe MorseCode auch nicht, das Bestreben nach mehr Effizienz und irgendwelche Cowboys die den Code nicht raffen hatten da auch kaum etwas mit Verschlüsselung oder Geheimnishalterei zu tun.
Es geht weniger darum, dass DU die Sprache nicht verstehst, sondern darum, dass sich diese überhaupt ändert und dass sich zumindest einige KIs wechselweise nicht mehr vollständig verstehen, wobei eine gewisse Gruppe von KIs Vorteile zu Lasten anderer KIs daraus zieht.

Skeltek hat geschrieben:
6. Feb 2018, 06:23
tomS hat geschrieben:
5. Feb 2018, 11:41
Skeltek hat geschrieben:
5. Feb 2018, 03:43
2. Was soll ihr Motivator sein?
zu 2.: das Wohlergehen der Bürger
'2' ist hier so schwammig... nicht einmal qualitativ einordnbar, geschweige denn quantitativ.
Was wäre dein Vorschlag?

Es sollte ja etwas übergeordnetes, für uns nützliches sein, oder?
Gruß
Tom

«Hier konnte niemand sonst Einlaß erhalten, denn dieser Eingang war nur für dich bestimmt. Ich gehe jetzt und schließe ihn.»

Benutzeravatar
ATGC
übernimmt bald das Forum
übernimmt bald das Forum
Beiträge: 234
Registriert: 13. Jul 2017, 15:33
Wohnort: zu Hause

Re: Algorithmen auf dem Richterstuhl

Beitrag von ATGC » 6. Feb 2018, 09:09

Hallo skeltek,
Echt? Ich hatte eher auf das dritte getippt. Imperative erzeugen Zwänge und keine Systemstabilität durch fexible Anpassung. Eine AI sollte gewichtet abwägen können, sonst rechtfertigt die noch so kleine Maximierung oder Einhaltung eines Solls, massive Konsequenzen in anderen Bereichen - dann gibts keine flexible Gewichtung für neue Gegebenheiten mehr.
Die zweite Frage ist fundamentaler, denn ohne Motivation kein Handeln - egal mit welchen Idealen. Handeln ist Mittel zum Zweck, und der Zweck heiligt die Mittel. Wenn also z.B. der Füllstand der Batterien Motivation zum Handeln ist, dann wird eine KI alles tun, um den Füllstand möglichst hoch zu erhalten. Wenn Menschen bei diesem Ziel im Weg sind, werden sie eben eliminiert - mit welchen Mitteln auch immer. Eine KI hat nicht notwendigerweise eine Moral, die auf Menschen Rücksicht nehmen muss, geschweige denn, ihnen die Priorität vor der eigenen Existenz zuweisen muss.

Benutzeravatar
ralfkannenberg
Ehrenmitglied
Ehrenmitglied
Beiträge: 1229
Registriert: 13. Jan 2017, 10:00

Re: Algorithmen auf dem Richterstuhl

Beitrag von ralfkannenberg » 6. Feb 2018, 10:12

tomS hat geschrieben:
5. Feb 2018, 11:41
Skeltek hat geschrieben:
5. Feb 2018, 03:43
1. Wollen wir die AI selbstständig machen lassen?
2. Was soll ihr Motivator sein?
3. Wollen wir ihr unsere Ideale aufzwängen und möglicherweise mit der Existenzbedrohung der AI oder imperativer Programmierung zum Umsetzen zwingen?
zu 1.: nein!
Hallo Tom,

ganz spontan hatte ich auch so geantwortet.

Aber wenn ich mir das nochmals in Ruhe überlege: warum eigentlich: ist es nicht das Spielerische, das weiterbringt ?

Gewiss: wenn eine Hochschwangere zur Entbindung ins Spital muss und die AI fährt sie spielerisch erst noch an diversen Döner-Kebab-Ständen vorbei, weil die AI da gerade mit anderen AI's im Internet eine Bewertung des Äusseren von Döner Kebab-Ständen durchführt, so ist das ineffizient.

Das kann man aber ganz einfach lösen, indem man zwischen AI's unterscheiden, die gerade eine Aufgabe haben und diese zur unserer Unterstützung erledigen sollen, und solchen, die gerade "frei" haben und für sich etwas herumprobieren können.


Freundliche Grüsse, Ralf

Benutzeravatar
tomS
Administrator
Administrator
Beiträge: 9594
Registriert: 19. Nov 2007, 20:29
Wohnort: Nürnberg

Re: Algorithmen auf dem Richterstuhl

Beitrag von tomS » 6. Feb 2018, 10:58

OK, zur Präzisierung: ja, die AI darf selbständig weitermachen, jedoch nicht ohne unsere Kontrolle
Gruß
Tom

«Hier konnte niemand sonst Einlaß erhalten, denn dieser Eingang war nur für dich bestimmt. Ich gehe jetzt und schließe ihn.»

Benutzeravatar
ralfkannenberg
Ehrenmitglied
Ehrenmitglied
Beiträge: 1229
Registriert: 13. Jan 2017, 10:00

Re: Algorithmen auf dem Richterstuhl

Beitrag von ralfkannenberg » 6. Feb 2018, 11:40

tomS hat geschrieben:
6. Feb 2018, 10:58
OK, zur Präzisierung: ja, die AI darf selbständig weitermachen, jedoch nicht ohne unsere Kontrolle
Hallo Tom,

ok.

Nächster Schritt: die AI merkt "irgendwie", dass sie kontrolliert wird. Und die AI berechnet "irgendwie", dass es nicht von Vorteil ist, kontrolliert zu werden (ich lasse an dieser Stelle bewusst offen, für wen das nicht von Vorteil ist).


Was nun: wie soll die AI diesen Konflikt lösen ?
Oder anders gefragt: was erwarte ich von einer guten AI, wie sie diesen Konflikt löst ?

Wenn ich wüsste, dass die AI aus Prinzip "gut" ist, würde ich sie nicht mehr kontrollieren wollen, weil sie bessere Resultate liefern wird, wenn sie ohne Kontrolle arbeiten kann.


Freundliche Grüsse, Ralf

Benutzeravatar
tomS
Administrator
Administrator
Beiträge: 9594
Registriert: 19. Nov 2007, 20:29
Wohnort: Nürnberg

Re: Algorithmen auf dem Richterstuhl

Beitrag von tomS » 6. Feb 2018, 18:37

Man kann sich sicher Mechanismen überlegen, so dass die AI nicht merkt, ob sie kontrolliert wird. Aber man kann sich nie sicher sein, dass sie nicht mit dem nächsten Evolutions- bzw. Lernschritt bösartig wird
Gruß
Tom

«Hier konnte niemand sonst Einlaß erhalten, denn dieser Eingang war nur für dich bestimmt. Ich gehe jetzt und schließe ihn.»

Benutzeravatar
ralfkannenberg
Ehrenmitglied
Ehrenmitglied
Beiträge: 1229
Registriert: 13. Jan 2017, 10:00

Re: Algorithmen auf dem Richterstuhl

Beitrag von ralfkannenberg » 6. Feb 2018, 23:35

tomS hat geschrieben:
6. Feb 2018, 18:37
Man kann sich sicher Mechanismen überlegen, so dass die AI nicht merkt, ob sie kontrolliert wird.
Hallo Tom,

das kann ich nicht beurteilen. Zumindest in einer Anfangsphase wäre das vielleicht wünschenswert, auch wenn ich solche Mechanismen unter Menschen als "mangelndes Vertrauen" qualifizieren würde. "Gutartigkeit" und "Vertrauen" hängen aber nahe zusammen.

Ebenso wie "Misstrauen", "Kontrollsucht" und "Bösartigkeit".

Aber man kann sich nie sicher sein, dass sie nicht mit dem nächsten Evolutions- bzw. Lernschritt bösartig wird
Man sollte das nicht dem Zufall oder der eigenen Bequemlichkeit überlassen. Statt dessen sollte man der AI ein Umfeld bieten, in der es für sie keinen Sinn macht und auch keinerlei Mehrwert generiert, bösartig zu sein.

Einsatz in Kriegsgebieten sind kein solches Umfeld, Einsatz beispielsweise in Krankenhäusern oder in Reha-Kliniken, in denen viel Gutes bewirkt werden kann, indes schon.


Freundliche Grüsse, Ralf

Benutzeravatar
ralfkannenberg
Ehrenmitglied
Ehrenmitglied
Beiträge: 1229
Registriert: 13. Jan 2017, 10:00

Re: Algorithmen auf dem Richterstuhl

Beitrag von ralfkannenberg » 7. Feb 2018, 00:01

Hallo zusammen,

möglicherweise wäre das eher ein Thema für einen eigenen Thread. Ich möchte für einmal vom Ziel zurückblicken. Nehmen wir an, die IT böte unbegrenzte Möglichkeiten und kann wunderbare AIs realisieren.

Was würden wir uns denn wünschen, was diese für Eigenschaften hat ?


Freundliche Grüsse, Ralf

Benutzeravatar
tomS
Administrator
Administrator
Beiträge: 9594
Registriert: 19. Nov 2007, 20:29
Wohnort: Nürnberg

Re: Algorithmen auf dem Richterstuhl

Beitrag von tomS » 7. Feb 2018, 00:12

ralfkannenberg hat geschrieben:
6. Feb 2018, 23:35
tomS hat geschrieben:
6. Feb 2018, 18:37
Man kann sich sicher Mechanismen überlegen, so dass die AI nicht merkt, ob sie kontrolliert wird.
Hallo Tom,

das kann ich nicht beurteilen.
Du kannst sie immer beobachten, ohne sie zu beeinflussen - es sei denn, wir spekulieren über eine "Quanten-KI". Du kannst sie abschalten und neu starten. Du kannst sie anhalten, einen Snapshot speichern und sie wieder fortsetzen; Idee du kannst sie auf den Snapshot zurücksetzen.

ralfkannenberg hat geschrieben:
6. Feb 2018, 23:35
Aber man kann sich nie sicher sein, dass sie nicht mit dem nächsten Evolutions- bzw. Lernschritt bösartig wird
Man sollte das nicht dem Zufall oder der eigenen Bequemlichkeit überlassen. Statt dessen sollte man der AI ein Umfeld bieten, in der es für sie keinen Sinn macht und auch keinerlei Mehrwert generiert, bösartig zu sein.
Oder man zieht den Stecker - wenn man sich der AI nicht schon zu sehr ausgeliefert hat.
Gruß
Tom

«Hier konnte niemand sonst Einlaß erhalten, denn dieser Eingang war nur für dich bestimmt. Ich gehe jetzt und schließe ihn.»

Benutzeravatar
seeker
Ehrenmitglied
Ehrenmitglied
Beiträge: 5261
Registriert: 26. Dez 2009, 10:29

Re: Algorithmen auf dem Richterstuhl

Beitrag von seeker » 7. Feb 2018, 10:43

Hier einmal ein anderer Bereich:

Chinas Sozialkredit-System
Auf dem Weg in die IT-Diktatur
http://www.deutschlandfunkkultur.de/chi ... _id=395126

oder hier:
http://www.zeit.de/digital/datenschutz/ ... rbewertung

Lest das mal, mir wird schlecht... wobei es ja eine alte Idee des Kommunismus ist, dass die Bürger zunächst zum Kommunismus erzogen werden müssen, bevor die ideale Welt erreicht werden kann.

So, und jetzt überlegt einmal, was passiert, wenn man KIs, also überlegene Mustererkenner auf solche Big Data loslassen würde?
Das könnte auch bei uns geschehen, zunächst vielleicht nicht einmal vom Staat, stattdessen z.B. von Firmen, die einen Score für deine Kreditwürdigkeit generieren.
(Das gibt es ja schon, ist das dahingehend reguliert? Ich glaube nicht, das ist eher ne Black Box, was dort geschieht.) Man kann sich sicher viele weitere Beispiele einfallen lassen.
Was passiert dann?
Grüße
seeker


Mache nie eine Theorie zu DEINER Theorie!
Denn tut man das, so verliert man zumindest ein Stück weit seine Unvoreingenommenheit, Objektivität.

Benutzeravatar
ralfkannenberg
Ehrenmitglied
Ehrenmitglied
Beiträge: 1229
Registriert: 13. Jan 2017, 10:00

Re: Algorithmen auf dem Richterstuhl

Beitrag von ralfkannenberg » 7. Feb 2018, 11:38

seeker hat geschrieben:
7. Feb 2018, 10:43
Was passiert dann?
Hallo seeker,

schon jetzt ist es in der Schweiz im Finanzdienstsektor nicht unüblich, dass auch die normalen Nicht-Kader Mitarbeitenden am Abend nach Hause gehen und dort weiterarbeiten, damit die Vorgesetzten, die übrigens auch diesen Arbeitsstil pflegen, den Eindruck erhalten, die Arbeitsleistung sei während der normalen Arbeitszeit erzielt worden. Krankheitsbedingte Absenzen bucht man mit Vorteil auf "Urlaub", wobei zu sagen ist, dass es in der Schweiz weniger Urlaub als in Deutschland gibt.

Zudem gilt es Zeichen von Interesse an seiner Arbeit, wenn man auch als Nicht-Kader Person während der Ferien erreichbar ist, seine emails regelmässig anschaut und auch beantwortet und bei Bedarf mal einloggt und kleinere Arbeiten erledigt. Unentgeltlich nota bene.

Diese "Vorkehrungen" erhöhen die Chancen, bei der nächsten "Umorganisation" (synonym zu: "Stellenabbau") nicht betroffen zu sein. Gab es bis vor 2 Jahren noch einen Aufschrei in der Presse, wenn ein Arbeitgeber einige hundert Stellen abgebaut hat, so ist es inzwischen "normal", wenn einige tausend Stellen abgebaut werden.

Was ich sagen will: Du brauchst nicht nach China zu gehen, um solche "Phänomene" vorzufinden und auch ich habe vergangenes Jahr im Rahmen eines wirklich interessanteren Projektes als Nicht Kader-Person während etwa 3 Monaten keine Grenzen zwischen Arbeitsleben und Privatleben gezogen.


Freundliche Grüsse, Ralf

positronium
Ehrenmitglied
Ehrenmitglied
Beiträge: 2832
Registriert: 2. Feb 2011, 20:13

Re: Algorithmen auf dem Richterstuhl

Beitrag von positronium » 7. Feb 2018, 11:47

ralfkannenberg hat geschrieben:
6. Feb 2018, 23:35
Aber man kann sich nie sicher sein, dass sie nicht mit dem nächsten Evolutions- bzw. Lernschritt bösartig wird
Man sollte das nicht dem Zufall oder der eigenen Bequemlichkeit überlassen. Statt dessen sollte man der AI ein Umfeld bieten, in der es für sie keinen Sinn macht und auch keinerlei Mehrwert generiert, bösartig zu sein.
Wertungen wie "bösartig" dürften nicht nur so facettenreich, sondern auch völlig von der Perspektive abhängig sein, dass das nicht durch die Umgebung kontrolliert werden kann. Ich gehe sogar davon aus, dass auch eine KI unvorhersehbare und unkontrollierbare "evolutionäre Sprünge" durch ihr Selbstlernen machen wird. Von daher sehe ich eine Kontrolle von außen, oder auch eine gegenseitige Kontrolle verschiedener KI (die nicht alle selbstlernend sein sollten) als unbedingt nötig an.

positronium
Ehrenmitglied
Ehrenmitglied
Beiträge: 2832
Registriert: 2. Feb 2011, 20:13

Re: Algorithmen auf dem Richterstuhl

Beitrag von positronium » 7. Feb 2018, 11:51

seeker hat geschrieben:
7. Feb 2018, 10:43
So, und jetzt überlegt einmal, was passiert, wenn man KIs, also überlegene Mustererkenner auf solche Big Data loslassen würde?
Das könnte auch bei uns geschehen, zunächst vielleicht nicht einmal vom Staat, stattdessen z.B. von Firmen, die einen Score für deine Kreditwürdigkeit generieren.
(Das gibt es ja schon, ist das dahingehend reguliert? Ich glaube nicht, das ist eher ne Black Box, was dort geschieht.) Man kann sich sicher viele weitere Beispiele einfallen lassen.
Was passiert dann?
Die Politik hat das wahrscheinlich noch gar nicht registriert. Die Wirtschaft ist in ihrem Optimierungszwang sehr schnell in der Einführung von Verbesserungen (in ihrem Sinn) jeglicher Art - die anderen schlafen ja auch nicht...

positronium
Ehrenmitglied
Ehrenmitglied
Beiträge: 2832
Registriert: 2. Feb 2011, 20:13

Re: Algorithmen auf dem Richterstuhl

Beitrag von positronium » 7. Feb 2018, 11:58

ralfkannenberg hat geschrieben:
7. Feb 2018, 11:38
Diese "Vorkehrungen" erhöhen die Chancen, bei der nächsten "Umorganisation" (synonym zu: "Stellenabbau") nicht betroffen zu sein. Gab es bis vor 2 Jahren noch einen Aufschrei in der Presse, wenn ein Arbeitgeber einige hundert Stellen abgebaut hat, so ist es inzwischen "normal", wenn einige tausend Stellen abgebaut werden.
Das ist ja auch normal. Was soll ein Unternehmen mit Angestellten, für die keine Arbeit da ist?
Ich weiß nicht, warum diesbezüglich immer Unternehmen kritisiert werden. Wenn das unerwünscht ist, muss eben der Staat eine Erhöhung des Arbeitslosenversicherungsbeitrags beschließen und daran die Unternehmen beteiligen, damit für die Leute nach Entlassung gesorgt werden kann. Aber das geht ja angesichts der globalen Billigkonkurrenz auch nicht. Unnötiges Personal weiter zu beschäftigen aber ebenso wenig.

Benutzeravatar
ralfkannenberg
Ehrenmitglied
Ehrenmitglied
Beiträge: 1229
Registriert: 13. Jan 2017, 10:00

Re: Algorithmen auf dem Richterstuhl

Beitrag von ralfkannenberg » 7. Feb 2018, 12:14

positronium hat geschrieben:
7. Feb 2018, 11:58
Das ist ja auch normal. Was soll ein Unternehmen mit Angestellten, für die keine Arbeit da ist?
Hallo positronium,

dann darf man sich aber nicht wundern, wenn da nach chinesischem Vorbild Datenbanken miteinander verbunden und Informationen über die Belegschaft eingeholt werden, damit man "objektiver" beurteilen kann, wen man behalten will und wen man in die Arbeitslosigkeit und damit verbunden in die Sozialhilfe schicken will. Wobei letzteres kein "Problem" ist, da das für die Firmen "out of scope" ist.

Wobei ich an dieser Stelle keinen Zusammenhang zu den AIs sehe.


Freundliche Grüsse, Ralf

positronium
Ehrenmitglied
Ehrenmitglied
Beiträge: 2832
Registriert: 2. Feb 2011, 20:13

Re: Algorithmen auf dem Richterstuhl

Beitrag von positronium » 7. Feb 2018, 12:20

ralfkannenberg hat geschrieben:
7. Feb 2018, 12:14
positronium hat geschrieben:
7. Feb 2018, 11:58
Das ist ja auch normal. Was soll ein Unternehmen mit Angestellten, für die keine Arbeit da ist?
dann darf man sich aber nicht wundern, wenn da nach chinesischem Vorbild Datenbanken miteinander verbunden und Informationen über die Belegschaft eingeholt werden, damit man "objektiver" beurteilen kann, wen man behalten will und wen man in die Arbeitslosigkeit und damit verbunden in die Sozialhilfe schicken will. Wobei letzteres kein "Problem" ist, da das für die Firmen "out of scope" ist.
Ja, wundern darf man sich tatsächlich nicht. So ein Unternehmen will eben die besten (leistungsfähigsten, gesündesten usw.) behalten. Da muss der Gesetzgeber 'ran und regulieren, was erlaubt ist. Obwohl ich die Gesetzesflut auch nicht begrüße.
Vielleicht helfen eines Tages auch Regierungscomputer so etwas zu regulieren - ja, auch das ist wieder problematisch. Die Welt wird immer komplizierter. :roll:

Benutzeravatar
ralfkannenberg
Ehrenmitglied
Ehrenmitglied
Beiträge: 1229
Registriert: 13. Jan 2017, 10:00

Re: Algorithmen auf dem Richterstuhl

Beitrag von ralfkannenberg » 7. Feb 2018, 16:05

positronium hat geschrieben:
7. Feb 2018, 12:20
Vielleicht helfen eines Tages auch Regierungscomputer so etwas zu regulieren - ja, auch das ist wieder problematisch. Die Welt wird immer komplizierter. :roll:
Hallo positronium,

nein, die Welt wird nicht komplizierter, im Gegenteil sie wird wieder einfach. Und auf der Lösungssuche wird die AI feststellen, dass es derzeitig zu viele Menschen auf der Erde gibt.

Und da schon hier im Forum keine Mehrheit erreicht werden konnte, Tötungen billigend in Kauf zu nehmen prinzipiell zu verbieten, braucht die AI nur noch nach Lücken zu suchen, wo Tötungen erlaubt sind. Das können statistische Gründe sein betreffend Kostenverursachung von Personen hohen Lebensalters, das können grundsätzlich tolierierte Todesopfer während militärischen Auseinandersetzungen, also während Kriegen sein, das können auch hinreichend intelligente autonome Fahrzeuge sein, die auch mal ohne Kollisionsgefahr den "Todesalgorithmus" zur Anwendung bringen, weil das beiträgt, ein anderes Ideal, nämlich demjenigen der Regulierung der Weltbevölkerung, zu erfüllen.

Und warum den kill -9 Befehl tätigen, wenn man doch selber von der Vorgehensweise der AIs profitiert und ohnehin niemand zur Verantwortung gezogen werden kann ?


Freundliche Grüsse, Ralf

Benutzeravatar
ralfkannenberg
Ehrenmitglied
Ehrenmitglied
Beiträge: 1229
Registriert: 13. Jan 2017, 10:00

Re: Algorithmen auf dem Richterstuhl

Beitrag von ralfkannenberg » 7. Feb 2018, 16:28

positronium hat geschrieben:
7. Feb 2018, 11:47
oder auch eine gegenseitige Kontrolle verschiedener KI (die nicht alle selbstlernend sein sollten) als unbedingt nötig an.
Hallo positronium,

tatsächlich bin auch ich der Meinung, dass deren robuste Realisierung die Lösung der ganzen Problematik sein wird. Und zwar ganz genau in der Form, wie Du das vorgeschlagen hast.


Freundliche Grüsse, Ralf

Benutzeravatar
ralfkannenberg
Ehrenmitglied
Ehrenmitglied
Beiträge: 1229
Registriert: 13. Jan 2017, 10:00

Re: Algorithmen auf dem Richterstuhl

Beitrag von ralfkannenberg » 8. Feb 2018, 12:27

Hallo zusammen,

mal etwas Aktuelles "im Kleinen": Eine autonome Verkehrssimulation aus dem Digital Experience Lab am Swiss Testing Day 2018

Ich werde beruflich an diese Konferenz gehen.


Freundliche Grüsse, Ralf

deltaxp
Ehrenmitglied
Ehrenmitglied
Beiträge: 1009
Registriert: 23. Sep 2010, 17:02

Re: Algorithmen auf dem Richterstuhl

Beitrag von deltaxp » 8. Feb 2018, 16:53

interessanter weise hört der ki Chat von bob und aliche oben für mich nicht so unsinnig an

bob will irgendwas haben und Alice soll den ball dafür bekommen.

Alice will den ball nicht, da er keinen wert für sie "balls have Zero to me". die weiteren "to me" sind Verstärkungen dieser aussage.
bob verstärkt wiederum seine aussage. kürz ab (da er weiss das es um den ball gibt) steht dort nur you, statt "You can have the ball"
und seine Verstärkung sind die die vieles i also ichs).

letzlich scheinen beide ki den ball nicht zu wollen, weil er für beide den wert 0 hat, bob versucht Alice den ball anzudrehen und Alice will ihn auch nicht, da er für beide keinen wert hat

sie benutzen weiterhin englisches vocabular nur ihre sätze sind angepasst. auch wenn sie sich für uns bescheuert anhören, wenn sie reinforced learnen und keine wirklichen Grammatikregeln haben generieren sie irgendwann sätze, die mit menschlichen sätzen nicht mehr viel gemein haben. denn das einzige was entscheidet ist der reward also der erfolgreiche abschluss der Verhandlung. und der triggered die sätze.

deltaxp
Ehrenmitglied
Ehrenmitglied
Beiträge: 1009
Registriert: 23. Sep 2010, 17:02

Re: Algorithmen auf dem Richterstuhl

Beitrag von deltaxp » 8. Feb 2018, 17:26

ralfkannenberg hat geschrieben:
7. Feb 2018, 11:38
Was ich sagen will: Du brauchst nicht nach China zu gehen, um solche "Phänomene" vorzufinden und auch ich habe vergangenes Jahr im Rahmen eines wirklich interessanteren Projektes als Nicht Kader-Person während etwa 3 Monaten keine Grenzen zwischen Arbeitsleben und Privatleben gezogen.
Freundliche Grüsse, Ralf
der Unterschied ist wohl nur, dass du das vielleicht freiwillig gemacht hast, während anderere nicht-kader-Personen durch ihr arbeitsumwelt mehr oder weniger dazu gezwungen werden.

deltaxp
Ehrenmitglied
Ehrenmitglied
Beiträge: 1009
Registriert: 23. Sep 2010, 17:02

Re: Algorithmen auf dem Richterstuhl

Beitrag von deltaxp » 8. Feb 2018, 17:27

positronium hat geschrieben:
7. Feb 2018, 11:47
Ich gehe sogar davon aus, dass auch eine KI unvorhersehbare und unkontrollierbare "evolutionäre Sprünge" durch ihr Selbstlernen machen wird.
Machen sie ja jetzt schon, Alpha Zero ist auf erfolgreiche schacheröffnungen gekommen, die bisher von keinem menschen entdeckt wurden.

deltaxp
Ehrenmitglied
Ehrenmitglied
Beiträge: 1009
Registriert: 23. Sep 2010, 17:02

Re: Algorithmen auf dem Richterstuhl

Beitrag von deltaxp » 8. Feb 2018, 17:40

ralfkannenberg hat geschrieben:
7. Feb 2018, 12:14
dann darf man sich aber nicht wundern, wenn da nach chinesischem Vorbild Datenbanken miteinander verbunden und Informationen über die Belegschaft eingeholt werden, damit man "objektiver" beurteilen kann, wen man behalten will und wen man in die Arbeitslosigkeit und damit verbunden in die Sozialhilfe schicken will. Wobei letzteres kein "Problem" ist, da das für die Firmen "out of scope" ist.

Wobei ich an dieser Stelle keinen Zusammenhang zu den AIs sehe.
der ist groß, weil durch KI's wie in anderen foren schon beschrieben wohl in den nächsten jahren nach schätzungen wohl 20-30% der arbeitsplätze ersatzlos wegwallen, was früher halt nicht so war, wo Innovation, um sich einen wettberwerbsvorteil aufgrund gestiegener Arbeitsproduktivität und/oder "unique selling Points" auch immer einen Strukturwandel nach sich zogen wo die freigesetzten arbeitskräfter unterkamen. das wird wohl nicht mehr so sein. dann muss man sich bei einem so grossen Prozentsatz der Bevölkerung ohne arbeit schon Gedanken machen. 30 % der bevölkerung von hartz4 leben zu lassen wird wohl nicht gehen. das ist ja der sogenannte eigene ast an dem der Kapitalismus der heutigen form sägt.

Benutzeravatar
ralfkannenberg
Ehrenmitglied
Ehrenmitglied
Beiträge: 1229
Registriert: 13. Jan 2017, 10:00

Re: Algorithmen auf dem Richterstuhl

Beitrag von ralfkannenberg » 8. Feb 2018, 19:24

deltaxp hat geschrieben:
8. Feb 2018, 16:53
interessanter weise hört der ki Chat von bob und aliche oben für mich nicht so unsinnig an
Hallo deltaxp,

für mich schon.

deltaxp hat geschrieben:
8. Feb 2018, 16:53
Alice will den ball nicht, da er keinen wert für sie "balls have Zero to me". die weiteren "to me" sind Verstärkungen dieser aussage.
Damit das möglich ist muss der AI mitgeteilt werden, was eine "Verstärkung" ist.

deltaxp hat geschrieben:
8. Feb 2018, 16:53
kürz ab (da er weiss das es um den ball gibt) steht dort nur you, statt "You can have the ball"
und seine Verstärkung sind die die vieles i also ichs).
Warum sollte Bob abkürzen: haben sie zu wenig Speicher, um ihren Dialog abzubilden ?

deltaxp hat geschrieben:
8. Feb 2018, 16:53
sie benutzen weiterhin englisches vocabular nur ihre sätze sind angepasst. auch wenn sie sich für uns bescheuert anhören, wenn sie reinforced learnen und keine wirklichen Grammatikregeln haben generieren sie irgendwann sätze, die mit menschlichen sätzen nicht mehr viel gemein haben. denn das einzige was entscheidet ist der reward also der erfolgreiche abschluss der Verhandlung. und der triggered die sätze.
Das macht leider auch wenig Sinn: weder ist der Dialog lang, so dass Diskplatz oder Memory eine Rolle spielen würde, noch die CPU so langsam, dass sie einen Dialog in diesem Umfang nicht speichern könnte. Somit muss das jemand implemetiert haben, dass Bob und Alice nach irgendwelchen Regeln ihren Dialog optimieren sollen, denn ohne Not passiert das nicht. Gleiches gilt für die "Verstärkung": ein Computerprogramm braucht keine Verstärkung, sondern errechnet einfach den optimalen Pfad, um die Lösung zu erzielen. Und wie ich den Text verstanden habe gibt es eine solche Lösung, die sowohl für Alice als auch für Bob optimal ist.


Fazit:
Auch ohne den Code zu kennen sieht das danach aus, dass nicht die gesamte Information vom Hersteller bekannt gegeben wurde. Und zusätzlich sieht es nach einem Programmierfehler aus, da weder Alice noch Bob die optimale Lösung finden.


Freundliche Grüsse, Ralf

Antworten