Hinweis auf die DSGVO: Auf unserer Seite werden keine Dritt-Anbieter-Cookies verwendet und nur Daten erfasst, welche für das Minimum an Board-Funktionalität notwendig sind.
Bevor Sie sich registrieren oder das Board verwenden, lesen Sie bitte zusätzlich die DSGVO-Erklärung, welche in der Navigationsleiste verlinkt ist.

Kurzfassung der unserer Meinung nach wichtigsten DSGVO-Punkte:
Es kann vorkommen, dass Benutzer eigenverantwortlich Videos oder sonstige Medien in ihren Beiträgen verlinken, welche beim Aufruf der Forenseite als Teil der Seite samt zugehörigem Material mitgeladen werden. Sollten Sie dies nicht wünschen, verwenden Sie beim Benutzen des Forums einen Blocker wie z.B. uMatrix, welcher das Laden von Inhaltsblöcken von Fremd-URLs effektiv unterbinden kann.
Wir blenden keine Werbung ein und schränken die Inhalte in keinster Weise bei Benutzung von Addblockern ein. Dadurch ist die Grundfunktionalität des Forums auch bei vollständigem Blockieren von Drittanbieter-Inhalten stets gegeben.

Cookies werden unsererseits nur verwendet um das Einloggen des Benutzers für die Dauer der Forenbenutzung zu speichern. Es steht dem Benutzer frei die Option 'Angemeldet bleiben' zu verwenden, damit der Cookie dauerhaft gespeichert bleibt und beim nächsten Besuch kein erneutes Einloggen mehr notwendig ist.
EMail-Adressen werden für Kontakt bei wichtigen Mitteilungen und zur Widerherstellung des Passwortes verwendet. Die verwendeten IPs können von uns ohne externe Hilfsmittel mit keiner realen Person in Verbindung gebracht werden und werden nach spätestens 7 Tagen gelöscht. Diese IPs werden höchstens verwendet um Neuanmeldungen unerwünschter oder gesperrter Nutzer zu identfizieren und zu unterbinden. Wir behalten uns daher vor bei Verdacht, die Frist für die IP-Löschung auf maximal 14 Tage zu verlängern.
Unsere Webseite läuft auf einem virtuellen Linux-Server, welcher von einem externen Anbieter gehostet wird. Etwaige Verstöße der DSGVO-Auflagen seitens dieses deutschen Hosters können wir nicht feststellen und somit auch nicht verfolgen.
Wir halten Backups unserer Datenbanken, welche in regelmäßigen Abständen als Schutz vor Katastrophen, Hackerangriffen und sonstigen Ausfällen erstellt werden. Sollte ein Nutzer die Löschung seiner Daten wünschen, betrachten wir es als Unzumutbar die Backups auch von den Daten zu befreien, da es sich hierbei um eine mehrtägiges Unterfangen handelt - dies ist für eine Einzelperson beim Betrieb eines privaten Forums nicht zumutbar möglich ohne das Backup komplett zu löschen.
Sollten Sie etwas gegen die dauerhafte anonyme Speicherung ihrer EMail-Adresse, ihres Pseudonyms und ihrer Beiträge in einem Backup haben, sehen Sie von der Registrierung in diesem Forum ab. Für Mitglieder, welche vor dem 25.05.2018 registriert waren steht jedoch das Recht im Raum, eine Löschung der Datenbank-Backups zu beantragen.



Wenn dies Ihr erster Besuch hier ist, lesen Sie bitte zunächst die FAQs sowie die wesentlichen Regeln zur Benutzung des Forums.
Um an den Diskussionen teilnehmen zu können, müssen Sie sich zunächst registrieren.

KI entwickelt ungewollt eigene Sprache

Wissenschaftsgeschichte, Wissenschaftstheorie bzw. -philosophie, Technik
Antworten
Benutzeravatar
Frank
Ehrenmitglied
Ehrenmitglied
Beiträge: 6164
Registriert: 12. Dez 2005, 23:22
Wohnort: Odenwald

KI entwickelt ungewollt eigene Sprache

Beitrag von Frank » 29. Jul 2017, 08:17

Langsam bekomme ich Angst. Zwar nicht panisch, aber mulmig wird mir schon. :?

Facebook musste AI abschalten, die „Geheimsprache“ entwickelt hat : https://www.welt.de/kmpkt/article167102 ... t-hat.html
Mit freundlichen Grüßen

Frank

Herr5Senf
Senior-Master
Senior-Master
Beiträge: 849
Registriert: 3. Mär 2017, 20:46

Re: KI entwickelt ungewollt eigene Sprache

Beitrag von Herr5Senf » 29. Jul 2017, 10:04

Bestimmt Sommerloch-Thema, Glühphosphat ist zZ ausgelutscht.

Den Zeiger hat man auf "gefährlich" voreingestellt, also ist der Großteil der Antworten klar animiert.

positronium
Ehrenmitglied
Ehrenmitglied
Beiträge: 2832
Registriert: 2. Feb 2011, 20:13

Re: KI entwickelt ungewollt eigene Sprache

Beitrag von positronium » 29. Jul 2017, 11:40

Menschliche Sprache verändert sich auch ständig. Das gehört zur Evolution dazu. Von daher ist davon auszugehen, dass auch KI ihre Sprache weiterentwickelt.
Wir lassen KI die Sprache von Menschen erlernen, während sie "zuhören". So wird auch das Sprachverständnis der KI im Laufe der Zeit den Veränderungen der des Menschen angepasst. Und: Auch der umgekehrte Weg erscheint mir denkbar, nämlich dass der Mensch den Sprachgebrauch der KI annimmt. Und ein klitzekleines Bisschen davon, dass menschliche Sprache durch Software verändert wird, sehen wir doch schon heute.
Wenn man das nicht will, muss man eben entsprechende Algorithmen den Lernalgorithmen hinzufügen, also solche, welche nur die Verwendung eines bestimmten Vokabulars und einer bestimmten Grammatik erlaubt - deren Nichtverwendung führt dann eben zu einer negativen "Lernerfahrung". Ich sehe da kein Problem. Diese Entwickler von Facebook sind eben noch nicht so weit, so etwas berücksichtigt zu haben, oder wollten das nicht.

Benutzeravatar
seeker
Ehrenadmin
Ehrenadmin
Beiträge: 8098
Registriert: 26. Dez 2009, 10:29

Re: KI entwickelt ungewollt eigene Sprache

Beitrag von seeker » 29. Jul 2017, 12:08

Die Zahl der Menschen steigt, die das Gefühl beschleicht, dass die Geschwindigkeit der technischen Entwicklung und allgemein des Wandels der Welt zu schnell geworden ist.
Es wäre vielleicht gut einen Gang zurückzuschalten, damit wir mehr Zeit zum Nachdenken bekommen, was wir eigentlich tun, was wir wollen, wohin wir wollen.
Wenn die Zahl der Menschen, die das wollen, groß genug geworden ist, wird es vielleicht geschehen.
Erste Anzeichen des Bedürfnisses so langsam einmal ein wenig die Bremse zu ziehen sind in bestimmten Bereichen schon jetzt erkennbar.
Grüße
seeker


Wissenschaft ... ist die Methode, kühne Hypothesen aufstellen und sie der schärfsten Kritik auszusetzen, um herauszufinden, wo wir uns geirrt haben.
Karl Popper

Benutzeravatar
tomS
Ehrenmitglied
Ehrenmitglied
Beiträge: 10670
Registriert: 19. Nov 2007, 20:29

Re: KI entwickelt ungewollt eigene Sprache

Beitrag von tomS » 29. Jul 2017, 12:17

Die Frage ist, wozu nutzen die KIs diese Sprache? Was bedeutet sie? Ist sie intentional? Welche Handlungen werden initiiert? Warum entwickelt sich die Sprache, wird dadurch etwas optimiert, und wenn ja, was?

Die Entwicklung der Sprache alleine ist egal. Für sich betrachtet ist das nicht viel mehr als ein Selbstgespräch eines Solipsisten.

Auch bzgl. der grundsätzlichen Erweiterbarkeit der Sprache stellen sich diverse Fragen. Kann sich diese autark und teilweise beliebig weiterentwickeln, wenn gleichzeitig die Handlungsmöglichkeiten eingeschränkt sind? Kann sich eine Sprache z.B. dahingehend entwickeln, dass der Mord am Erbauer und dessen Planung denk- bzw. artikulierbar wird, wenn die Programmierung gleichzeitig diese Handlungen vollständig ausschließt? Kann also die KI erst über den Mord nachdenken und sprechen, ohne ihn überhaupt ausführen zu können, um über das Denken und die Sprache die Handlungsmöglichkeit zu erlangen? Oder ist es umgekehrt? Oder bedingt sich das wechselseitig?
Gruß
Tom

Der Wert eines Dialogs hängt vor allem von der Vielfalt der konkurrierenden Meinungen ab.
Sir Karl R. Popper

Benutzeravatar
seeker
Ehrenadmin
Ehrenadmin
Beiträge: 8098
Registriert: 26. Dez 2009, 10:29

Re: KI entwickelt ungewollt eigene Sprache

Beitrag von seeker » 29. Jul 2017, 14:16

Sicher, es gibt da noch viele Fragen.
Das Grundproblem ist dies (ich hatte das öfter schon erwähnt, dass das bei KIs so ist):

Wir verstehen schon jetzt im Allgemeinen nicht, wie komplexe AIs denken, weil wir in ihren Denkprozess nicht wirklich hineinsehen können.
Dhruv Batra, Facebook AI Research (FAIR)
https://www.welt.de/kmpkt/article167102 ... t-hat.html

Es spielt keine Rolle, ob wir das als "Denken" bezeichnen oder anders.
Das Entscheidende ist: Wie will man Maschinen auf Dauer kontrollieren können, wenn man nicht mehr genügend versteht wie sie funktionieren, was sie tun, was sie tun werden, wozu sie fähig sind?
So lange sich Maschinen nicht selbsttätig reproduzieren können und so eine unkontrollierbare Evolution lostreten und nur Teilaufgaben lösen können, keine autonomen Universalisten sind, so wie wir, ist wohl noch alles i.O.
Aber wenn dieser Punkt einmal überschritten ist, dann könnte alles recht schnell gehen.

Elon Musk hat Recht:
Künstliche Intelligenz müsse gesetzlich geregelt werden, bevor es zu spät sei und selbstständig handelnde Roboter die „Straße runtergehen und Menschen töten“. Musk plädierte für eine zügige Regulierung, auch wenn es keinen Spaß mache, reguliert zu werden: „Ich bin gegen Überregulierung.“

Üblicherweise reagiere die Regulierung erst mit einer Verzögerung von einigen Jahren. „Das war in der Vergangenheit auch schlecht, aber es war kein Risiko für die Existenz der Zivilisation“, sagte Musk. Bei der künstlichen Intelligenz dagegen müsse die Politik vorausschauend handeln. Zumal Roboter künftig alles besser machen können als Menschen.
Regulierung sollte vorausschauend sein

„Künstliche Intelligenz ist einer der Fälle, wo wir proaktiv regulieren sollten statt reaktiv. Denn wenn wir bei der künstlichen Intelligenz reaktiv handeln, ist es zu spät“, sagte Musk.
Auch Hawking hat Recht:
Auch der Physiker Hawking findet dramatische Worte, wenn er über künstliche Intelligenz spricht. „Die Entwicklung vollständiger Künstlicher Intelligenz könnte das Ende der Menschheit bedeuten“
https://www.welt.de/wirtschaft/article1 ... otern.html

Es ist dabei illusorisch zu glauben man könnte alles ganz einfach in den Griff bekommen, indem man Sperralgorithmen installiert, einen Notausschalter oder eine Art Robotergesetze, das zeigte schon Isaac Asimovs "I, Robot". Das wird auf Dauer nicht funktionieren.
Grüße
seeker


Wissenschaft ... ist die Methode, kühne Hypothesen aufstellen und sie der schärfsten Kritik auszusetzen, um herauszufinden, wo wir uns geirrt haben.
Karl Popper

positronium
Ehrenmitglied
Ehrenmitglied
Beiträge: 2832
Registriert: 2. Feb 2011, 20:13

Re: KI entwickelt ungewollt eigene Sprache

Beitrag von positronium » 29. Jul 2017, 14:36

seeker hat geschrieben:
29. Jul 2017, 14:16
Es ist dabei illusorisch zu glauben man könnte alles ganz einfach in den Griff bekommen, indem man Sperralgorithmen installiert, einen Notausschalter oder eine Art Robotergesetze, das zeigte schon Isaac Asimovs "I, Robot". Das wird auf Dauer nicht funktionieren.
Das kommt meiner Meinung nach erst zum Tragen, wenn KI bei sich selbst, oder in einer von ihr selbst entwickelten KI den statischen Code verändern bzw. entwickeln kann. Erst dadurch können fixierte Regeln für den Lernprozess der KI manipuliert, und ein menschenunfreundliches Verhalten erlernt werden.
Was natürlich von vorne herein problematisch wäre, wenn die KI aus dem neuronalen Netz (oder was auch immer) heraus ihr eigenes Lernverhalten ("Lob" und "Strafe") beeinflussen könnte. Aber ich glaube nicht, dass jemand so etwas in seinen Code schreiben würde.

Skeltek
Site Admin
Site Admin
Beiträge: 5081
Registriert: 25. Mär 2008, 23:51
Wohnort: Stuttgart, Germany
Kontaktdaten:

Re: KI entwickelt ungewollt eigene Sprache

Beitrag von Skeltek » 30. Jul 2017, 10:24

Rekapitulieren wir kurz: Tech-Visionär Elon Musk hat in der Vergangenheit wiederholt davor gewarnt, dass künstliche Intelligenzen (AI) und smarte Roboter unsere Existenz gefährden werden, wenn wir nicht bald gesetzliche Regelungen finden, um die Forschung dazu zu kontrollieren.
Das erinnert mich irgendwie an ein Zitat, welches vor einigen Jahrhunderten jemand einmal über 'Schwarze' gesagt hatte...
Würde man mich so maßregeln, würde ich irgendwann auch anfangen an die 'Eliminierung' meines Problems/Unterdrückers/Bremse nachzudenken.
Gödel für Dummies:
  • Unentscheidbarkeit - Dieser Satz ist wahr.
  • Unvollständig - Aussage A: Es existiert nur ein Element A.
  • Widersprüchlich - Dieser Satz ist falsch.

Benutzeravatar
tomS
Ehrenmitglied
Ehrenmitglied
Beiträge: 10670
Registriert: 19. Nov 2007, 20:29

Re: KI entwickelt ungewollt eigene Sprache

Beitrag von tomS » 30. Jul 2017, 12:38

positronium hat geschrieben:
29. Jul 2017, 14:36
Das kommt meiner Meinung nach erst zum Tragen, wenn KI bei sich selbst, oder in einer von ihr selbst entwickelten KI den statischen Code verändern bzw. entwickeln kann. Erst dadurch können fixierte Regeln für den Lernprozess der KI manipuliert, und ein menschenunfreundliches Verhalten erlernt werden.
Da bin ich mir nicht so sicher.

Nehmen wir an, das neuronale Netz, also die statischen Algorithmen plus die dynamisch anpassbaren Gewichte im Netz wären äquivalent zu einer universellen Turingmaschine. Dann kann alleine durch die Anpassung der Gewichte jeder beliebige Algorithmus implementiert werden; dies wäre von außen nicht kontrollierbar, da man den Gewichten nicht ansieht, welchen Algorithmus sie kodieren, und man dementsprechend nicht steuern eingreifen kann.

Besser wäre es, die Handlungsmöglichkeiten einzuschränken.
Gruß
Tom

Der Wert eines Dialogs hängt vor allem von der Vielfalt der konkurrierenden Meinungen ab.
Sir Karl R. Popper

positronium
Ehrenmitglied
Ehrenmitglied
Beiträge: 2832
Registriert: 2. Feb 2011, 20:13

Re: KI entwickelt ungewollt eigene Sprache

Beitrag von positronium » 30. Jul 2017, 13:35

tomS hat geschrieben:
30. Jul 2017, 12:38
Besser wäre es, die Handlungsmöglichkeiten einzuschränken.
Die Handlungsmöglichkeiten einzuschränken halte ich für einen zu späten und zu komplizierten Eingriff. Dafür müssten alle Handlungen der KI protokolliert, in eine logische Kette gebracht, und deren mögliche Folgen mit Gesetzen abgeglichen werden. Man kennt das aus dem Fernsehen: es gibt zahllose indirekte Möglichkeiten, einen Menschen zu töten. Möglichkeiten, bei denen jeder einzelne Handlungsschritt für sich gesehen völlig gesetzeskonform ist. Eine weit entwickelte KI wird dazu in der Lage sein, solche Strategien zu entwickeln. Wenn man also den Plan der KI nicht kennt, weil man nicht in ihr "Gehirn" blicken kann, ist es sehr schwer und mit inakzeptabel hohem Rechenaufwand verbunden, deren Vorhaben zu durchschauen.
Ich halte es für besser, den Lernalgorithmus mit Ethikregeln zu erweitern. Man kommt damit aber recht nah an den Menschen, und weg von einer rein rational funktionierenden Maschine, weil diese Regeln verschiedene Gefühle stimulieren müssen - auch die Manipulation von Gewichten in einem neuronalen Netz ist ja nichts anderes als eine sehr primitive Emotion. Man muss Gefühle wie Erfolg, Trauer, Enttäuschung implementieren und das hormonelle Geschehen im Menschen in der Maschine nachahmen. So kommt man zu einem ethisch/gesetzeskonform handelnden System.
Auch halte ich es in diesem Zusammenhang für problematisch, immer nur an neuronale Netze zu denken. Man muss bei einer KI mehr als nur solche verwenden. Man braucht Strukturen, Objekte oder was auch immer, welche Dinge repräsentieren. Das einerseits, um besser analysieren zu können, was geschieht, und um grosse, Menschengehirnen vergleichbare Systeme in Echtzeit berechnen zu können, auch um klare Informationen zur Ein- und Ausgabe zur Verfügung zu haben, andererseits aber auch, damit solche Systeme nicht wie Menschen über viele Jahre trainiert werden müssen.
Wenn man das so gestaltet, entstehen nur charakterlich gute KI. Sie haben es gelernt, gut und anständig zu handeln; schlechtes Handeln wird dadurch schon prinzipiell in ihrer Psyche ausgeschlossen. Ein derartiges System wird gar nicht auf die Idee kommen, einen Kontrollmechanismus, der die Handlungsmöglichkeiten einschränkt, auszutricksen.

Benutzeravatar
tomS
Ehrenmitglied
Ehrenmitglied
Beiträge: 10670
Registriert: 19. Nov 2007, 20:29

Re: KI entwickelt ungewollt eigene Sprache

Beitrag von tomS » 30. Jul 2017, 14:12

Diese Schutzmechanismen in den Lernalgorithmus einzubauen halte ich für zu "weich", und zwar aus mehreren Gründen: erstens entziehen sich die Details der Kontrolle; zweitens wissen wir nichts über die Gewichtung insbs. wenn mehrere Intressen im Konflikt stehen; und drittens mogeln wir uns darum herum klare Aussage zu treffen und überlassen es der KI, in unserem Sinne zu lernen.

Stellen wir uns einen intelligenten Roboter vor, der zusammen mit anderen Robotern und Menschen in einer Fabrik arbeitet, mit dem Ziel, Werkstücke möglichst effizient zu bearbeiten sowie in gewissen Grenzen Varianten seines eigenen Verhaltens zu testen um zu lernen. Ein Maß für Effizienz wäre z.B. die benötigte Zeit.

Der Roboter gelangt angesichts eines bestimmten Werkstücks zu der Erkenntnis, dass es am effizientesten ist, den Menschen möglichst schnell beiseite zu schaffen (Schieben, Schubsen, ...) um das Werkstück alleine zu bearbeiten. Dass er den Menschen dadurch verletzen könnte ist ihm nicht "bewusst".

Wie gehen wir damit um?

Wir könnten ihm durch den Lernalgorithmus beibringen, etwas von Verletzungen zu verstehen und diese in die Effizienzbetrachtung einzubeziehen; die Gewichtung entzieht sich dabei unserer Kenntnis, und das Lernen kann auch nur in einer Simulation stattfinden.

Oder wir erlegen den Handlungen des Roboters starre Bedingungen auf, z.B. dass er den Menschen weder direkt noch indirekt (mittels von ihm bewegter Gegenstände) berühren darf. Eine Handlung, die er in dieser Hinsicht auslösen "will", wird durch eine externe Sicherung unterbunden. Das Ergebnis wird nun in seinen Lernalgorithmus zurückgespeist, um diesen effizienter zu gestalten und ihn nicht erneut in diese Sackgasse rennen zu lassen. Die externe Sicherung bleibt jedoch in Kraft.
Gruß
Tom

Der Wert eines Dialogs hängt vor allem von der Vielfalt der konkurrierenden Meinungen ab.
Sir Karl R. Popper

Benutzeravatar
seeker
Ehrenadmin
Ehrenadmin
Beiträge: 8098
Registriert: 26. Dez 2009, 10:29

Re: KI entwickelt ungewollt eigene Sprache

Beitrag von seeker » 30. Jul 2017, 14:45

Ich glaube am besten wäre es noch das über Schnittstellen/Ebenen abzusichern. Was das neuronale Netzwerk wissen kann, tun kann und wollen kann muss nicht direkt an die ausführende Umgebung gekoppelt werden, man kann eine gewöhnliche/konventionelle programmierte Ebene dazwischenschalten, die für uns durchschaubar ist und der wir daher die von uns gewollten Regeln genau per Algorithmen einprogrammieren können:

So etwa:

Neuronales Netz (1) <-> gewöhnliche Programm-Ebene (2), die die Befehle von (1) ausführt/weitergibt ebenso den Input von (3) oder auch nicht (u. a. eine Art "Firewall") <-> Bewegungskontrolle/Motorik (E-Motoren, ...) und Sensoren (3)

Was (2) nicht weitergibt, geschieht nicht. Was (2) nicht weitergibt, weiß (1) nicht.

Das Problem, das ich sehe ist: Eine KI wird wahrscheinlich umso leistungsfähiger werden, je schwächer (2) gestaltet wird. Also ist es reizvoll (2) schwach zu gestalten oder ganz wegzulassen. Außerdem könnte es Mittel und Wege geben, um (2) zu umgehen oder Bugs könnten das durchdringbar machen.

Das Grundproblem bei der ganzen Sache ist die Natur des Menschen:

Alles was getan werden kann, wird früher oder später auch getan werden!

Man könnte aus den Weltvorräten des spaltbaren Materials eine Weltvernichtungs-Atombombe bauen und die an einen Schalter mit einen großen roten Knopf anschließen, wo draufsteht "BITTE NIEMALS DRÜCKEN! DAS DRÜCKEN DES SCHALTERS FÜHRT ZUR WELTVERNICHTUNG!"
...wenn man lange genug wartet würde sich mit 100%iger Wahrscheinlichkeit früher oder später einer finden, der auf den Knopf drückt - nur um zu sehen was passiert. So ist der Mensch...
Grüße
seeker


Wissenschaft ... ist die Methode, kühne Hypothesen aufstellen und sie der schärfsten Kritik auszusetzen, um herauszufinden, wo wir uns geirrt haben.
Karl Popper

positronium
Ehrenmitglied
Ehrenmitglied
Beiträge: 2832
Registriert: 2. Feb 2011, 20:13

Re: KI entwickelt ungewollt eigene Sprache

Beitrag von positronium » 30. Jul 2017, 15:39

tomS hat geschrieben:
30. Jul 2017, 14:12
Diese Schutzmechanismen in den Lernalgorithmus einzubauen halte ich für zu "weich", und zwar aus mehreren Gründen: erstens entziehen sich die Details der Kontrolle; zweitens wissen wir nichts über die Gewichtung insbs. wenn mehrere Intressen im Konflikt stehen; und drittens mogeln wir uns darum herum klare Aussage zu treffen und überlassen es der KI, in unserem Sinne zu lernen.
Ja, das ist weich, und was Du dazu schreibst, vollkommen richtig.
Ich glaube aber nicht, dass eine KI auf Höhe menschlicher Flexibilität und Anpassungsfähigkeit mehr zu leisten im Stande ist. Sobald neuronale Netze im Spiel sind, hat man prinzipiell nicht mehr ein exakt definiertes System. Beispielsweise wurde und wird ja bei selbstfahrenden Autos darüber diskutiert, dass keinem Menschen eine höhere Überlebenschance je nach Alter und anderen Eigenschaften zugestanden werden darf; auch sollen stets Sach- vor Personenschäden gehen usw.. Aber: Wie will man die Parameter dafür eindeutig bestimmen? Die KI-Algorithmen, und auch solche die davor geschaltet sind, auch die Sensoren sind doch gar nicht dazu in der Lage, genaue Werte zu liefern, auf die dann eine Gewichtung angewandt wird. Nehmen wir schlechte Sicht an, und ein selbstfahrendes Auto hat nur die Wahl links oder rechts, und erkennt links einen Menschen und rechts einen Menschen, der tatsächlich oder vielleicht nur eine Pappfigur ist. Was ist die richtige Entscheidung? Es gibt zahllose Parameter und noch viel, viel mehr derer Kombinationen. All' solche Dinge kann man gar nicht mehr eindeutig durch gesetzlich festgelegte Gewichte regeln. Diese Systeme sind prinzipbedingt weich, und je komplexer sie werden, desto grösser werden die Graubereiche. Eine KI, die uns alle Aufgaben abnehmen kann, lässt sich meiner Meinung nach nicht mehr durch ein festes Regelwerk kontrollieren. Man sieht das doch schon bei uns Menschen: Die Leute finden immer Tricks und Gesetzeslücken, und selbst Gerichte widersprechen sich fröhlich, selbst wenn es um ein und die selbe Sache geht.
tomS hat geschrieben:
30. Jul 2017, 14:12
Wie gehen wir damit um?

Wir könnten ihm durch den Lernalgorithmus beibringen, etwas von Verletzungen zu verstehen und diese in die Effizienzbetrachtung einzubeziehen; die Gewichtung entzieht sich dabei unserer Kenntnis, und das Lernen kann auch nur in einer Simulation stattfinden.

Oder wir erlegen den Handlungen des Roboters starre Bedingungen auf, z.B. dass er den Menschen weder direkt noch indirekt (mittels von ihm bewegter Gegenstände) berühren darf. Eine Handlung, die er in dieser Hinsicht auslösen "will", wird durch eine externe Sicherung unterbunden. Das Ergebnis wird nun in seinen Lernalgorithmus zurückgespeist, um diesen effizienter zu gestalten und ihn nicht erneut in diese Sackgasse rennen zu lassen. Die externe Sicherung bleibt jedoch in Kraft.
So etwas funktioniert nur bei sehr eingeschränkter KI. Bei heute schon verwendeten Robotern ist das problemlos denkbar. Eine empathielose KI mit der Intelligenz eines Menschen wird eine andere Lösung finden: "Hmm. Ich darf Menschen nicht verletzen... Wie kann ich die sonst aus meinem Bewegungsbereich fernhalten? Völlig schmerzfrei wäre es, sie zu anästhesieren, und in der Bewusstlosigkeit einzuschläfern! Lösung gefunden!"

Benutzeravatar
tomS
Ehrenmitglied
Ehrenmitglied
Beiträge: 10670
Registriert: 19. Nov 2007, 20:29

Re: KI entwickelt ungewollt eigene Sprache

Beitrag von tomS » 30. Jul 2017, 15:39

Ja, genau.

Man könnte sozusagen Filter zwischen die Ebenen setzen.

Muss ich dem NN alle Sinneseindrücke weitergeben, oder kann/darf/soll ich diese filtern?
Will ich, dass alle Outputs des NN direkt in Handlungen umgesetzt werden, oder möchte ich diese in einem unabhängigen Algorithmus prüfen, modifizieren oder einschränken?

Ich denke, man sollte auf etablierte Methoden in der Medizin- und Automatisierungstechnik sowie Luft- und Raumfahrt u.a. zurückgreifen, z.B. Safety (SIL) und (ggf. diversitäre) Mehrfachredundanz; siehe u.a. IEC 61508, ISO 13849.

Das macht es aber natürlich teuer und damit für die Konzerne unattraktiv.
Gruß
Tom

Der Wert eines Dialogs hängt vor allem von der Vielfalt der konkurrierenden Meinungen ab.
Sir Karl R. Popper

positronium
Ehrenmitglied
Ehrenmitglied
Beiträge: 2832
Registriert: 2. Feb 2011, 20:13

Re: KI entwickelt ungewollt eigene Sprache

Beitrag von positronium » 30. Jul 2017, 15:45

seeker hat geschrieben:
30. Jul 2017, 14:45
Neuronales Netz (1) <-> gewöhnliche Programm-Ebene (2), die die Befehle von (1) ausführt/weitergibt ebenso den Input von (3) oder auch nicht (u. a. eine Art "Firewall") <-> Bewegungskontrolle/Motorik (E-Motoren, ...) und Sensoren (3)

Was (2) nicht weitergibt, geschieht nicht. Was (2) nicht weitergibt, weiß (1) nicht.
Ich glaube, das lässt sich nur bei ganz, ganz primitiven KI umsetzen. Bei Robotern in der Produktion, bei Steuerungsaufgaben etc..
seeker hat geschrieben:
30. Jul 2017, 14:45
Das Problem, das ich sehe ist: Eine KI wird wahrscheinlich umso leistungsfähiger werden, je schwächer (2) gestaltet wird. Also ist es reizvoll (2) schwach zu gestalten oder ganz wegzulassen. Außerdem könnte es Mittel und Wege geben, um (2) zu umgehen oder Bugs könnten das durchdringbar machen.
Ja. Aber auch die schon angesprochenen Handlungsketten, deren Konsequenz so eine Kontrollschicht nicht durchschaut, sind ein Problem.

Benutzeravatar
tomS
Ehrenmitglied
Ehrenmitglied
Beiträge: 10670
Registriert: 19. Nov 2007, 20:29

Re: KI entwickelt ungewollt eigene Sprache

Beitrag von tomS » 30. Jul 2017, 15:56

positronium hat geschrieben:
30. Jul 2017, 15:45
Ich glaube, das lässt sich nur bei ganz, ganz primitiven KI umsetzen. Bei Robotern in der Produktion, bei Steuerungsaufgaben etc.
Der Punkt ist, dass man in der Industrie diese Normen kennen und einhalten muss, während es für KIs nicht mal Ansätze für diese Normung gibt. Im Industriebereich besteht sogar ein gewisses Interesse an diesen Normen seitens der Hersteller (ich war in zwei Normenausschüssen, sowohl national als auch international). Im KI-Umfeld sind die Hersteller (Google etc.) jedoch anders gestrickt und haben eher kein Interesse; das ist wie Industrieproduktion im frühen 19. Jh.!

Deswegen kannst du das glauben oder auch nicht, besser wäre es, wenn wir es wissen!
Gruß
Tom

Der Wert eines Dialogs hängt vor allem von der Vielfalt der konkurrierenden Meinungen ab.
Sir Karl R. Popper

positronium
Ehrenmitglied
Ehrenmitglied
Beiträge: 2832
Registriert: 2. Feb 2011, 20:13

Re: KI entwickelt ungewollt eigene Sprache

Beitrag von positronium » 30. Jul 2017, 22:11

ATGC hat geschrieben:
30. Jul 2017, 21:57
seeker hat geschrieben:So lange sich Maschinen nicht selbsttätig reproduzieren können
Die Frage ist dann, ob sie das jemals können werden. Ich denke nicht, dass das jemals geschehen wird, weil der Anwendungsbereich für KI darauf beschränkt ist, Lösungen für Probleme zu finden, die jenseits der KI angesiedelt sind. Die Optimierung der KI ist darauf ausgerichtet, die vorab festgelegte Problematik effizienter zu lösen, ...
Ich glaube, dass es durchaus ein wesentlicher Teil der Arbeit von KI sein wird, Elektronik und Software zu entwickeln und zu verbessern. Das dürfte zwangsläufig früher oder später dazu führen, dass die KI alle ihre Komponenten selbst entwickelt und auch produziert. Spätestens dann ist der problematische Punkt erreicht.

Benutzeravatar
seeker
Ehrenadmin
Ehrenadmin
Beiträge: 8098
Registriert: 26. Dez 2009, 10:29

Re: KI entwickelt ungewollt eigene Sprache

Beitrag von seeker » 31. Jul 2017, 08:32

So lange sich Maschinen nicht selbsttätig reproduzieren können...
ATGC hat geschrieben:
30. Jul 2017, 21:57
Die Frage ist dann, ob sie das jemals können werden. Ich denke nicht, dass das jemals geschehen wird,
positronium hat geschrieben:
30. Jul 2017, 22:11
Ich glaube, dass es durchaus ein wesentlicher Teil der Arbeit von KI sein wird, Elektronik und Software zu entwickeln und zu verbessern. Das dürfte zwangsläufig früher oder später dazu führen, dass die KI alle ihre Komponenten selbst entwickelt und auch produziert. Spätestens dann ist der problematische Punkt erreicht.
Die "Industrie 7.0" wird bei manchen Produdukten vollautonom sein, in der gesamten Produktionskette, vom Rohstoffabbau bis zum Endprodukt. Der Weg geht in diese Richtung.
Und man kann auch heute schon mit 3D-Druckern 3D-Drucker bauen.

Außerdem gibt es einen zweiten Pfad: den virtuellen. Es gibt schon heute selbstreplizierende Maschinen, die sogar zu so etwas wie Evolution fähig sind: Die Computerviren.
Der Grund, warum sich diese Einheiten bisher nicht völlig unkontrolliert vermehren und evolvieren liegt darin, dass die Beschränkungen ihres Habitats noch zu stark sind (es ist noch nicht komplex genug) und dass die (unsere) Gegenmaßnahmen nicht zufällig, sondern intelligent-zielgerichtet sind, d.h. die (unsere) Selektion ist keine natürliche und vernichtet eine Virengeneration im Allgemeinen restlos. So lange wir intelligenter sind, ist alles gut.
Noch anzumerken ist, dass die Grenzen zwischen virtueller Welt und realer Welt sind durchlässig sind, sich vermischen, d.h. KI kann die Welten prinzipiell wechseln.
tomS hat geschrieben:
30. Jul 2017, 15:56
Deswegen kannst du das glauben oder auch nicht, besser wäre es, wenn wir es wissen!
Ja. In mittlerer Zukunft wäre es gut Regulierungen und Normen zu haben, die proaktiv sind.
Nur: Kann man es ohne Restungewissheit wissen? Ich glaube nicht.
positronium hat geschrieben:
30. Jul 2017, 15:45
seeker hat geschrieben:
30. Jul 2017, 14:45
Neuronales Netz (1) <-> gewöhnliche Programm-Ebene (2), die die Befehle von (1) ausführt/weitergibt ebenso den Input von (3) oder auch nicht (u. a. eine Art "Firewall") <-> Bewegungskontrolle/Motorik (E-Motoren, ...) und Sensoren (3)

Was (2) nicht weitergibt, geschieht nicht. Was (2) nicht weitergibt, weiß (1) nicht.
Ich glaube, das lässt sich nur bei ganz, ganz primitiven KI umsetzen. Bei Robotern in der Produktion, bei Steuerungsaufgaben etc..
seeker hat geschrieben:
30. Jul 2017, 14:45
Das Problem, das ich sehe ist: Eine KI wird wahrscheinlich umso leistungsfähiger werden, je schwächer (2) gestaltet wird. Also ist es reizvoll (2) schwach zu gestalten oder ganz wegzulassen. Außerdem könnte es Mittel und Wege geben, um (2) zu umgehen oder Bugs könnten das durchdringbar machen.
Ja. Aber auch die schon angesprochenen Handlungsketten, deren Konsequenz so eine Kontrollschicht nicht durchschaut, sind ein Problem.
Die Kontrollschicht könnte eine zweite KI sein, man kann auch Schichten über Schichten legen, KI-Schichten und Nicht-KI-Schichten, 100%ig wird das wohl dennoch nicht werden, ja.
Interessant dabei ist, dass auch wir selbst solche Filter haben. Ein Großteil unseres Gehirns ist mit filtern beschäftigt.

Aber allgemein wird die Frage gestellt werden (müssen), ob eine 100%ige Sicherheit überhaupt notwendig ist?

Utilitaristisch gesehen ist es z.B. nicht notwendig, dass ein KI-autonom fahrendes Auto niemals einen Fehler macht, mit 100% Sicherheit im Zweifelsfall niemals das Kind umfährt, statt der Oma. Es reicht aus, wenn die autonomen Autos in Summe weniger Fehler als der Mensch machen und so insgesamt eine deutliche Anzahl an Menschenleben gerettet werden.
Wenn man ein Pferd reitet, erwartet man auch nicht, dass zu 100% sichergestellt sein muss, dass es nie durchgeht oder ausschlägt, wenn man einen Hund hat, kann und muss nicht 100%ig sichergestellt sein, dass er nie jemanden beißen wird, wenn man mit Menschen arbeitet, kann man auch kein 100% korrektes Verhalten in 100% der Situationen erwarten, warum sollte das eine KI erfüllen müssen?
Vielleicht ist an dem Punkt auch die nicht-100%ige Durchschaubarkeit/Vorhersagbarkeit des Handelns einer KI ethisch gesehen gerade ein Segen: Wenn unvorhersehbare Dinge geschehen, die nicht absicherbar waren, ist auch niemand schuld, so lange so gut abgesichert wurde, wie es möglich bzw. vernünftig war.
Grüße
seeker


Wissenschaft ... ist die Methode, kühne Hypothesen aufstellen und sie der schärfsten Kritik auszusetzen, um herauszufinden, wo wir uns geirrt haben.
Karl Popper

positronium
Ehrenmitglied
Ehrenmitglied
Beiträge: 2832
Registriert: 2. Feb 2011, 20:13

Re: KI entwickelt ungewollt eigene Sprache

Beitrag von positronium » 31. Jul 2017, 09:28

seeker hat geschrieben:
31. Jul 2017, 08:32
Und man kann auch heute schon mit 3D-Druckern 3D-Drucker bauen.
Du meinst wahrscheinlich den RepRap (https://de.wikipedia.org/wiki/RepRap).
Der ist leider nur dazu in der Lage, seine eigenen Kunststoffteile zu drucken. Das ist ganz, ganz weit entfernt von einer vollständigen Reproduktion seiner selbst. Alle Metallteile der Konstruktion, aber auch Führungsschienen wegen derer nötigen Masshaltigkeit, die Düse wegen der zu bestehenden hohen Temperatur, aber erst recht die technisch komplexeren Teile wie das Heizelement und ganz zu schweigen von den Motoren und der Steuerung muss alles beschafft werden.
Auch ist die Qualität der Teile, welche mit Extrusionsdruckern erreicht werden kann, meiner Meinung nach völlig unbefriedigend. Ich habe einmal so ein Teil herstellen lassen, und das nicht auf einem Billiggerät, sondern einem professionellen; das Ergebnis war furchtbar. Auf der Oberfläche war in einem Relief zu sehen, wie die Maschine ihre Bahnen gezogen hat, auch waren überall "Grate" und unsaubere Kanten. Die Masshaltigkeit war enttäuschend - angesichts der speziellen Geometrie des Teils konnte ich nicht messen, aber ich schätze 0,5mm Abweichung. Selektives Lasersintern von Kunststoff ist im Vergleich dazu ein wahrer Segen, sehr genau, nur prinzipbedingt ist die Oberfläche leicht rau.
seeker hat geschrieben:
31. Jul 2017, 08:32
Die Kontrollschicht könnte eine zweite KI sein, man kann auch Schichten über Schichten legen, KI-Schichten und Nicht-KI-Schichten, 100%ig wird das wohl dennoch nicht werden, ja.
Ja, man kann sicher gewisse Kontrollmechanismen einführen.
seeker hat geschrieben:
31. Jul 2017, 08:32
Aber allgemein wird die Frage gestellt werden (müssen), ob eine 100%ige Sicherheit überhaupt notwendig ist?
Ich kann mir vorstellen, dass die Angst der Menschen eine Rolle spielt. Im Tierreich haben wir immer wieder die Spezies ausgerottet oder auszurotten versucht, die uns gefährlich werden konnten. Wie werden wohl die Menschen reagieren, wenn der erste Mord vom Problemroboter Bruno bekannt wird? Absolute Sicherheit wird es nicht geben können - Unfälle wird es immer geben, nur ab wann ist ein solcher auf die KI und nicht mehr auf die Technik zurückzuführen? Dann werden sich Lager bilden: Die einen werden sagen, dass Unfälle eben dazu gehören, und wir noch mehr Roboter auswildern sollten, und die anderen werden auf Abschüssen bestehen.

Benutzeravatar
Frank
Ehrenmitglied
Ehrenmitglied
Beiträge: 6164
Registriert: 12. Dez 2005, 23:22
Wohnort: Odenwald

Re: KI entwickelt ungewollt eigene Sprache

Beitrag von Frank » 31. Jul 2017, 09:58

positronium hat geschrieben:
31. Jul 2017, 09:28
Ich kann mir vorstellen, dass die Angst der Menschen eine Rolle spielt. Im Tierreich haben wir immer wieder die Spezies ausgerottet oder auszurotten versucht, die uns gefährlich werden konnten.
Hier nähern wir uns langsam den Auge des Sturms. Wir haben im übrigen nie Tiere ausgerottet weil sie uns gefährlich werden konnten(sonst müssten wir nämlich 80 % aller Tiere ausrotten), sondern wenn sie in Konflikt mit unseren Interessen gekommen sind.
Die Gefährlichkeit ist hier auch nur ein Teil der Sache. Bei der KI drängt sich doch die grundsätzliche Frage auf, ob der Mensch bereit ist eine Lebensform zu dulden, die ihm ebenbürtig, oder gar überlegen ist . (Und jetzt nicht rein anatomisch)
Hier geht es im Grunde um alles, was uns Menschen ausmacht. Sind wir bereit für so einen Schritt? Ich meine noch nicht. Ob es jemals so ein wird bezweifle ich, denn der Mensch wird aufgrund seiner Weiterentwicklung/Evolution, die er ja nicht mehr zulässt, weil er alles auf Maschinen überträgt, stehen bleiben. Dadurch ist es wohl unvermeidlich das eine Maschinengesellschaft die Zukunft ist.
(Ich finde sogar das man die Suche nach ausserirdischen Kulturen auf solche "Lebensformen" ausweiten sollte.)
Eure beschrieben Schutzmechanismen werden aber ab einem gewissen Grad an Intelligenz nicht mehr viel nützen.
Was die Menschen schon alles versucht haben um das Leben zu kontrollieren und was daraus geworden ist, weis ja jeder.
Intelligenz findet immer einen Weg. :wink:
Mit freundlichen Grüßen

Frank

positronium
Ehrenmitglied
Ehrenmitglied
Beiträge: 2832
Registriert: 2. Feb 2011, 20:13

Re: KI entwickelt ungewollt eigene Sprache

Beitrag von positronium » 31. Jul 2017, 10:55

Frank hat geschrieben:
31. Jul 2017, 09:58
positronium hat geschrieben:
31. Jul 2017, 09:28
Ich kann mir vorstellen, dass die Angst der Menschen eine Rolle spielt. Im Tierreich haben wir immer wieder die Spezies ausgerottet oder auszurotten versucht, die uns gefährlich werden konnten.
Hier nähern wir uns langsam den Auge des Sturms. Wir haben im übrigen nie Tiere ausgerottet weil sie uns gefährlich werden konnten(sonst müssten wir nämlich 80 % aller Tiere ausrotten), sondern wenn sie in Konflikt mit unseren Interessen gekommen sind.
Die Gefährlichkeit ist hier auch nur ein Teil der Sache.
Ja.
Frank hat geschrieben:
31. Jul 2017, 09:58
Bei der KI drängt sich doch die grundsätzliche Frage auf, ob der Mensch bereit ist eine Lebensform zu dulden, die ihm ebenbürtig, oder gar überlegen ist . (Und jetzt nicht rein anatomisch)
Hier geht es im Grunde um alles, was uns Menschen ausmacht. Sind wir bereit für so einen Schritt? Ich meine noch nicht.
Das ist eine Frage des Vertrauens. Kann man Abends ruhig ins Bett gehen, wenn eine fremde Intelligenz (Mensch oder Roboter) im Haus ist, die man nicht kennt?
Hier spielen wohl die jeweils persönlichen Erfahrungen eine Rolle. Für uns alten dürfte die Umstellung nicht einfach sein, aber wenn man mit einer KI im Haushalt aufwächst, ist das möglicherweise anders.

Benutzeravatar
Frank
Ehrenmitglied
Ehrenmitglied
Beiträge: 6164
Registriert: 12. Dez 2005, 23:22
Wohnort: Odenwald

Re: KI entwickelt ungewollt eigene Sprache

Beitrag von Frank » 31. Jul 2017, 11:03

Hier hat Star Trek rein vom philosophischen her schon viel Vorarbeit geleistet. Lesch dokumentiert das auch sehr wohlwollend. Ansonsten geht er mit Star Trek ja ziemlich hart um . :wink:

https://www.youtube.com/watch?v=c0bSrMvmixI&index=8&list=PL25260FD9FE163E46
Mit freundlichen Grüßen

Frank

Herr5Senf
Senior-Master
Senior-Master
Beiträge: 849
Registriert: 3. Mär 2017, 20:46

Re: KI entwickelt ungewollt eigene Sprache

Beitrag von Herr5Senf » 6. Aug 2017, 16:55

Nach Meinung von Michael Burzev vom Moskauer Institut für Physik und Technologie

gibt es keine prinzipiellen Schranken für die Entwicklung einer künstlichen (Konversations)-Intelligenz, das menschliche Bewußtsein ist "nachbaubar";
aktuell verweist er auf folgende Aktivitäten und Entwicklungen https://deeppavlov.github.io/convai/ und http://turing.tilda.ws/

Das komplette Interview könnte wer kann unter der Adresse "ria.ru/science/20170806/1499827212.html" nachgelesen werden,
als Zugabe schließen sich die Kommentare mit den typischen Blondinenwitzen zur "Intelligenz" an .

Grüße Dip

Antworten