Hinweis auf die DSGVO: Auf unserer Seite werden keine Dritt-Anbieter-Cookies verwendet und nur Daten erfasst, welche für das Minimum an Board-Funktionalität notwendig sind.
Bevor Sie sich registrieren oder das Board verwenden, lesen Sie bitte zusätzlich die DSGVO-Erklärung, welche in der Navigationsleiste verlinkt ist.

Kurzfassung der unserer Meinung nach wichtigsten DSGVO-Punkte:
Es kann vorkommen, dass Benutzer eigenverantwortlich Videos oder sonstige Medien in ihren Beiträgen verlinken, welche beim Aufruf der Forenseite als Teil der Seite samt zugehörigem Material mitgeladen werden. Sollten Sie dies nicht wünschen, verwenden Sie beim Benutzen des Forums einen Blocker wie z.B. uMatrix, welcher das Laden von Inhaltsblöcken von Fremd-URLs effektiv unterbinden kann.
Wir blenden keine Werbung ein und schränken die Inhalte in keinster Weise bei Benutzung von Addblockern ein. Dadurch ist die Grundfunktionalität des Forums auch bei vollständigem Blockieren von Drittanbieter-Inhalten stets gegeben.

Cookies werden unsererseits nur verwendet um das Einloggen des Benutzers für die Dauer der Forenbenutzung zu speichern. Es steht dem Benutzer frei die Option 'Angemeldet bleiben' zu verwenden, damit der Cookie dauerhaft gespeichert bleibt und beim nächsten Besuch kein erneutes Einloggen mehr notwendig ist.
EMail-Adressen werden für Kontakt bei wichtigen Mitteilungen und zur Widerherstellung des Passwortes verwendet. Die verwendeten IPs können von uns ohne externe Hilfsmittel mit keiner realen Person in Verbindung gebracht werden und werden nach spätestens 7 Tagen gelöscht. Diese IPs werden höchstens verwendet um Neuanmeldungen unerwünschter oder gesperrter Nutzer zu identfizieren und zu unterbinden. Wir behalten uns daher vor bei Verdacht, die Frist für die IP-Löschung auf maximal 14 Tage zu verlängern.
Unsere Webseite läuft auf einem virtuellen Linux-Server, welcher von einem externen Anbieter gehostet wird. Etwaige Verstöße der DSGVO-Auflagen seitens dieses deutschen Hosters können wir nicht feststellen und somit auch nicht verfolgen.
Wir halten Backups unserer Datenbanken, welche in regelmäßigen Abständen als Schutz vor Katastrophen, Hackerangriffen und sonstigen Ausfällen erstellt werden. Sollte ein Nutzer die Löschung seiner Daten wünschen, betrachten wir es als Unzumutbar die Backups auch von den Daten zu befreien, da es sich hierbei um eine mehrtägiges Unterfangen handelt - dies ist für eine Einzelperson beim Betrieb eines privaten Forums nicht zumutbar möglich ohne das Backup komplett zu löschen.
Sollten Sie etwas gegen die dauerhafte anonyme Speicherung ihrer EMail-Adresse, ihres Pseudonyms und ihrer Beiträge in einem Backup haben, sehen Sie von der Registrierung in diesem Forum ab. Für Mitglieder, welche vor dem 25.05.2018 registriert waren steht jedoch das Recht im Raum, eine Löschung der Datenbank-Backups zu beantragen.



Wenn dies Ihr erster Besuch hier ist, lesen Sie bitte zunächst die FAQs sowie die wesentlichen Regeln zur Benutzung des Forums.
Um an den Diskussionen teilnehmen zu können, müssen Sie sich zunächst registrieren.

AlphaGo

Wissenschaftsgeschichte, Wissenschaftstheorie bzw. -philosophie, Technik
Benutzeravatar
seeker
Ehrenadmin
Ehrenadmin
Beiträge: 8098
Registriert: 26. Dez 2009, 10:29

AlphaGo

Beitrag von seeker » 13. Jun 2017, 14:09

Wir hatten das andernorts schon einmal erwähnt...

Ich bin über diesen interessanten Bericht gestoplert:

Software-Sieg im Brettspiel

Es geht um weit mehr als Go
http://www.spiegel.de/netzwelt/gadgets/ ... 82001.html
Big Data plus lernende Software - da kommt was auf uns zu

Tatsächlich müssen wir uns vorerst wirklich keine Sorgen machen, dass eine künstliche Intelligenz die Menschheit unterjocht oder gar ausrottet. Was gerade geschieht, ist nicht apokalyptisch aber für das Selbstverständnis der Menschheit vermutlich trotzdem schwer verdaulich: Eine Maschine - oder besser: eine Software - kann, in klar beschriebenen, eng umgrenzten Gebieten tatsächlich schlauer werden als alle Menschen.

So schlau, dass nicht mehr die Software von den Menschen lernt - sondern umgekehrt. Die Züge von AlphaGo werden wohl verändern, wie Menschen künftig Go spielen. Obwohl, und da wird es spannend, niemand weiß, wie sie genau auf diese Züge gekommen ist. Da gewinnt das Diktum des Science-Fiction-Autors Arthur C. Clarke ganz neue Aktualität: "Jede ausreichend weit entwickelte Technologie ist von Magie nicht mehr zu unterscheiden."

Ein neuronales Netz ist, obwohl man alle seine Verbindungen und Gewichtungen betrachten kann, letztlich eine Black Box. Niemand versteht wirklich, wie es zu seinen Ergebnissen kommt. Ob sie etwas taugen, lässt sich nur im Abgleich mit der Realität - zum Beispiel den Leistungen eines Go-Profis - ermitteln. Immer vorausgesetzt, es liegen ausreichend viele Daten - beispielsweise historische Go-Partien - vor, um das Netzwerk zu trainieren, es auf den Weg zu bringen.

...

Lernende Software, die uns in ihrem Spezialgebiet überflügelt, wird zum Lehrmeister der Menschheit werden.

Das birgt eine Gefahr: Wenn wir uns auf die Vorhersagen der Rechenmaschinen verlassen, ohne zu begreifen, wie diese Vorhersagen zustandekommen, verabschieden wir uns vom Grundprinzip wissenschaftlicher Erkenntnis, ja von der Erkenntnis an sich: Die Black Box wird uns nicht verraten, wie sie auf ihr Ergebnis gekommen ist. Wissenschaftler werden künftig immer häufiger damit beschäftigt sein, im Nachhinein kausale Erklärungen zu finden für die Voraussagen, die Software aus Hunderttausenden komplexen Korrelationen abgeleitet hat. Das stellt die Wissenschaft, wie wir sie kennen, auf den Kopf.
Ich wiederhole:

Das wird die Wissenschaft, wie wir sie kennen, auf den Kopf stellen!
Wir werden in absehbar nicht allzu ferner Zukunft nicht mehr länger direkte Erkenntnisse von die Natur gewinnen, sondern Erkenntnisse darüber, was uns die KI an Aussagen über die Natur mitteilt, die sie auf eine uns unverständliche Weise von der Natur gewonnen hat.

Das ist sehr bedeutend...
Grüße
seeker


Wissenschaft ... ist die Methode, kühne Hypothesen aufstellen und sie der schärfsten Kritik auszusetzen, um herauszufinden, wo wir uns geirrt haben.
Karl Popper

Dares
Senior-Master
Senior-Master
Beiträge: 679
Registriert: 17. Feb 2016, 15:37

Re: AlphaGo

Beitrag von Dares » 13. Jun 2017, 14:47

Hoppla,

ich würde da eher etwas bremsen anstatt voll durchzustarten. Letztendlich ist es eine Maschine die erstmal Rechenaufgaben gemäss des
Programmes ausführt. Also von KI würde ich hier nicht reden. Aber man könnte gewiss grosse Simulationen durchführen was das Universum
anbelangt.

Wenn es um KI geht läuft mir immer ein "kalter Schauer" über den Rücken. Mag ja sein dass wir irgendwann mal Maschinen entwickeln die lt.
ihrer progammierung selbsständig lernen und vlt. auch ein eigenes Ego entwickeln. Aber davor beschütze uns Gott.
seeker hat geschrieben:
13. Jun 2017, 14:09
Das ist sehr bedeutend...
Was meintest Du damit? Meintest Du positiv oder negativ?

Freundliche Grüsse

Dares

Benutzeravatar
tomS
Ehrenmitglied
Ehrenmitglied
Beiträge: 10670
Registriert: 19. Nov 2007, 20:29

Re: AlphaGo

Beitrag von tomS » 13. Jun 2017, 15:08

Dares hat geschrieben:
13. Jun 2017, 14:47
... ich würde da eher etwas bremsen anstatt voll durchzustarten. Letztendlich ist es eine Maschine die erstmal Rechenaufgaben gemäss des
Programmes ausführt. Also von KI würde ich hier nicht reden.
Warum? Was ist eine KI anderes als ein Algorithmus?
Dares hat geschrieben:
13. Jun 2017, 14:47
Wenn es um KI geht läuft mir immer ein "kalter Schauer" über den Rücken. Mag ja sein dass wir irgendwann mal Maschinen entwickeln die lt.
ihrer progammierung selbsständig lernen und vlt. auch ein eigenes Ego entwickeln.
Warum? Inwiefern unterscheidet sich ein "Ego" von einem intelligenten Algorithmus?
Gruß
Tom

Der Wert eines Dialogs hängt vor allem von der Vielfalt der konkurrierenden Meinungen ab.
Sir Karl R. Popper

Dares
Senior-Master
Senior-Master
Beiträge: 679
Registriert: 17. Feb 2016, 15:37

Re: AlphaGo

Beitrag von Dares » 13. Jun 2017, 15:23

tomS hat geschrieben:
13. Jun 2017, 15:08
Warum? Was ist eine KI anderes als ein Algorithmus?
Richtig, aber darum geht es.
tomS hat geschrieben:
13. Jun 2017, 15:08
Warum? Inwiefern unterscheidet sich ein "Ego" von einem intelligenten Algorithmus?
Auch richtig, aber um es nochmal zu sagen obwohl es rein philosophisch ist so bin ich doch Mensch auch wenn Du vlt. meinst dass unsere eigenen
Gedankenprozesse auch nur einem intelligenten Algorithmus folgen und daraus auch ein Ego entstanden ist, mag sein..

Mal anders gesagt: Ich denke und handele also bin ich. Das möchte ich einer Maschine nicht zugestehen.

Dares

@Tom: Nochmal eine Nachfrage: So wie ich es erstmal verstanden habe hast Du geschrieben dass alles einem Algorithmus folgt.
Wo liegt der Unterschied zwischen einem Menschen und einer von uns Menschen selbst erschaffenden itelligenten Maschine?

Benutzeravatar
tomS
Ehrenmitglied
Ehrenmitglied
Beiträge: 10670
Registriert: 19. Nov 2007, 20:29

Re: AlphaGo

Beitrag von tomS » 13. Jun 2017, 17:36

Dares hat geschrieben:
13. Jun 2017, 15:23
tomS hat geschrieben:
13. Jun 2017, 15:08
Warum? Inwiefern unterscheidet sich ein "Ego" von einem intelligenten Algorithmus?
Auch richtig, aber um es nochmal zu sagen obwohl es rein philosophisch ist so bin ich doch Mensch auch wenn Du vlt. meinst dass unsere eigenen
Gedankenprozesse auch nur einem intelligenten Algorithmus folgen und daraus auch ein Ego entstanden ist, mag sein..

Mal anders gesagt: Ich denke und handele also bin ich. Das möchte ich einer Maschine nicht zugestehen.

Dares

@Tom: Nochmal eine Nachfrage: So wie ich es erstmal verstanden habe hast Du geschrieben dass alles einem Algorithmus folgt.
Wo liegt der Unterschied zwischen einem Menschen und einer von uns Menschen selbst erschaffenden itelligenten Maschine?
Ich behaupte nicht, dass unsere eigenen Gedankenprozesse einem intelligenten Algorithmus folgen und daraus unser Ego entstanden ist. Ich behaupte, dass es so sein könnte, dass wir es heute sicher nicht wissen, also weder bejahen noch verneinen können, und dass wir das möglicherweise prinzipiell nie wissen können.

Ob du das einer Maschine nicht zugestehen möchtest ist also gar nicht die Frage. Natürlich kannst du eine Maschine dumm halten und so dieser Gefahr von vorne herein begegnen. Aber wenn eine Maschine sehr schlau ist, kannst du nicht wissen, ob sie ein "Ego" hat, weil du nicht definieren kannst, was ein "Ego" ist, und weil dieses "Ego" m.E. grundsätzlich nicht durch Beobachtung nachweisbar oder widerlegbar ist.
Gruß
Tom

Der Wert eines Dialogs hängt vor allem von der Vielfalt der konkurrierenden Meinungen ab.
Sir Karl R. Popper

Benutzeravatar
seeker
Ehrenadmin
Ehrenadmin
Beiträge: 8098
Registriert: 26. Dez 2009, 10:29

Re: AlphaGo

Beitrag von seeker » 13. Jun 2017, 18:28

Das ist hier auch gar nicht die Frage.

Der Punkt ist:
Sobald eine KI bessere Antworten zu unseren Fragen über die Natur zu geben in der Lage ist (incl. der Generierung mathematischer Theorien), als wir selber, ändert das alles, ganz gleich wie sie das macht, ob sie ein Ich hat oder nicht, etc.
Denn wenn wir dann etwas wissen wollen, brauchen wir uns nicht mehr selber bemühen, wir fragen einfach die KI!
Unsere Aufgabe wird dann darin bestehen die Antworten der KI zu verstehen und zu versuchen in einer uns verständlichen Weise nachzuvollziehen, wie man auf eine solche Antwort kommen kann, sprich: von der KI zu lernen.
Grüße
seeker


Wissenschaft ... ist die Methode, kühne Hypothesen aufstellen und sie der schärfsten Kritik auszusetzen, um herauszufinden, wo wir uns geirrt haben.
Karl Popper

Analytiker
wohnt hier!
wohnt hier!
Beiträge: 410
Registriert: 3. Sep 2011, 17:18

Re: AlphaGo

Beitrag von Analytiker » 13. Jun 2017, 18:44

Google hat eine KI-Software im Bereich der Spracherkennung entwickelt, die selbstlernend ist.

http://t3n.de/news/ki-ai-software-787665/

Es ist möglich, dass in der Zukunft vermehrt Software entwickelt wird, die in der Lage ist, sich eigenständig zu verbessern. Einfache Programmiertätigkeiten wären dann obsolet. Es würde ein großer Wettbewerb einsetzen, der immer intelligentere Software hervorbringen würde. Gewöhnliche Programmierer oder auch Softwareentwickler wären dann abgehängt.

Automatisierte Evolution von Software könnte eine erhebliche Eigendynamik entwickeln, die zu einer Explosion auf dem Softwaremarkt führen könnte.

Die Prozesse, die im Detail bei einer hochentwickelten KI ablaufen würde, wären selbst für Experten schwer zu verstehen.

Gruß
Analytiker

Dares
Senior-Master
Senior-Master
Beiträge: 679
Registriert: 17. Feb 2016, 15:37

Re: AlphaGo

Beitrag von Dares » 13. Jun 2017, 19:24

seeker hat geschrieben:
13. Jun 2017, 18:28
Sobald eine KI bessere Antworten zu unseren Fragen über die Natur zu geben in der Lage ist (incl. der Generierung mathematischer Theorien), als wir selber, ändert das alles, ganz gleich wie sie das macht, ob sie ein Ich hat oder nicht, etc.
Denn wenn wir dann etwas wissen wollen, brauchen wir uns nicht mehr selber bemühen, wir fragen einfach die KI!
Ja und nein, so einfach ist das nicht. Erstmal muss die KI von uns selber programmiert werden damit sie unseren Erwartungen einer KI erfüllt.
Zum Anderen wenn ich eine KI habe wozu muss ich dann noch selber denken? Ich frage einfach die KI. Und wenn ich nicht selber denke
verkümmert das Gehirn und wir werden Sklaven einer KI. Also haben wir damit einen Rückschritt in unserer Entwicklung.
Analytiker hat geschrieben:
13. Jun 2017, 18:44
Die Prozesse, die im Detail bei einer hochentwickelten KI ablaufen würde, wären selbst für Experten schwer zu verstehen.
Das könnte ggf. so sein. Zumal dann wenn wir die Kontrolle verlieren.

Grüsse

Dares

positronium
Ehrenmitglied
Ehrenmitglied
Beiträge: 2832
Registriert: 2. Feb 2011, 20:13

Re: AlphaGo

Beitrag von positronium » 13. Jun 2017, 19:44

Ich wäre eher zurückhaltend darin, zu sagen, dass von einer KI entwickelte/erarbeitete Theorien o.ä. von streng logischen Dingen wie der Physik vom Menschen nicht mehr verstanden werden könnten.
Man muss nämlich bedenken, dass eine KI wie der Mensch weich in der Logik ist. Will sie wie z.B. unsere Physiker Physik betreiben, wird ihr deshalb nichts anderes übrig bleiben, als die Mathematik zu erlernen (oder sich selbst zu erarbeiten), und mit dieser strengen Logik zu arbeiten.
Würde sie das nicht tun, wären ihre Prognosen rein erfahrungsbasiert. Sie würde z.B. wie ein Mensch ohne jedes physikalisches Verständnis oder wie jedes x-beliebige Tier denken: Äpfel fallen nach unten.
Baut aber eine KI auch auf Mathematik, dann lässt sich das definitiv in unsere Formelsprache übersetzen.

Analytiker
wohnt hier!
wohnt hier!
Beiträge: 410
Registriert: 3. Sep 2011, 17:18

Re: AlphaGo

Beitrag von Analytiker » 13. Jun 2017, 23:13

Die Gesetze der Logik sind den Experten bekannt und mit genügend Aufwand lässt sich nachvollziehen, wie intelligente Software funktioniert. Komplexe selbstlernende Software wird ab einem gewissen Grad den besten Programmierern überlegen sein. Diese Entwicklung wird sich verstärken und nur durch Grenzen in der Hardware limitiert werden.

Das Mooresche Gesetz wird auf Dauer nicht zu halten sein. Schon jetzt ist man dabei, die Miniaturisierungsgrenzen klassischer Schaltkreise zu erreichen.

Wie weit man Quantencomputer entwickeln kann, ist derzeit eine offene Frage.

Gesagt werden kann, dass in der KI noch sehr viel Potential steckt.

Gruß
Analytiker

Benutzeravatar
Frank
Ehrenmitglied
Ehrenmitglied
Beiträge: 6164
Registriert: 12. Dez 2005, 23:22
Wohnort: Odenwald

Re: AlphaGo

Beitrag von Frank » 14. Jun 2017, 09:10

Analytiker hat geschrieben:
13. Jun 2017, 23:13


Wie weit man Quantencomputer entwickeln kann, ist derzeit eine offene Frage.

Ich denke man ist da schon weiter, als die meisten Menschen es sich vorstellen können. :wink:

viewtopic.php?f=65&t=3564&p=54594&hilit ... ter#p54594

Zumal man m.M. nach ganz klar sagen muss, dass der Mensch in der Evolution eher an einen Punkt gelangt ist, an dem es nicht mehr großartig weiter führt.
Der "Jetztmensch " hat sich in den letzten 30-40.000 Jahren intelektuell nicht mehr weiter entwickelt. Im großen und ganzen können wir inzwischen Milch ganz gut verdauen, was so ziemlich die größte evolutionäre Weiterentwicklung der letzten 10.000 Jahre darstellt.
Ist ja auch kein Wunder, denn für alle Defizite die der Mensch hatte, wurde es etwas von ihm erfunden, was diese Sache dann bewältigt hat.
Inzwischen findet Evolution(was den Menschen betrifft) fast nur noch im technischen Bereich statt. Darum ist es wohl die logische Folge, dass diese Technik hier mal die Führung übernehmen wird. Schlieslich machen Roboter und Computer im Weltall schon so gut wie alles, weil der Mensch mit seiner Anatomie erstmal mehr geschützt werden muss, wie die ganze Sache bringt.
Natürlich ist K.I. ein zäher Prozess, aber wie man schon aus der erdgeschichtlichen Evolution weis, ist die Einzellerphase auch seeeehr lang gewesen. Ist dann aber irgendwann ein Punkt erreicht, dann explodiert alles förmlich. Der Mensch kann da, wenn überhaupt, nur noch als Hybridwesen mithalten.
Mit freundlichen Grüßen

Frank

deltaxp
Ehrenmitglied
Ehrenmitglied
Beiträge: 1129
Registriert: 23. Sep 2010, 17:02

Re: AlphaGo

Beitrag von deltaxp » 14. Jun 2017, 14:50

man darf die KI im bisherigen masse nicht falsch einschätzen. maschinelles lernen findet i.a. muster und Strukturen in einem komplexen System aber kann bisher nicht die Dynamik, also Ursache und Wirkung, die diese muster und strukturenen hervorgerufen haben, ableiten (noch nicht). das ist noch aufgabe des menschen,wenn er es will.

es gibt da seit big data immer diesen Hype, wir stopfen alles in ki-algorithmen, die spucken uns Ergebnisse aus und wir sind fertig. wenn man nur phänomenologisches Interesse hat, mag das reichen. aber sonst muss man immer noch mit eigenem köpchen ran.

ich bin aber sicher, dass irgendwann das die Maschinen auch besser können als wir. nur ne frage der zeit. dann wird irgendein Computer den Nobelpreis für Physik oder Chemie oder so gewinnen :P

Pippen
Ehrenmitglied
Ehrenmitglied
Beiträge: 2071
Registriert: 9. Jul 2010, 04:02

Re: AlphaGo

Beitrag von Pippen » 14. Jun 2017, 16:31

An AlphaGo sieht man sehr gut, was AI so stark macht: nämlich die präzsisere Auswertung von mehr Daten. Das ist alles; das ist kein qualitativer, sondern "nur" ein quantitativer Sprung, aber nicht minder groß. AI wird da noch sehr viel entdecken, was wir derzeit übersehen. Leider wird AI gerade dort, wo es gebraucht würde, nichts bringen, weil es dort keine (metrischen) Daten gibt. Theologie (auch Teile der Philosophie), Jura und Politik werden sich extrem lange vor AI schützen können und gerade dort würde sie gebraucht.

Ich bin jetzt auf die AI gespannt, die reale Spiele versucht, zB Fußball. Realitäten haben eine viel höhere Komplexität als die üblichen diskreten Brett- oder Kartenspiele. Go hat zB etwa 10170 gültige Spielpositionen, Fußball hat viel mehr. Wenn wir ein Spielfeld mal in 5000m2 einteilen und insgesamt (aufgrund der Kontinuität) lächerliche 500 Zustände annehmen, die da vorkommen können (Spieler Nr. 1 drin? Rennt Nr. 5? Steht Nr. 7? Ball? Liegt Nr. 11? Köpft Nr. 10? ...), dann gäbe es 5000!/(5000-500)!*500 = 101835 Kombinationen, also gültige Spielpositionen. Das wäre eine ganz andere Hausnummer.

Benutzeravatar
tomS
Ehrenmitglied
Ehrenmitglied
Beiträge: 10670
Registriert: 19. Nov 2007, 20:29

Re: AlphaGo

Beitrag von tomS » 15. Jun 2017, 08:28

positronium hat geschrieben:
13. Jun 2017, 19:44
Ich wäre eher zurückhaltend darin, zu sagen, dass von einer KI entwickelte/erarbeitete Theorien o.ä. von streng logischen Dingen wie der Physik vom Menschen nicht mehr verstanden werden könnten.
Es gibt m.W.n. bereits einen mittels Computer erbrachten Beweis eines mathematischen Theorems, an dessen Verifizierung die Gutachter letztlich gescheitert sind.
positronium hat geschrieben:
13. Jun 2017, 19:44
Baut aber eine KI auch auf Mathematik, dann lässt sich das definitiv in unsere Formelsprache übersetzen.
Was nicht bedeutet, dass ihre Schlussfolgerung für den uns verstehbar sein müssen.
Gruß
Tom

Der Wert eines Dialogs hängt vor allem von der Vielfalt der konkurrierenden Meinungen ab.
Sir Karl R. Popper

Benutzeravatar
tomS
Ehrenmitglied
Ehrenmitglied
Beiträge: 10670
Registriert: 19. Nov 2007, 20:29

Re: AlphaGo

Beitrag von tomS » 15. Jun 2017, 08:31

Analytiker hat geschrieben:
13. Jun 2017, 23:13
Die Gesetze der Logik sind den Experten bekannt und mit genügend Aufwand lässt sich nachvollziehen, wie intelligente Software funktioniert.
AlphaGo ist das erste Beispiel: natürlich versteht das Entwicklerteam die SW, aber deswegen versteht heute trotzdem niemand, wieso AlphaGo in bestimmten Situationen so spielt wie es spielt.
Gruß
Tom

Der Wert eines Dialogs hängt vor allem von der Vielfalt der konkurrierenden Meinungen ab.
Sir Karl R. Popper

positronium
Ehrenmitglied
Ehrenmitglied
Beiträge: 2832
Registriert: 2. Feb 2011, 20:13

Re: AlphaGo

Beitrag von positronium » 15. Jun 2017, 10:59

tomS hat geschrieben:
15. Jun 2017, 08:28
positronium hat geschrieben:
13. Jun 2017, 19:44
Ich wäre eher zurückhaltend darin, zu sagen, dass von einer KI entwickelte/erarbeitete Theorien o.ä. von streng logischen Dingen wie der Physik vom Menschen nicht mehr verstanden werden könnten.
Es gibt m.W.n. bereits einen mittels Computer erbrachten Beweis eines mathematischen Theorems, an dessen Verifizierung die Gutachter letztlich gescheitert sind.
Ich weiss leider nichts darüber. Wichtig ist aber, zu unterscheiden, ob mit strenger Logik (CAS oder vergleichbarem) oder mit einer KI gearbeitet wurde. Ich bin mir sicher, dass ersteres der Fall sein muss, weil eine KI je nach Situation auch total falsche, und sogar bei vollständig gleichen Parametern unterschiedliche Ergebnisse liefern kann - Folge von Multithreading. Wenn mit einem CAS gearbeitet wird, kann natürlich die Komplexität des Beweises so hoch sein, dass Menschen dem nicht mehr folgen können; dass eine KI dem folgen kann, ist aber ebenso ungewiss. Auch eine solche kann nicht beliebig viele Objekte gleichzeitig in Bearbeitung haben ("sich darauf konzentrieren"). Für Intelligenz ist ein Mittelmass nötig.
tomS hat geschrieben:
15. Jun 2017, 08:28
positronium hat geschrieben:
13. Jun 2017, 19:44
Baut aber eine KI auch auf Mathematik, dann lässt sich das definitiv in unsere Formelsprache übersetzen.
Was nicht bedeutet, dass ihre Schlussfolgerung für den uns verstehbar sein müssen.
Ja.

Benutzeravatar
tomS
Ehrenmitglied
Ehrenmitglied
Beiträge: 10670
Registriert: 19. Nov 2007, 20:29

Re: AlphaGo

Beitrag von tomS » 15. Jun 2017, 11:36

Auch ein neuronales Netz arbeitet prinzipiell deterministisch und exakt. Parallelisieren sowie stochastische Elemente führen natürlich zu nicht-eindeutigen Ergebnissen, was bei den mittels neuronalen Netzen zu lösenden Problemen irrelevant ist.

Das ist auch nicht der Punkt.

Es geht lediglich darum, dass bereits heute und ohne "KI" formale Beweise möglich sind, die Mathematiker nicht mehr nachvollziehen können. Der Unterschied zwischen KI und nicht-KI ist irrelevant, da beide prinzipiell einem strengen Algorithmus folgen. Es geht dann nur noch um eine dem Problem angepasste Lösungsstrategie.

Relevant sind eher Themen wie selbständiges Lernen, Wissenserwerb und Skalierbarkeit. D.h. dass Algorithmen möglicherweise nicht etwas qualitativ Neues implementiert haben oder erlernen, sondern dass alleine diese Punkte dazu führen, dass wir das nicht mehr nachvollziehen können. Möglicherweise existiert jedoch auch ein qualitativer, fundenamentaler Unterschied, ohne dass wir ihn erkennen können (da wir ihn mangels Einsicht in unser eigenes Denken nicht mal definieren können).
Gruß
Tom

Der Wert eines Dialogs hängt vor allem von der Vielfalt der konkurrierenden Meinungen ab.
Sir Karl R. Popper

positronium
Ehrenmitglied
Ehrenmitglied
Beiträge: 2832
Registriert: 2. Feb 2011, 20:13

Re: AlphaGo

Beitrag von positronium » 15. Jun 2017, 13:18

tomS hat geschrieben:
15. Jun 2017, 11:36
Der Unterschied zwischen KI und nicht-KI ist irrelevant, da beide prinzipiell einem strengen Algorithmus folgen. Es geht dann nur noch um eine dem Problem angepasste Lösungsstrategie.

Relevant sind eher Themen wie selbständiges Lernen, Wissenserwerb und Skalierbarkeit.
Hmm. Kommt darauf an, wie Du KI definierst. Ich glaube schon, dass dieser Unterschied relevant ist. Ich sehe es so, dass die KI neben dem "strengen Algorithmus", welcher klassisch programmiert wird, ihre eigenen Algorithmen entwickeln und permanent anpassen, was Du mit Lernen und Wissenserwerb ansprichst. Diese selbst entwickelten bzw. entstehenden Algorithmen unterliegen wegen der zu verarbeitenden Daten einer permanenten Evolution, die durch scheinbaren, selbst minimalsten Zufall sogar bei identischen Systemen ganz unterschiedlich verlaufen kann. So können sich auch Fehler einschleichen und verfestigen.
Am Ende sehe ich auch bei der KI nur die Möglichkeit, eine Formelsprache/die Mathematik zu entwickeln.
Einem rein auf neuronalem Netz o.ä. basierenden Beweis würde ich niemals vertrauen - ein solches müsste den Beweis mathematisch niederschreiben, und dann jeder Schritt, gerne auch automatisch per CAS o.ä., oder aber von Menschen überprüft werden.

Benutzeravatar
tomS
Ehrenmitglied
Ehrenmitglied
Beiträge: 10670
Registriert: 19. Nov 2007, 20:29

Re: AlphaGo

Beitrag von tomS » 15. Jun 2017, 15:32

positronium hat geschrieben:
15. Jun 2017, 13:18
tomS hat geschrieben:
15. Jun 2017, 11:36
Der Unterschied zwischen KI und nicht-KI ist irrelevant, da beide prinzipiell einem strengen Algorithmus folgen. Es geht dann nur noch um eine dem Problem angepasste Lösungsstrategie.

Relevant sind eher Themen wie selbständiges Lernen, Wissenserwerb und Skalierbarkeit.
Hmm. Kommt darauf an, wie Du KI definierst. Ich glaube schon, dass dieser Unterschied relevant ist. Ich sehe es so, dass die KI neben dem "strengen Algorithmus", welcher klassisch programmiert wird, ihre eigenen Algorithmen entwickeln und permanent anpassen, was Du mit Lernen und Wissenserwerb ansprichst. Diese selbst entwickelten bzw. entstehenden Algorithmen unterliegen wegen der zu verarbeitenden Daten einer permanenten Evolution, die durch scheinbaren, selbst minimalsten Zufall sogar bei identischen Systemen ganz unterschiedlich verlaufen kann.
Aber dem ganzen - z.B. neuronalen Netzen - liegt ein streng deterministischer Algorithmus zugrunde, der klassisch programmiert wird, und auf dem unter der vollständigen Kontrolle des Algorithmus' Lernen im Sinne einer Optimierung der Gewichte des neuronalen Netzes stattfindet. Im Falle von AlphaGo spielt Monte Carlo tree search und reinforcement learning eine Rolle, allerdings wird dadurch lediglich eine Verbesserung der Rechenzeit bei (geringfügiger) Verschlechterung der Spielstärke erreicht. Das ist praktisch wichtig, jedoch theoretisch verzichtbar.
Gruß
Tom

Der Wert eines Dialogs hängt vor allem von der Vielfalt der konkurrierenden Meinungen ab.
Sir Karl R. Popper

Analytiker
wohnt hier!
wohnt hier!
Beiträge: 410
Registriert: 3. Sep 2011, 17:18

Re: AlphaGo

Beitrag von Analytiker » 15. Jun 2017, 16:45

tomS hat geschrieben:
15. Jun 2017, 08:31
Analytiker hat geschrieben:
13. Jun 2017, 23:13
Die Gesetze der Logik sind den Experten bekannt und mit genügend Aufwand lässt sich nachvollziehen, wie intelligente Software funktioniert.
AlphaGo ist das erste Beispiel: natürlich versteht das Entwicklerteam die SW, aber deswegen versteht heute trotzdem niemand, wieso AlphaGo in bestimmten Situationen so spielt wie es spielt.
Ja, tomS hat Recht. Auf die Art wie AlphaGo spielt, würde kein gewiefter Spieler kommen.

Gruß
Analytiker

Analytiker
wohnt hier!
wohnt hier!
Beiträge: 410
Registriert: 3. Sep 2011, 17:18

Re: AlphaGo

Beitrag von Analytiker » 15. Jun 2017, 16:55

Frank hat geschrieben:
14. Jun 2017, 09:10
Analytiker hat geschrieben:
13. Jun 2017, 23:13


Wie weit man Quantencomputer entwickeln kann, ist derzeit eine offene Frage.

Ich denke man ist da schon weiter, als die meisten Menschen es sich vorstellen können. :wink:

viewtopic.php?f=65&t=3564&p=54594&hilit ... ter#p54594
17 Qubits sind nicht viel. Bis Quantencomputer klassischen Computern auf breiter Front Konkurrenz machen können ist es wohl noch etwas hin. Von einem richtigen Durchbruch kann noch nicht die Rede sein.

Gruß
Analytiker

positronium
Ehrenmitglied
Ehrenmitglied
Beiträge: 2832
Registriert: 2. Feb 2011, 20:13

Re: AlphaGo

Beitrag von positronium » 15. Jun 2017, 17:18

tomS hat geschrieben:
15. Jun 2017, 15:32
Aber dem ganzen - z.B. neuronalen Netzen - liegt ein streng deterministischer Algorithmus zugrunde, der klassisch programmiert wird, und auf dem unter der vollständigen Kontrolle des Algorithmus' Lernen im Sinne einer Optimierung der Gewichte des neuronalen Netzes stattfindet.
Das ist richtig, jedoch spielen bei Systemen, welche mehr als z.B. nur ein ganz einfaches Spiel erlernen, etliche Faktoren eine Rolle, die zu Abweichungen führen.
Aber nehmen wir ein Spiel, oder Go als Beispiel, obwohl ich es fast nur vom Namen kenne: Von einer KI erwarte ich, dass sie nicht nur solche Dinge macht, wie bereits gespielte Strategien analysiert, und die Erfolgschancen gewisser Züge ermittelt - alles diskrete Parameter.
Das entspricht zwar dem Trainieren eines neuronalen Netzes, ist aber meiner Meinung nach zu wenig, wenn man von einer KI sprechen will. Von einer echten Go-KI würde ich z.B. auch erwarten, dass sie analysiert, wie lange der Gegner für seine Züge braucht, wie lange er überlegt (wodurch lässt er sich in Bedrängnis bringen...), vielleicht auch seine Körpersprache analysiert. Dann hat man es sowohl zeitlich als auch bei den eigentlichen Spielzuständen/-zügen mit Parametern für's Lernen mit realen Zahlen zu tun. Wenn man damit ein NN optimiert, und beim Spielen weiter lernen lässt, hat man niemals einen reproduzierbaren Algorithmus im NN.
Es reicht sogar schon aus, dass man zwei NN mit exakt den gleichen Daten füttert, und irgend ein anderes Programm gerade aufgerufen wird, oder einmal wird der Prozessor früher warm (Lernen im Sommer statt im Winter) und die Taktfrequenz wird gedrosselt. Dann hat man ein zeitlich anders verlaufendes Lernen, und damit andere Ergebnisse.
Verknüpft man beispielsweise Daten, die im Kurzzeit"gedächtnis" liegen, mit neu herein gekommenen, dann führt das einmal zu einer stärkeren, ein andermal zu einer schwächeren Verknüpfung. Auch spielt die Reihenfolge, in der gelernt wird, eine Rolle (Gleitkommarundung), selbst wenn alles in allem exakt die gleichen aufgezeichneten Spiele trainiert werden.

All so was wirkt sich schmetterlingseffektartig auf die weitere Entwicklung und das weitere Verhalten der KI aus - habe ich früher x-fach beobachtet. Das kann man durchaus mit dem Lernen bei Lebewesen vergleichen: Das ist so komplex, dass es chaotisch wirkt; es stellt sich nur eine gewisse Tendenz ein. Algorithmen in einer KI sind deswegen weder streng trainiert, noch liefern sie exakt vorhersagbare Ergebnisse, und ausserdem haben sie viel Müll im Speicher. Eine KI ist halt auch nur ein Mensch. :wink: Deshalb glaube ich, dass eine KI eine präzise, logische Sprache erlernen muss, die Mathematik, und mit der wird sie wohl auch ihre Probleme haben.

Benutzeravatar
tomS
Ehrenmitglied
Ehrenmitglied
Beiträge: 10670
Registriert: 19. Nov 2007, 20:29

Re: AlphaGo

Beitrag von tomS » 15. Jun 2017, 19:08

Was du schreibst ist praktisch relevant, jedoch theoretisch nichts qualitativ Neues. Z.B. ist die Bedenkzeit des Gegners lediglich ein weiterer externer Input für das neuronale Netz. Und ein Algorithmus ist natürlich genau dann deterministisch, wenn er für identische Eingangsvariablen identische Ergebnisse produziert; wenn in den Lern- oder Spielalgorithmus bzw. die Eingangsvariablen die Reihenfolge der zuvor gespielten Partien oder diverse Umgebungsbedingungen eingehen, dann wird man dies bei der Definition der Variablen und des Algorithmus eben in Betracht ziehen müssen (d.h. Variablen sowie Algorithmus umfassen dann z.B. auch Temperatur und Prozessortaktung).

Das ändert nichts daran, dass auch dieses von dir geschilderte, wesentlich umfassendere Problem letztlich einem Algorithms folgt.

Algorithmen zur Ermittlung oder Verifizierung von Beweisen sind jedoch völlig anders konstruiert als neuronale Netze.
Gruß
Tom

Der Wert eines Dialogs hängt vor allem von der Vielfalt der konkurrierenden Meinungen ab.
Sir Karl R. Popper

positronium
Ehrenmitglied
Ehrenmitglied
Beiträge: 2832
Registriert: 2. Feb 2011, 20:13

Re: AlphaGo

Beitrag von positronium » 15. Jun 2017, 19:54

tomS hat geschrieben:
15. Jun 2017, 19:08
Was du schreibst ist praktisch relevant, jedoch theoretisch nichts qualitativ Neues.
Ja, natürlich, das sind praktische Probleme. Wenn man rein theoretisch nur die Logik betrachtet, spielen solche Dinge keine Rolle. Dann ist alles exakt definiert und reproduzierbar. Real umsetzbar ist so etwas aber kaum bis nicht. Sei es Spracherkennung, Videoanalyse oder derartiges - was zur KI gehören sollte - erfordert auch Echtzeitverarbeitung; da kann man nicht dafür sorgen, dass alle Inputs zu definierten Zeiten herein kommen, keine anderen Threads dazwischen funken dürfen usw.. Das würde jede verfügbare Rechenleistung sprengen. Das ganze System müsste sogar in einer speziellen virtuellen Maschine mit eigener Zeit laufen, um Systemeinflüsse heraus zu halten.
tomS hat geschrieben:
15. Jun 2017, 19:08
Das ändert nichts daran, dass auch dieses von dir geschilderte, wesentlich umfassendere Problem letztlich einem Algorithms folgt.
Dessen programmiertechnische Umsetzung jedoch, wenn man exakte Determiniertheit fordert, extrem aufwendig und teuer ist.
tomS hat geschrieben:
15. Jun 2017, 19:08
Algorithmen zur Ermittlung oder Verifizierung von Beweisen sind jedoch völlig anders konstruiert als neuronale Netze.
Das meinte ich ja auch weiter oben schon. Das muss anders sein.

Benutzeravatar
tomS
Ehrenmitglied
Ehrenmitglied
Beiträge: 10670
Registriert: 19. Nov 2007, 20:29

Re: AlphaGo

Beitrag von tomS » 15. Jun 2017, 20:02

positronium hat geschrieben:
15. Jun 2017, 19:54
tomS hat geschrieben:
15. Jun 2017, 19:08
Das ändert nichts daran, dass auch dieses von dir geschilderte, wesentlich umfassendere Problem letztlich einem Algorithms folgt.
Dessen programmiertechnische Umsetzung jedoch, wenn man exakte Determiniertheit fordert, extrem aufwendig und teuer ist.
Nee, überhaupt nicht, das läuft auf jedem PC.

Was aufwändig ist ist lediglich die exakte und wiederholbare Präparierung identischer Start- und Umgebungsbedingungen. Der Algorithmus ist einfach: Betriebsystem plus neuronalen Netz.
Gruß
Tom

Der Wert eines Dialogs hängt vor allem von der Vielfalt der konkurrierenden Meinungen ab.
Sir Karl R. Popper

Antworten