Wieder einen Schritt weiter:
http://www.nature.com/news/google-ai-al ... 1508_RHBox
Habe etwas ein wenig gelesen, auch über google-AI und dergleichen, man erfährt praktisch nichts über Details des Funktionsprinzips derer neuralen Netzwerke, aber es scheint in die selbe Richtung zu gehen wie mein Ansatz daheim.
Bin etwas froh dass die in einem Bereich zumindest nicht viel weiter sind:
Die AIs verfügen über keinerlei Gedächtniss, es kann zwar zu jeder Kombination an Input die erfahrungsgemäß erlernte beste Lösung anwenden, allerdings weder voraus planen noch eine zeitliche Abhängigkeit abspeichern oder rekonstruieren.
Ich denke das Problem was die haben ist wohl einfach:
Das Gehirn arbeitet simultan überall parallel, was eine völlig natürliche Folge des Aufbaus ist. Eine AI müsste um das zu simulieren ständig die zugeteilte Rechenzeit jedem einzelnen Knoten neu berechnen und zuteilen, was nur quantisiert für Cluster aber nicht fließend dynamisch allgemein möglich ist.
Der Gedanke den ich hatte, war ein Kernstück zu verwenden, das zirkulär alle angeschlossenen Schnittstellen abklappert und danach situationsbedingt nach Wahrscheinlichkeit und momentaner Assoziationsstärke entscheidet welche Schnittstelle als nächstes abgearbeitet werden sollte.
Dabei kommt (nicht gerade überaschend) vor, dass eine Schnittstelle mehrmals angesprochen wird, obwohl das dahinter liegende Modul immer noch mit dem alten Prozess beschäftigt ist. Daraus ergeben sich Fehler beim Lernprozess, da sich mehrere Fehlerfeedbacks anstauen und später verarbeitete Lernprozesse ein Netzwerk optimieren, welches eigentlich bereits in veränderter Form vorliegt und für welches das spätere Fehlerfeedback in der Regel nur teilweise anwendbar ist. Das ist vergleichbar wie wenn mehrere Personen gleichzeitig ein fehlerhaftes Programm korrigieren - die Korrektur eines Fehlers kann die simultane Korrektur eines zweiten Fehlers negativ beeinflussen.
Im Grunde genommen ließen sich alle durch das Feedback als Fehler markierten Verarbeitungsprozesse aufstauen und später in einer Ruhephase alle nacheinander verarbeiten (Das erinnert mich doch stark an den menschlichen Schlaf; Zufall?).
Diese Art von lernen bietet den Vorteil, dass während der aktiven Phase die Performance nicht durch gleichzeitiges Lernen vermindert wird. Andererseits bietet es den Nachteil, dass sich relativ viel zu lernendes anstaut und so das Netzwerk fehlerhaft lernt (wie gesagt, mehrere Fehler gleichzeitig korrigieren ist eigentlich suboptimal).
Möglicherweise brauchen auch Babies deshalb viel kürzere Schlafphasen aber öfter am Tag, da die Kernstücke bei der Entwicklung viel empfindlicher auf "falsches Lernen" reagieren.
Falls jemand gute Seiten kennt, wo man sich über die neuesten oder gängigen Entwicklungen im Thema AIs informieren kann, wäre ich sehr dankbar. Ich habe zwar gesucht, aber nichts gefunden - zumindest nicht, welche Konzepte sich als am praktikabelsten in der Umsetzung bisher erwiesen haben. Und ich habe wirklich keine Lust alles selbst per Trial&Error zu ergründen.
Die Konzepte sind eigentlich klar und umsetzbar, allerdings ist in der Regel vorher nicht abzusehen, zu welchen Größenordnungen so ein Netzwerk Memoryvolumentechnisch anschwellen kann, bevor überschüssige Knoten wieder weg reduziert werden...
Und es ist extrem viel Arbeit etwas zu ändern um einen marginalen Erfahrungsgewinn zu verbuchen.
Gruß, Skel