Hinweis auf die DSGVO: Auf unserer Seite werden keine Dritt-Anbieter-Cookies verwendet und nur Daten erfasst, welche für das Minimum an Board-Funktionalität notwendig sind.
Bevor Sie sich registrieren oder das Board verwenden, lesen Sie bitte zusätzlich die DSGVO-Erklärung, welche in der Navigationsleiste verlinkt ist.

Kurzfassung der unserer Meinung nach wichtigsten DSGVO-Punkte:
Es kann vorkommen, dass Benutzer eigenverantwortlich Videos oder sonstige Medien in ihren Beiträgen verlinken, welche beim Aufruf der Forenseite als Teil der Seite samt zugehörigem Material mitgeladen werden. Sollten Sie dies nicht wünschen, verwenden Sie beim Benutzen des Forums einen Blocker wie z.B. uMatrix, welcher das Laden von Inhaltsblöcken von Fremd-URLs effektiv unterbinden kann.
Wir blenden keine Werbung ein und schränken die Inhalte in keinster Weise bei Benutzung von Addblockern ein. Dadurch ist die Grundfunktionalität des Forums auch bei vollständigem Blockieren von Drittanbieter-Inhalten stets gegeben.

Cookies werden unsererseits nur verwendet um das Einloggen des Benutzers für die Dauer der Forenbenutzung zu speichern. Es steht dem Benutzer frei die Option 'Angemeldet bleiben' zu verwenden, damit der Cookie dauerhaft gespeichert bleibt und beim nächsten Besuch kein erneutes Einloggen mehr notwendig ist.
EMail-Adressen werden für Kontakt bei wichtigen Mitteilungen und zur Widerherstellung des Passwortes verwendet. Die verwendeten IPs können von uns ohne externe Hilfsmittel mit keiner realen Person in Verbindung gebracht werden und werden nach spätestens 7 Tagen gelöscht. Diese IPs werden höchstens verwendet um Neuanmeldungen unerwünschter oder gesperrter Nutzer zu identfizieren und zu unterbinden. Wir behalten uns daher vor bei Verdacht, die Frist für die IP-Löschung auf maximal 14 Tage zu verlängern.
Unsere Webseite läuft auf einem virtuellen Linux-Server, welcher von einem externen Anbieter gehostet wird. Etwaige Verstöße der DSGVO-Auflagen seitens dieses deutschen Hosters können wir nicht feststellen und somit auch nicht verfolgen.
Wir halten Backups unserer Datenbanken, welche in regelmäßigen Abständen als Schutz vor Katastrophen, Hackerangriffen und sonstigen Ausfällen erstellt werden. Sollte ein Nutzer die Löschung seiner Daten wünschen, betrachten wir es als Unzumutbar die Backups auch von den Daten zu befreien, da es sich hierbei um eine mehrtägiges Unterfangen handelt - dies ist für eine Einzelperson beim Betrieb eines privaten Forums nicht zumutbar möglich ohne das Backup komplett zu löschen.
Sollten Sie etwas gegen die dauerhafte anonyme Speicherung ihrer EMail-Adresse, ihres Pseudonyms und ihrer Beiträge in einem Backup haben, sehen Sie von der Registrierung in diesem Forum ab. Für Mitglieder, welche vor dem 25.05.2018 registriert waren steht jedoch das Recht im Raum, eine Löschung der Datenbank-Backups zu beantragen.



Wenn dies Ihr erster Besuch hier ist, lesen Sie bitte zunächst die FAQs sowie die wesentlichen Regeln zur Benutzung des Forums.
Um an den Diskussionen teilnehmen zu können, müssen Sie sich zunächst registrieren.

Instabilität - Reduzibilität vs. Irreduzibilität - Komplexität

Wissenschaftsgeschichte, Wissenschaftstheorie bzw. -philosophie, Technik
Benutzeravatar
seeker
Ehrenmitglied
Ehrenmitglied
Beiträge: 5713
Registriert: 26. Dez 2009, 10:29

Re: Instabilität

Beitrag von seeker » 9. Jan 2019, 11:32

tomS hat geschrieben:
9. Jan 2019, 07:06
Ich halte diese vorsichtige Formulierung für unangebracht, denn sie vermischt zwei Probleme:
Sie unterscheidet sich aber kaum von deiner eigenen Formulierung...
Und die Popperschen Einschränkungen werden halt oft übersehen, deshalb werde ich nicht müde sie immer wieder herauszustellen.
tomS hat geschrieben:
9. Jan 2019, 07:06
Wie oben gesagt ist das nicht das relevante Problem, bzw. es ist kein spezifisches Problem in unserem Kontext sondern ein universelles Problem der Naturwissenschaften.
tomS hat geschrieben:
9. Jan 2019, 07:06
Wie oben gesagt ist das nicht das relevante Problem, bzw. es ist kein spezifisches Problem in unserem Kontext sondern ein universelles Problem der Naturwissenschaften. Natürlich kannst du ständig hinzufügen, dass die Welt möglicherweise von Zauberern gelenkt wird und wir das nicht sicher ausschließen können.
Du sagst also salopp: "Weil das eh immer so ist, ist es egal."
Ich denke da übersiehst du etwas: Es geht nicht nur darum, dass das gegeben ist, sondern auch darum, wie stark das jeweils wirkt.
Bei gewöhnlichen Systemen kannst du wenigstens noch die Aussage "ähnliche Bedingungen führen zu ähnlichen Resultaten" treffen, bei genügend komplexen Systemen nicht mehr, das wird hier wichtig.
An der Stelle gibt es Unterschiede, die man berücksichtigen muss.
tomS hat geschrieben:
9. Jan 2019, 07:06
Und genau dieses führt in das praktische Problem des Verstehens - unter den oben getroffenen Annahmen - die prinzipielle Limitierung des Bewusstseins / Verstandes ein. Egal was wir alles praktisch am Verstehen nicht verstehen, selbst wenn die Reduzibilität zutrifft und wir ansonsten alles verstehen ... es bleibt ein Kern, den wir prinzipiell nicht verstehen können.
Ja. Das praktische Problem besteht unabhängig vom prinzipiellen Problem.
tomS hat geschrieben:
9. Jan 2019, 07:06

Offenbar gerade nicht, weil „reduktives Verständnis" - wie ich oben gezeigt habe - mindestens die prinzipielle Limitierung aufweist, sich selbst nicht verstehen zu können.
Gilt das auch für eine Vielzahl von Gehirnen? Können 7 Mrd Gehirne prinzipiell wenigstens ein Gehirn verstehen?
tomS hat geschrieben:
9. Jan 2019, 07:06
Z.B. können wir - unter den o.g. Voraussetzungen - sicher sagen, dass ein Proton sich nicht selbst verstehen kann. Und das liegt nicht daran, dass es kein Bewusstsein hätte, oder kein Gehirn, oder nicht genügend komplex wäre.
...
- dass dann - einfach aufgrund der Tatsache, dass ein Algorithmus vorliegt - wir sicher wissen, dass dieser sich nicht vollumfänglich selbst verstehen kann.
Ein interessanter Ansatz. Wie ist es mit vielen Protonen? (siehe meine obige Frage)
tomS hat geschrieben:
9. Jan 2019, 07:06
Die Verortbarkeit ist doch nur ein Scheinproblem, die Physik kennt zig derartige Beispiele, die wir perfekt verstehen.

Zum Beispiel ist die Tatsache, ob ein Material ein Supraleiter sein kann, und wenn ja, ob gerade tatsächlich der supraleitenden Zustand vorliegt, nicht „verortbar“. Dieses Phänomen kann an keiner Stelle im Material lokalisiert werden sondern ist eine emergente Eigenschaft.
Tatsächlich? Sie alleine ist sicher nicht das Problem, aber in Kombination mit anderen Eigenschaften solcher Emergenzen wird das relevant, z.B. die Sensitivität ist hier zu nennen.
tomS hat geschrieben:
9. Jan 2019, 07:06
Zum Beispiel ist die Tatsache, ob ein Material ein Supraleiter sein kann, und wenn ja, ob gerade tatsächlich der supraleitenden Zustand vorliegt, nicht „verortbar“. Dieses Phänomen kann an keiner Stelle im Material lokalisiert werden sondern ist eine emergente Eigenschaft.
Du verwendest hier denselben Begriff "Emergenz" für Systeme, die wesentlich verschieden sind.
Du weißt schon, dass ein Unterschied zwischen den "Emergenzen" bei "Supraleitfähigkeit", "Druck", "Temperatur", usw. und den "Emergenzen" bei organisch-komplexen Systemen besteht? Worin besteht er?
tomS hat geschrieben:
9. Jan 2019, 07:06
irgendwie wird immer wieder bezweiflt, dass man das physikalisch-reduzibel in den Griff bekommt, obwohl man zig Beispiele kennt, wo das prima funktioniert, und obwohl man keine stichhaltigen Argumente benennen kann, warum dies prinzipiell nicht funktionieren sollte; irgendwie wird immer prinzipielle Komplexität mit rein praktischer Kompliziertheit verwechselt oder in einen Topf geworfen; irgendwie werden immer Scheinprobleme diskutiert, die den Blick auf das eigentliche Problem vernebeln.
Da bin ich nicht sicher, siehe meine Frage nach den Unterschieden oben.

Zu den Systemgrenzen:
tomS hat geschrieben:
9. Jan 2019, 07:06
Warum ist das unmöglich? Wie definierst du objektiv-vernünftig?

Es ist natürlich praktisch kompliziert, aber der naturwissenschaftlichen Methode prinzipiell zugänglich. Ich stelle unterschiedliche Hypothesen bzgl. der Systemgrenzen, der Zeitskala usw. auf, und prüfe, wie gut diese Modelle funktionieren. Das stellt keine prinzipielle Grenze der Erkenntnis dar.
Wenn die Systeme offen und sensitiv sind, empfindlich auf Instabilitäten reagieren, sich sogar selbsttätig an den Rand des instabilen Bereichs immer wieder hinsteuern, dann funktioniert dieser Zugang prinzipiell nur noch viel eingeschränkter. Bei gewöhnlichen Systemen kannst du oft immer noch mit Recht sagen, dass sich das isolierte System so ähnlich wie das nicht-isolierte verhalten wird, bei den genannten komplexen Systemen geht das nicht mehr. Das ist eine prinzipielle Einschränkung: Du kannst bei gewöhnlichen, einfachen Systemen objektiv-vernünftige Systemgrenzen leicht finden, weil du den Rest getrost vernachlässigen darfst, du also leicht vereinfachen kannst, bei offenen komplexen Systemen geht das aber nur noch eingeschränkt.
Grüße
seeker


Mache nie eine Theorie zu DEINER Theorie!
Denn tut man das, so verliert man zumindest ein Stück weit seine Unvoreingenommenheit, Objektivität.

Benutzeravatar
tomS
Administrator
Administrator
Beiträge: 9998
Registriert: 19. Nov 2007, 20:29
Wohnort: Nürnberg

Re: Instabilität

Beitrag von tomS » 9. Jan 2019, 14:37

seeker hat geschrieben:
9. Jan 2019, 11:32
tomS hat geschrieben:
9. Jan 2019, 07:06
Ich halte diese vorsichtige Formulierung für unangebracht, denn sie vermischt zwei Probleme ...
Sie unterscheidet sich aber kaum von deiner eigenen Formulierung ...
Sie unterscheidet sich jedoch essentiell von meiner Formulierung; wie gewöhnlich legst du mehr Wert auf die Praxis,ich dagegen auf das Prinzipielle.
seeker hat geschrieben:
9. Jan 2019, 11:32
Du sagst also salopp: "Weil das eh immer so ist, ist es egal."
Nein.

Ich sage, wenn es immer so ist, dann lass‘ es uns einmal klarstellen, durch eine Annahme eine Lösungsmöglichkeit aufzeigen und dann fokussiert diese Annahme, deren spezifische Aspekte sowie die Schlussfolgerungen diskutieren.
seeker hat geschrieben:
9. Jan 2019, 11:32
Ich denke da übersiehst du etwas: Es geht nicht nur darum, dass das gegeben ist, sondern auch darum, wie stark das jeweils wirkt.
Bei gewöhnlichen Systemen kannst du wenigstens noch die Aussage "ähnliche Bedingungen führen zu ähnlichen Resultaten" treffen, bei genügend komplexen Systemen nicht mehr, das wird hier wichtig.
An der Stelle gibt es Unterschiede, die man berücksichtigen muss.
Das ist zunächst mal eine Behauptung.

Zumindest im Falle der Algorithmen ist das nicht zutreffend. Die Mathematik kennt im wesentlichen drei bis vier Klassen der Berechenbarkeit, mehr nicht. Meine Schlussfolgerung gelten z.B. gleichermaßen für „Game of Life“, Arithmetik, beliebige neuronale Netze sowie beliebige physikalische, diskretisierte Systeme.
seeker hat geschrieben:
9. Jan 2019, 11:32
Gilt das auch für eine Vielzahl von Gehirnen? Können 7 Mrd Gehirne prinzipiell wenigstens ein Gehirn verstehen?
Spontan würde ich sagen „nein“, da die Größe des Systems keinen Einfluss auf die die Mächtigkeit einer Klasse von Algorithmen hat.
seeker hat geschrieben:
9. Jan 2019, 11:32
Ein interessanter Ansatz. Wie ist es mit vielen Protonen? (siehe meine obige Frage)
siehe mein obige Antwort
seeker hat geschrieben:
9. Jan 2019, 11:32
Sie alleine ist sicher nicht das Problem, aber in Kombination mit anderen Eigenschaften solcher Emergenzen wird das relevant, z.B. die Sensitivität ist hier zu nennen.
kann ich so nicht nachvollziehen
seeker hat geschrieben:
9. Jan 2019, 11:32
Du verwendest hier denselben Begriff "Emergenz" für Systeme, die wesentlich verschieden sind.
Du weißt schon, dass ein Unterschied zwischen den "Emergenzen" bei "Supraleitfähigkeit", "Druck", "Temperatur", usw. und den "Emergenzen" bei organisch-komplexen Systemen besteht?
erklär‘s mir bitte
seeker hat geschrieben:
9. Jan 2019, 11:32
Zu den Systemgrenzen:

Wenn die Systeme offen und sensitiv sind, empfindlich auf Instabilitäten reagieren, sich sogar selbsttätig an den Rand des instabilen Bereichs immer wieder hinsteuern, dann funktioniert dieser Zugang prinzipiell nur noch viel eingeschränkter. Bei gewöhnlichen Systemen kannst du oft immer noch mit Recht sagen, dass sich das isolierte System so ähnlich wie das nicht-isolierte verhalten wird, bei den genannten komplexen Systemen geht das nicht mehr. Das ist eine prinzipielle Einschränkung ...
Das trifft doch nicht zu.

Es geht nicht um Unterschiede im Verhalten sondern um Unterschiede in der Modellierung. Ich sehe nicht, wieso komplexere / kompliziertere Systeme prinzipiell anders zu modellieren wären. Beispiele für offene Systeme sind z.B. Wetter und Klima; das einzige Problem scheint hier Systemgröße und Rechenpower zu sein.


Grundsätzlich: Jedes physikalische System wird - wenn wir es auf den Computer setzen - zu einem diskreten Algorithmus. Damit haben beliebige derartige Systeme immer die selbe algorithmische Komplexitätsklasse und sind daher prinzipiell immer “gleich schwierig”.

Ein prinzipielles Problem wäre erst dann gegeben, wenn dies prinzipiell nicht funktioniert. Das kann aber nicht der Fall sein, weil alle physikalischen System durch im wesentlichen zwei verschiedene mathematischen Strukturen beschrieben werden - partielle, gekoppelte Differentialgleichungssysteme, quantenmechanische Systeme. D.h. wenn ich den 1-dim. harmonischen Oszillator so modellieren kann, dann kann ich das auch mit Nukleonen, Elefanten sowie der Fußballmannschaft des 1. FCN - einschließlich ihrer neuronalen Zustände tun - wenn auch mit mehr praktischem Aufwand.

Ich kann in der gesamten Diskussion bisher kein einziges Argument erkennen, warum prinzipielle Probleme bestehen sollten. Es geht immer nur um Quantität, Kompliziertheit, Verhalten ... Es scheint so eine Art Glaubenssatz zu sein, dass komplexe Systeme und deren Verhalten prinzipiell nicht in dieser Weise reduzibel bzw. modellierbar sind. Die Argumente sind jedoch - bisher - nicht stichhaltig, sie betreffen lediglich die praktische Umsetzung.

Conclusio: wenn für einen bestimmten Begriff der Emergenz und für insgs. bekannten Naturgesetzen folgende Systeme die Irreduzibilität behauptet wird, dann muss dafür ein qualitativ neues Merkmal ins Spiel kommen. Ich habe Qualia und insbs. Selbst-Verständnis vorgeschlagen (ich könnte mir noch Systeme ausdenken, in deren Definition berechenbare jedoch nicht primitiv-rekursive Funktionen wie die Ackermannfunktion eingehen, aber mir fehlt die Phantasie ...)
Gruß
Tom

«while I subscribe to the "Many Worlds" theory which posits the existence of an infinite number of Toms in an infinite number of universes, I assure you that in none of them am I dancing»

Benutzeravatar
ATGC
wohnt hier!
wohnt hier!
Beiträge: 357
Registriert: 13. Jul 2017, 15:33
Wohnort: zu Hause

Re: Instabilität

Beitrag von ATGC » 9. Jan 2019, 17:19

Inzwischen ist die Diskussion weitergelaufen, wobei es zunehmend um die Frage geht, ob man komplexe Systeme wie Lebewesen auf ihre physikalischen Grundlagen reduzieren kann. Ich möchte zunächst noch einige Beiträge von gestern aufarbeiten und auf einige Sachverhalte daraus eingehen.

Da ist zunächst skelteks Beitrag:
Bei Erbgut hängt es vom 'Elektronegativitäts-Fingerabdruck' ab (entschludigt das geschnörkelte Wort), wo sich eine lange Molekülkette wie biegt und wohin ihre Komponenten bei katalysierter Faltungsinduktion beschleunigen.
Das Erbgut ist zunächst die DNA mit ihrer Basensequenz. DNA ist von der Molekülstruktur der Einzelbausteine (Nucleotide) so zusammengesetzt, dass sie sich mit ihrem gegenüberliegenden Strang zu einer Doppelhelix zusammenwindet. Insbesondere der Zuckeranteil der Nucleotide (Desoxyribose) ermöglicht ein Ineinandergleiten der Basenpaare, was bei RNA mit Ribose im Zuckeranteil nicht möglich wäre. Bei Ribose stört die Hydroxylgruppe an der 2'-Position durch ihre Polarität und Sperrigkeit bei der Bildung einer Doppelhelix. Aus diesem Grund sehen die Tertiärstrukturen von RNA-Molekülen reichlich verknäuelt und ungeordnet aus - im Gegensatz zur DNA-Doppelhelix.

Worauf Du möglicherweise anspielst, ist die Peptidfaltung, die je nach der Anordnung der Seitengruppen in der Peptidkette und der Menge des Vorhandenseins von Wasser sowie darin gelöster Ionen in ihrer Faltungsstruktur variieren kann. Wie ich schon verlinkt hatte, wird die Faltung zum fertigen Protein nicht immer dem freien Spiel der Kräfte überlassen, sondern unter Beisein weiterer Moleküle mit spezifischen Formen assistiert, um Fehlfaltungen mit drohendem Funktionsverlust vorzubeugen.
Das ist nicht immer die entropisch beste Anordnung sondern oft ein lokales Optimum. Durch eine andere Zusammensetzung der Flüssigkeit (Dielektrizität, Katalysatoren, usw), in welcher die Molekülkette schwimmt, als auch durch katalysierende Oberflächen anderer Moleküle und Strukturen, biegt sich die Molekülkette teils anders oder an mehreren Stellen fast gleichzeitig, wodurch ein anders gefaltetes Konstrukt entsteht.
Das ist das, was ich gerade versucht habe, zu beschreiben: Die spontane Faltung einer Polypeptidkette in die Tertiärstruktur wird im Organismus teilweise modifiziert, so dass am Ende eine Faltungsstruktur herauskommt, die für die weitere Eignung als spezifisches Protein notwendig ist.
Insofern sehe ich es schon als einen Bauplan an, welcher jedoch wie auch Algorithmen der Mathematik kontextabhängig zu sehen ist.
Das kann ich daraus nun gerade nicht herauslesen bzw. ableiten, denn diese modifizierenden Prozesse sind nicht genetisch fixiert, sondern laufen ebenso spontan ab wie der Rest der biochemischen und mechanischen Prozesse, welche das Fließgleichgewicht des Zellplasmas am Laufen halten.
Die DNA ist mehr oder weniger als Input zu sehen, während seine unmittelbare Umgebung die auswertende Funktion darstellt.
Der einzige "Input" ist die mehr oder weniger unscharfe Fixierung von RNA-Basensequenzen, wobei die über Transkription produzierte RNA seinerseits noch modifiziert wird, so dass die Basensequenz der DNA nicht identisch ist mit der komplementären Basensequenz der RNA, welche ihre funktionable Struktur angenommen hat. Und die funktionable RNA ist wiederum nicht eindeutig auf eine einzelne Funktion festgelegt, sondern kann mehrere Funktionen erfüllen. Ich hatte dazu das Beispiel des alternativen Spleißens verlinkt.
Es ist wohl eher so, dass es weniger von den Instruktionen abhängt was dabei raus kommt, sondern jede 'Fabrik' etwas anderes aus dem Bauplan macht.
Da es keinen "Bauplan" gibt, kann man auch nichts geben, was etwas aus einem Bauplan machen könnte. Die Entscheidung, welche Basensequenzen für RNA-Synthese und Proteinsynthese herangezogen werden, in welcher Abfolge, mit welcher Frequenz, im Zusammenwirken mit welchen anderen Zugriffsprozessen auf die DNA usw. usf. ergibt sich über den Zustand der Prozesse des Zellplasmas, über die vorhandenen Gradienten, über den konkreten Zustand der Rückkopplungen im Reaktionsnetzwerk usw. usw. Hier ist nichts fixiert, was man mit einem Bauplan assoziieren könnte.
Die DNA ist nicht der Algorithmus, sondern der Input des Algorithmus.
Nein. Die DNA ist der Bezugspunkt, auf den zurückgegriffen wird, wenn Proteine reproduziert werden müssen. Im dynamischen Geschehen des Zellplasmas stellt die DNA die "grundlegende Invariante" dar - also eine feste Bezugsgröße, die die relativ fehlerfreie Reproduktion von benötigten Proteinen ermöglicht, die selber den Abbauprozessen unterliegen (Turnover), wenn sie im Rahmen des Stoffwechsels aktiv eingebunden sind. Hier gibt es keinen Algorithmus - es wird nicht "gerechnet" - sondern lediglich den Effekt der Selbststabilisierung des Fließgleichgewichts jenseits des chemischen Gleichgewichts unter Energieverbrauch (Stoff- und Energiewechsel).
Spiegelmann hat damals exzessiv Forschung hierzu betrieben
Seine bekanntesten Forschungen betreffen die molekulare Evolution von RNA-Strängen im Beisein von RNA-Polymerase ("Spiegelman-Monster"), die sich spontan so weit verkürzt haben, dass sie einerseits noch funktionabel waren, aber andererseits schneller repliziert werden konnten. Es bildeten sich also RNA-Stränge von optimaler Länge heraus - von mehreren Hundert Nucleotiden hin zu knapp über 100 Nucleotide. Manfred Eigen hat diese Experimente dann in Göttingen wiederholt und weiter modifiziert. Hier ist eine Übersicht über Spiegelmans Paper:

https://profiles.nlm.nih.gov/ps/retriev ... /p-nid/203
Eine reine Suppe aus DNA/RNA macht von sich aus erstmal gar nichts.
Na gut, ohne Substrate kann auch nichts passieren. RNA für sich genommen besitzt aber in eingeschränktem Maße enzymatische Fähigkeiten und könnte schon etwas machen, falls sie sich zu einem Hyperzyklus organisieren könnte. Aber der hat dann wieder seine eigenen Fallstricke ...

Benutzeravatar
ATGC
wohnt hier!
wohnt hier!
Beiträge: 357
Registriert: 13. Jul 2017, 15:33
Wohnort: zu Hause

Re: Instabilität

Beitrag von ATGC » 9. Jan 2019, 18:16

Hallo Tom und seeker,

ihr seid in eurer Diskussion bereits weiter fortgeschritten, so dass ich das erst mal nachlesen und nacharbeiten muss, um detaillierter darauf einzugehen. Einige Punkte greife ich dennoch schon mal heraus.

Erst mal Tom:
Ich meinte einen Algorithmus, (Computer)Programm, Turingmaschine, oder - was dies formalisiert - eine berechenbare Funktion. Diese Konzepte sind verwandt, teilweise äquivalent.
Damit wirst Du dem was ein Lebewesen ist, nicht gerecht. Ein Lebewesen ist keine Summe von Rechenschritten, die gemäß einer feststehenden Vorschrift auszuführen sind, um ein Problem zu lösen, welches vorab gestellt ist. Leben ist eine Möglichkeit, die sich ergeben hat, nachdem zufälligerweise die nötigen Makromoleküle und die Wechselwirkungen zwischen ihnen an einem konkreten Ort zu einer konkreten Zeit zusammengekommen sind, so dass sich ein System gebildet hat, welches in Wechselwirkung mit seiner Umgebung erhalten geblieben ist, ohne zu kollabieren und sich wieder in seine Bestandteile aufzulösen, aus denen es hervorgegangen ist.
argumentiere ich gerade nicht auf der Ebene des Phänotyps.
Der Phänotyp ist aber das, was sich am Ende als Folge der Wechselwirkungen ergibt. Und der Phänotyp ist das Ganze und nicht nur die äußerlich sichtbare Hülle eines Lebewesens. Das heißt, der Phänotyp schließt den Genotyp mit ein, auf den er permanent zugreift, um sich permanent zu reproduzieren. Der Phänotyp schließt zugleich die Prozesse ein, die die Reproduktion des Phänotyps bewirken. Der Phänotyp ist also Ausdruck des Ganzen und das Ganze zugleich - einschließlich aller Stoffe, Prozesse, Gradienten usw. usw., die sich in ihm als Organismus befinden.

Das heißt, wenn Du nicht auf der Ebene des Phänotyps argumentierst, sondern nur bei einem Teilaspekt des Phänotyps bleibst (meinetwegen der stofflichen Ausstattung oder der DNA o.ä.), dann wirst Du mit Deinen Modellierungsversuchen zum Zweck der Berechenbarkeit ebenfalls nur einen Teilaspekt abbilden können und nicht das Ganze. Und wie ich schon andeutete, existiert der Phänotyp nicht isoliert, sondern ist stets mit seiner Umwelt vernetzt, die seinerseits einen Anteil bei der Ausprägung des Phänotyps hat. Auch diesen Umweltaspekt kann man nicht einfach ignorieren, um darstellen zu können, was ein Lebewesen ist.
Wenn die Ontogenese vollständig auf physikalischen Gesetzen basiert, die für sich betrachtet mathematisch formulierbar sind, dann ist auch die Ontogenese selbst prinzipiell mathematisch formulierbar.
Die Ontogenese ist aber nicht einfach eine Summe verschiedener physikalischer Gesetze, die man dann nur noch mathematisch miteinander kombinieren muss, sondern läuft auf einer anderen Organisationsebene ab, die sich infolge der gegebenen Komplexität ergeben hat, ohne dass sie aus den zugrundeliegenden physikalischen Gesetzen ableitbar wäre. Auf das Problem der Unvorhersagbarkeit der verschiedenen Selektionsdrücke hatte ich bereits verwiesen. Die verschiedenen Selektionsdrücke bewirken aber die Möglichkeit oder Unmöglichkeit von konkreten Ontogenesen im Zuge der evolutionären Entwicklung. Und auch die konkrete evolutionäre Entwicklung selber (Phylogenese) ist keine aus der Physik ableitbare Naturnotwendigkeit, sondern ebenfalls ein Spiel der Möglichkeiten, die sich zufällig so ergeben haben, aber auch anders hätte verlaufen können, wenn die Zufälle sich anders ergeben hätten.
Das kann ich aufgrund deiner Ausführungen noch nicht logisch nachvollziehen.
Ganz einfach: Wir haben verschiedene Organisationsebenen, die zwar von unten (physikalische Basis) nach oben auseinander hervorgehen (emergieren), aber horizontal jeweils eigene Gesetze aufweisen, die sich in den darunter liegenden Ebenen nicht finden und sich aus diesen fundamentaleren Gesetzen auch nicht ableiten lassen. Darum stellen Lebewesen eine eigene Klasse von Dingen dar, die sich zwar auch physikalisch verhalten (immerhin sind sie ja auch physikalische Körper mit bestimmten physikalischen Eigenschaften), aber eben nicht ausschließlich, da sie weitere Eigenschaften aufweisen, die nur Lebewesen eigentümlich sind und nicht unbelebten Dingen.
Fehlen dir hier Eigenschaften?
Ja, die Autopoiesis z.B., aber auch die Fähigkeit, ihr Fließgleichgewicht jenseits des chemischen Gleichgewichts unter Energieverbrauch selbsttätig aufrecht zu erhalten als geordneten Zustand niedriger Entropie in einer Umgebung höherer Entropie (aktive Entropietrennung). Und dann haben wir bei Tieren aktives Verhalten, was deutlich wird, wenn man einen toten Vogel in die Luft wirft oder einen lebendigen bzw. über einen toten Hund stolpert oder über einen schlafenden ...

[EDIT: Der ganze Komplex bezüglich Populationen, Ökosystemen, Evolution usw. fehlt hier ebenfalls, da Organismen nicht isoliert existieren, sondern sich in einer ökologischen Nische aufhalten, die meist nicht nur durch eine Art besetzt ist, sondern durch eine Vielzahl von Arten.]
Wenn ein System aus Entitäten besteht, die für sich physikalischen Gesetzmäßigkeiten folgen und gemäß diesen wechselwirken - hier konkret den Gesetzmäßigkeiten der Atom- und Molekülphysik, formuliert im Rahmen der Quantenmechanik - dann folgt das System als Ganzes ebenfalls diesen physikalischen Gesetzmäßigkeiten.
Aber nur dann, wenn man das System lediglich als Objekt auf dieser unteren Organisationsebene beschränkt betrachtet und die oberen Organisationsebenen ausblendet. Das System als Ganzes "folgt" zwar den physikalischen Gesetzmäßigkeiten, indem es nicht gegen sie verstoßen kann, aber das System als Ganzes beschränkt sich nicht auf diese "Folgsamkeit", sondern erschließt sich neues Terrain mit weiteren eigenen Gesetzmäßigkeiten, indem es mit anderen Systemen der gleichen Organisationsebene wechselwirkt.

Ich hatte weiter vorn schon mal davon geschrieben, dass die physikalischen Gesetze einen Rahmen festlegen, der nicht überschritten werden kann, aber dafür innerhalb dieses Rahmens Freiräume eröffnen, die für das Finden weiterer Gesetze zur Verfügung stehen, sobald ein bestimmtes Komplexitätsniveau infolge von Wechselwirkungen erreicht worden ist. Und Lebewesen stellen eine solche Klasse von Objekten dar, die hinreichend komplex sind, um sich neue Freiräume zu erschließen, welche zwar auf den physikalischen Gesetzen basieren, aber sich nicht aus ihnen ableiten (lassen).
Unterhalb dieser Ebene ist eine Mikrobe, ein Elephant, ein Wald, ... zunächst mal ein physikalisches System.
Ja, und innerhalb der gemeinsamen Ebene?

Benutzeravatar
tomS
Administrator
Administrator
Beiträge: 9998
Registriert: 19. Nov 2007, 20:29
Wohnort: Nürnberg

Re: Instabilität

Beitrag von tomS » 9. Jan 2019, 22:08

ATGC hat geschrieben:
9. Jan 2019, 18:16
Ich meinte einen Algorithmus, (Computer)Programm, Turingmaschine, oder - was dies formalisiert - eine berechenbare Funktion. Diese Konzepte sind verwandt, teilweise äquivalent.
Damit wirst Du dem was ein Lebewesen ist, nicht gerecht. Ein Lebewesen ist keine Summe von Rechenschritten, die gemäß einer feststehenden Vorschrift auszuführen sind, um ein Problem zu lösen, welches vorab gestellt ist.
Es geht nicht darum, dass ein Lebewesen selbst dieser Algorithmus ist, sondern dass alle im Lebewesen vorhandenen mikroskopischen Objekte (im wesentlichen Atomkerne und Elektronen) sowie deren Wechselwirkung physikalisch modelliert werden können (mittels Quantenmechanik). D.h. dass ein zur mikroskopischen Ebene isomorpher Algorithmus existiert.

Stimmst du dem zu?

Wenn nein, welche mikroskopische Eigenschaft oder welcher mikroskopische Prozess wäre nicht derartig modellierbar?

ATGC hat geschrieben:
9. Jan 2019, 18:16
Das heißt, wenn Du nicht auf der Ebene des Phänotyps argumentierst, sondern nur bei einem Teilaspekt des Phänotyps bleibst (meinetwegen der stofflichen Ausstattung oder der DNA o.ä.), dann wirst Du mit Deinen Modellierungsversuchen zum Zweck der Berechenbarkeit ebenfalls nur einen Teilaspekt abbilden können und nicht das Ganze. Und wie ich schon andeutete, existiert der Phänotyp nicht isoliert, sondern ist stets mit seiner Umwelt vernetzt, die seinerseits einen Anteil bei der Ausprägung des Phänotyps hat. Auch diesen Umweltaspekt kann man nicht einfach ignorieren, um darstellen zu können, was ein Lebewesen ist.
Die Umwelt wird ebenfalls modelliert.

Nehmen wir an, ich hätte eine vollständige und treue mikroskopische Modellierung eines oder mehrerer Lebewesen sowie eines genügend großen Ausschnitts der Umgebung.

Welcher Aspekt des Phänotyps fehlt in diesem Modell bzw. geht nicht aus diesem Modell hervor?

ATGC hat geschrieben:
9. Jan 2019, 18:16
Wenn die Ontogenese vollständig auf physikalischen Gesetzen basiert, die für sich betrachtet mathematisch formulierbar sind, dann ist auch die Ontogenese selbst prinzipiell mathematisch formulierbar.
Die Ontogenese ist aber nicht einfach eine Summe verschiedener physikalischer Gesetze, die man dann nur noch mathematisch miteinander kombinieren muss, sondern läuft auf einer anderen Organisationsebene ab, die sich infolge der gegebenen Komplexität ergeben hat, ohne dass sie aus den zugrundeliegenden physikalischen Gesetzen ableitbar wäre.
Behauptest du, dass die Gesetze der Ontogenese einer höheren Organisationsebene nicht aus den zugrundeliegenden physikalischen Gesetzen ableitbar sind?

Das wäre zunächst nur eine Behauptung.

Wir kennen in der Physik verschiedene Beispiele, wo dies tatsächlich funktioniert. Wenn es für biologische Systene nicht funktioniert - bei denen es sich auf der mikroskopischen Ebene auch nur um physikalische Systeme handelt - dann musst du beweisen, warum dies nicht funktioniert. Außerdem musst du strikt unterscheiden, ob es prinzipiell = beweisbar unmöglich ist, oder ob es aufgrund der komplizierten Systeme lediglich bisher praktisch nicht möglich war. Letzteres ist offensichtlich zutreffend.

Darüberhinaus geht es mir im Kern auch gar nicht um die Frage, ob Gesetze der höheren Organisationsebene aus den zugrundeliegenden physikalischen Gesetzen ableitbar sind. Es geht mir darum, ob das Gesamtsystem = der Organismus reale Eigenschaften aufweist, die prinzipiell nicht aus dem mikroskopischen Modell ableitbar sind.

Was wären konkrete Eigenschaften, Fähigkeiten oder Verhaltensweisen eines Organismus?
ATGC hat geschrieben:
9. Jan 2019, 18:16
... die konkrete evolutionäre Entwicklung selber (Phylogenese) ist keine aus der Physik ableitbare Naturnotwendigkeit, sondern ebenfalls ein Spiel der Möglichkeiten, die sich zufällig so ergeben haben, aber auch anders hätte verlaufen können, wenn die Zufälle sich anders ergeben hätten.
OK, selbe Frage wie oben: Behauptest du, dass die Gesetze der Phylogenese nicht aus den zugrundeliegenden physikalischen Gesetzen ableitbar sind?

Selbe Anmerkung wie oben: Es geht mir im Kern auch gar nicht um die Frage, ob Gesetze der höheren Organisationsebene aus den zugrundeliegenden physikalischen Gesetzen ableitbar sind. Es geht mir darum, ob das Gesamtsystem = die Biosphäre einschließlich ihrer zeitlichen Entwicklung reale Eigenschaften aufweist, die prinzipiell nicht aus dem mikroskopischen Modell ableitbar sind.

Was wären konkrete Vorgänge in der Biosphäre?

Ich denke, ich habe den Knackpunkt für unser Missverständnis gefunden:
ATGC hat geschrieben:
9. Jan 2019, 18:16
Das System als Ganzes "folgt" zwar den physikalischen Gesetzmäßigkeiten, indem es nicht gegen sie verstoßen kann, aber das System als Ganzes beschränkt sich nicht auf diese "Folgsamkeit", sondern erschließt sich neues Terrain mit weiteren eigenen Gesetzmäßigkeiten, indem es mit anderen Systemen der gleichen Organisationsebene wechselwirkt.
Zustimmung!
Gruß
Tom

«while I subscribe to the "Many Worlds" theory which posits the existence of an infinite number of Toms in an infinite number of universes, I assure you that in none of them am I dancing»

Benutzeravatar
tomS
Administrator
Administrator
Beiträge: 9998
Registriert: 19. Nov 2007, 20:29
Wohnort: Nürnberg

Re: Instabilität

Beitrag von tomS » 9. Jan 2019, 22:11

Ich verwende Emergenz im wesentlichen im folgenden Sinn - siehe Wikipedia:

Emergenz bezeichnet die Möglichkeit der Herausbildung von neuen Eigenschaften oder Strukturen eines Systems infolge des Zusammenspiels seiner Elemente. Dabei lassen sich die emergenten Eigenschaften des Systems nicht – oder jedenfalls nicht offensichtlich – auf Eigenschaften der Elemente zurückführen, die diese isoliert aufweisen. Emergente Phänomene werden jedoch auch in der Physik, Chemie, Biologie, Mathematik ... beschrieben ... Emergenz ist eine kennzeichnende Eigenschaft von hierarchisch strukturierten Systemen. Solche Systeme haben auf der Makroebene Eigenschaften, die auf der einfacheren Organisationsebene, der Mikroebene, nicht vorhanden sind. Sie entstehen durch Wechselwirkungen zwischen den Elementen auf der Mikroebene ... Die isolierte Betrachtung eines männlichen Wolfes (zum Beispiel unter den Aspekten der Autökologie, Physiologie oder Anatomie) führt zur Erklärung vieler Strukturen, ihrer Funktionen und Verhaltensweisen. Die Bedeutung der Geschlechtsorgane ergibt sich aber erst dann, wenn auch der Zusammenhang zu den Weibchen erkannt wird. Damit werden aber Männchen und Weibchen als Elemente eines übergeordneten Systems, der Fortpflanzungsgemeinschaft, betrachtet ...

Du argumentierst wie folgt:

Die Ontogenese ist aber nicht einfach eine Summe verschiedener physikalischer Gesetze, die man dann nur noch mathematisch miteinander kombinieren muss, sondern läuft auf einer anderen Organisationsebene ab, die sich infolge der gegebenen Komplexität ergeben hat, ohne dass sie aus den zugrundeliegenden physikalischen Gesetzen ableitbar wäre ... Wir haben verschiedene Organisationsebenen, die zwar von unten (physikalische Basis) nach oben auseinander hervorgehen (emergieren), aber horizontal jeweils eigene Gesetze aufweisen, die sich in den darunter liegenden Ebenen nicht finden und sich aus diesen fundamentaleren Gesetzen auch nicht ableiten lassen. Darum stellen Lebewesen eine eigene Klasse von Dingen dar, die sich zwar auch physikalisch verhalten (immerhin sind sie ja auch physikalische Körper mit bestimmten physikalischen Eigenschaften), aber eben nicht ausschließlich ... Das System als Ganzes "folgt" zwar den physikalischen Gesetzmäßigkeiten, indem es nicht gegen sie verstoßen kann, aber das System als Ganzes beschränkt sich nicht auf diese "Folgsamkeit", sondern erschließt sich neues Terrain mit weiteren eigenen Gesetzmäßigkeiten, indem es mit anderen Systemen der gleichen Organisationsebene wechselwirkt.

1) Der erste wesentliche Unterschied ist, dass ich über reale Eigenschaften, Vorgänge und Prozesse spreche, während du von den zugehörigen Gesetzen sprichst. Erstere sind im jeweils betrachteten System zu verorten, während letztere keine Entitäten des Systems sondern unseres Verstandes sind, die wir nutzen, um das System zu charakterisieren. Das trifft auf Gesetze auf allen Ebenen zu. Z.B. führt der reale Vorgang des Betätigen eines Lichschalters zum Schließen des Stromkreises und zu einem realen Stromfluss, verbunden mit einer Erwärmung des durchflossenen Drahtes. Beschrieben wird das ganze mittels des Ohmschen Gesetzes oder mikroskopischer Gesetze zur Beschreibung und Berechnung der elektrischen Leitfähigkeit, des Elektronentransportes, ... Das ist zunächst mal ein Missverständnis, das ich jetzt verstanden habe.

2) Es ist möglich, dass Gesetze auf höheren Ebenen nicht auf Gesetze auf niedrigen Ebenen zurückgeführt werden können. Ich sehe als Physiker zwar keinen Grund, wieso dies prinzipiell so sein sollte, kann es jedoch nicht mit Sicherheit ausschließen. Deine Beispiele laufen nicht auf eine prinzipielle sondern lediglich auf die gegenwärtig praktische Unmöglichkeit hinaus; dem stimme ich natürlich zu. Konkret können wir in der Physik tatsächlich Gesetze auf höheren Ebenen aus denen der fundamentalen Ebene ableiten: s.o. z.B. die BCS-Theorie zur Supraleitung.

3) Nehmen wir an, wir könnten alle fundamentalen Freiheitsgrade (Teilchen wie Atomkerne und Elektronen, Photonen) eines in guter Näherung abgeschlossenen biologischen Systems oder Habitats in eine mathematische Formel packen, die ihre mikroskopische Dynamik hinreichend präzise beschreibt (trivial - Einzeiler). Nehmen wir weiter an, wir könnten einige makroskopischen Gesetzmäßigkeiten der biologischen Organismen auf die mikroskopische Ebene übersetzen (teilweise recht einfach, z.B. für Transportprozesse wie die Nahrungsaufnahme, das Ergebnis der Fortpflanzung = die Vermehrung ...; teilweise kompliziert, z.B. für den Stoffwechsel; teilweise unklar, z.B. für das Sehen - weil für das Erregungsmuster im Gehirn der Übergang zu „Interpretation“ und „Denken“ unklar bleibt). Nehmen wir an, wir könnten beides auf einem Computer zum Ablauf bringen (heute und in nächster Zeit praktisch unmöglich). Jedenfalls könnten wir dann - den geeigneten Computer vorausgesetzt - die Entwicklungen innerhalb des Habitats näherungsweise berechnen, und wir könnten - z.B. durch Mustererkennung - Vorgänge wie Nahrungsaufnahme, Ausscheidung, Paarung, Vermehrung, Mutationen des Phänotyps, ... ermitteln lassen. Wir könnten außerdem durch Beobachtung diverse Gesetzmäßigkeiten erkennen - so wie Biologen dies anhand realer biologischer Systeme schon seit langem tun. Geeignete Computer vorausgesetzt, i) würde die Entwicklung innerhalb des realen Habitats in guter Näherung durch die Entwicklung innerhalb des Computers abgebildet werden; d.h. ii) auch die biologischen Gesetzmäßigkeiten würden mit den aus dem Computermodell abgeleiteten Gesetzmäßigkeiten in guter Näherung übereinstimmen. Für mich wäre das Ergebnis von (ii) ein Maß des Erfolgs von (i). Beachte, dass ich an keiner Stelle voraussetze, dass die makroskopischen aus den mikroskopischen Gesetzmäßigkeiten folgen, sondern lediglich, dass die Beobachtung und Bestätigung der makroskopischen Gesetzmäßigkeiten in beiden Fällen gleichartig funktioniert. Konkret: ich weiß, dass Vermehrung zu mehr Lebewesen führt; ich definiere „Lebewesen“ als berandete und agierende Ansammlung von Kohlenstoffatomen plus weiteren Zutaten; ich bringe dem Computer bei, diese per Mustererkennung zu identifieren; ich betrachte ein reales Habitat und zähle Lebewesen; der Computer zählt die entsprechenden Muster. Ich denke, dies ist ein prinzipiell mathematisch formulierbares Vorhaben.

Damit müssten wir beide zufrieden sein: ich habe in gewisser Weise die realen biologischen Prozesse auf physikalische Prozesse reduziert, ich bin in der Lage, für biologische Prozesse auf physikalischer Ebene eine Erkennungsmethode zu beschreiben, und diese auf ein mathematisches Modell anzuwenden. Du hast insofern recht, als ich dennoch nicht in der Lage war, biologische aus physikalischen Gesetzmäßigkeiten abzuleiten.

OK?
Gruß
Tom

«while I subscribe to the "Many Worlds" theory which posits the existence of an infinite number of Toms in an infinite number of universes, I assure you that in none of them am I dancing»

Benutzeravatar
seeker
Ehrenmitglied
Ehrenmitglied
Beiträge: 5713
Registriert: 26. Dez 2009, 10:29

Re: Instabilität

Beitrag von seeker » 10. Jan 2019, 00:32

Evtl. reden wir auch aneinander vorbei.
Ich versuche es einmal anders, vielleicht kommen wir dann auf einen Nenner.

Wir haben zunächst Strukturen in der Welt gefunden die wir "Naturgesetze" nennen.
Diese sind -soweit wir wissen und innerhalb der Messgenauigkeit- stabil, d.h. sie gelten immer und überall, unveränderlich.
Was ist nun wesentlich an ihnen?

Wesentlich an ihnen ist, dass sie zusammen mit den Naturkonstanten und den Anfangsbedingungen einschränken, was überhaupt in der Natur geschehen kann bzw. sich entwickeln kann bzw. konnte: Ohne Naturgesetze könnte schlichtweg alles geschehen.

Dabei ist es so - VWI hin oder her- dass wegen der QM mit ihrem zumindest "Froschperspektive-Quantenzufall" zu jedem Zeitpunkt geschichtlich gesehen für jeden realen Beobachter sowohl in Richtung Zukunft als auch in Richtung Vergangenheit zwar einiges fixiert erscheint, aber nicht alles, d.h. die Naturgesetze plus Naturkonstanten plus Anfangsbedingungen legen für ihn, aus seiner Perspektive nicht jedes Detail exakt fest, es besteht Freiraum, wie es sich sonst noch für ihn bis zur Gegenwart oder in die Zukunft hätte entwickeln können bzw. entwickeln wird.
Auch falls die VWI verwirklicht wäre, was wir nicht wissen, hilft sie hier nicht heraus, weil sie mir nicht erklären kann, warum gerade ich gerade meine Historie wahrnehme und meine Zukunft wahrnehmen werde und keine andere, sie kann mir nur erklären, warum das so ist, dass ich aus meiner Perpektive u.a. auch für-mich-scheinbar-objektiven Zufall feststelle, aber sie kann diesen Zufall IN meiner Perspektive auch nicht auflösen.

In diesem Freiraum des perspektivgebundenen Froschperspektive-QM-Zufalls, der nicht berechenbar ist, also auch hier nicht algorithmisch erfasst werden kann, können nun aus der sensitiven dynamischen Bewegung komplexer prozesshafter Systeme heraus, Geschehnisse stattfinden, die diesen Zufall einerseits verstärken, 'aufblasen', die aber gleichzeitig weitere Strukturen bilden, die zusätzliche Einschränkungen darstellen, zusätzlich zu den bekannten Naturgesetzen - und zwar hier zunächst nicht für das gesamte Universum, sondern zunächst nur für das betreffende System, in dem sie auftreten - und zwar von oben nach unten, aus der Gesamtsystemdynamik heraus abwärtsbedingend. Diese zusätzliche Einschränkung geht mit zusätzlicher Struktur und Dynamik einher bzw. IST dieselbe.
D.h.: Hier handelt es sich sozusagen um etwas, das zunächst nach etwas aussieht, das man "sekundäre Naturgesetzlichkeiten" nennen könnte.
Wenn dabei aber manche Strukturen in ganz verschiedenen Systemen auftreten können und da auch ähnliche Systeme sich prinzipiell überall im Universum bilden können, haben sie dennoch auch einen universellen Fundamentalcharakter: die Natur macht das offenbar überall und immer so, sie lässt offenbar überall und immer ganz bestimmte Muster in solchen komplexen Systemen auftauchen.

Typisch für diese Strukturen ist allerdings, dass sie auch 'andersartig' als die gewöhnlichen NG ausschauen können.
Außerdem treten sie offenbar nur in Systemen auf, die bestimmte Eigenschaften teilen, diese sind hier nachzulesen:

https://de.wikipedia.org/wiki/Komplexes ... enschaften

Das betrifft natürliche komplexe Systeme.

Andererseits gibt es aber auch sicher künstliche komplexe Systeme, die dieselben Eigenschaften zeigen: Man kann solche Systeme auch in einem Computer erzeugen, der voll digital arbeitet.
Wie ist das möglich?
Ich denke, wenn man genau hinschaut, dann muss wenigstens ein guter Teil der erscheinenden komplexen Eigenschaften voll-kausal sein.
Ein kleiner aber dann wahrscheinlich nicht vernachlässigbarer Teil könnte das aber auch nicht sein, denn ein realer Computer hat u.a. eine begrenzte Rechengenauigkeit, d.h. er macht Rundungsfehler.
Wie relevant das ist, übersehe ich im Moment noch nicht, aber es sollte wenigstens erwähnt werden.

Auf jeden Fall lässt sich daraus schließen, dass mindestens ein großer Teil realer komlexer Systeme prinzipiell in einem Computeralgorithmus abgebildet werden könnte. Allerdings muss man auch sehen, dass es sich hier nicht um analytische Berechnungen handelt, denn solche existieren für nichtlineare Systeme nicht. In der Regel handelt es sich stattdessen um Iterationen.
D.h.: Trotz prinzipieller Berechenbarkeit ist die zeitliche Entwicklung auch solcher Systeme i.d.R. nicht vorhersehbar.

Bei der Modellbildung kommt noch eine weitere Schwierigkeit hinzu:
Es reicht nicht aus, den richtigen Algorithmus zu finden, man muss auch noch den richtigen Input, also die richtigen Anfangsbedingungen und Systemgrenzen finden bzw. festlegen.
Das ist in Perfektion bei offenen komplexen Systemen wo man die Systemgrenzen nicht exakt definieren bzw. verorten kann und ohne die Kenntnis des exakten Quantenzustands des VWI-Universums, der uns prinzipiell nicht bekannt sein kann, unmöglich. Und im Gegensatz zu linearen bzw. einfachen Systemen, bei denen das wegen ihrer Nicht-Sensitivität i.d.R. nur einen kleinen, vernachlässigbaren Fehler verursacht, ist dieser Fehler bei den sensitiven komplexen Systemen keinesfalls vernachlässigbar.
Deshalb wird sich ein simuliertes komplexes System immer nicht-vernachlässigbar anders entwickeln als das Original in der Natur, das es abbilden soll. Deshalb ist mindestens von uns kein komplexes natürliches System in Perfektion in einem Computer abbildbar - und zwar prinzipiell nicht.

Das heißt insgesamt:
Unter der Voraussetzung, dass die VWI wahr ist und auch alle gewöhnlichen Grundannahmen stimmen, sind komplexe Systeme in einem 'VWI-Multiversum-Phasenraum' prinzipiell vollständig reduktiv abbildbar - aber prinzipiell nicht von uns.
Ohne die VWI-Voraussetzung, also mit echtem QM-Zufall, sind sie es prinzipiell überhaupt nicht.

Sicher ist das noch verbesserungswürdig und ausbaufähig, gerade in der Formulierung, aber ist das in der ungefähren Richtung akzeptabel, befriedigend?
Grüße
seeker


Mache nie eine Theorie zu DEINER Theorie!
Denn tut man das, so verliert man zumindest ein Stück weit seine Unvoreingenommenheit, Objektivität.

Benutzeravatar
tomS
Administrator
Administrator
Beiträge: 9998
Registriert: 19. Nov 2007, 20:29
Wohnort: Nürnberg

Re: Instabilität

Beitrag von tomS » 10. Jan 2019, 01:14

Das folgende trifft so nicht ganz zu, ist hier jedoch irrelevant:
seeker hat geschrieben:
10. Jan 2019, 00:32
Auch falls die VWI verwirklicht wäre, hilft sie hier nicht heraus, weil sie mir nicht erklären kann, warum gerade ich gerade meine Historie wahrnehme und meine Zukunft wahrnehmen werde und keine andere, sie kann mir nur erklären, warum das so ist, dass ich aus meiner Perpektive u.a. auch für-mich-scheinbar-objektiven Zufall feststelle, aber sie kann diesen Zufall IN meiner Perspektive auch nicht auflösen.
Einzig der letzte Satz ist zu kommentieren: die VWI löst den Zufall alleine IN der Froschperspektive nicht auf, aber das muss sie auch nicht; sie löst ihn auf zweierlei Weise: i) in der Vogelperspektive, ii) in der Froschperspektive bei gleichzeitigem Wissen um die Existenz der Vogelperspektive. Die VWI einerseits zu verstehen, sie jedoch in Teilen zu ignorieren und sich dann zu beklagen, dass sie damit nicht das gewünschte leistet, ist irrational.
seeker hat geschrieben:
10. Jan 2019, 00:32
In diesem Freiraum des perspektivgebundenen Froschperspektive-QM-Zufalls, der nicht berechenbar ist, also auch hier nicht algorithmisch erfasst werden kann, ..
dito - das ist irrational
seeker hat geschrieben:
10. Jan 2019, 00:32
Deshalb wird sich ein simuliertes komplexes System immer nicht-vernachlässigbar anders entwickeln als das Original in der Natur, das es abbilden soll. Deshalb ist mindestens von uns kein komplexes natürliches System in Perfektion in einem Computer abbildbar - und zwar prinzipiell nicht.
Wenn es sich um ein nicht-lineares und kontinuierliches System handelt, dann ist es von niemandem mittels eines Computers abbildbar. Wenn es sich dagegen um ein diskretes System handelt, ist es abbildbar.

Die Diskussion um den Computer führt aber ggf. in die Irre: im Kern haben wir nicht die Modellierung auf dem Computer diskutiert, sondern das Wesen der Naturgesetze. Da sehe ich inzwischen klarer - s.o.
seeker hat geschrieben:
10. Jan 2019, 00:32
Unter der Voraussetzung, dass die VWI wahr ist und auch alle gewöhnlichen Grundannahmen stimmen, sind komplexe Systeme in einem 'VWI-Multiversum-Phasenraum' prinzipiell vollständig reduktiv abbildbar - aber prinzipiell nicht von uns.
Was - wie wir oben gesehen haben - noch wenig über die Beziehung zwischen den Gesetzen aussagt.
seeker hat geschrieben:
10. Jan 2019, 00:32
Ohne die VWI-Voraussetzung, also mit echtem QM-Zufall, sind sie es prinzipiell überhaupt nicht.
Ja, was aber nicht am Zufall liegt.

Man kann die Axiome der QM im Umfeld einer Messung in etwa wie folgt formulieren: „bei Vorliegen einer Messung ist ... anzuwenden“. Das Problem ist nicht das ..., sondern die Tatsache, dass „Messung“ undefiniert bleibt und deswegen die Bedingung für die Anwendung von ... nicht formalisierbar ist. Letztlich gibt es zwei Antworten auf die Frage, was denn eine Messung im Kontext der QM ist:
VWI: „eine gewöhnliche Wechselwirkung“
alle anderen: „na, halt eine Messung“
seeker hat geschrieben:
10. Jan 2019, 00:32
Sicher ist das noch verbesserungswürdig und ausbaufähig, gerade in der Formulierung, aber ist das in der ungefähren Richtung akzeptabel, befriedigend?
Ja, sehr. Nur die oben angesprochenen offenen Punkte bleiben offen ;-)
Gruß
Tom

«while I subscribe to the "Many Worlds" theory which posits the existence of an infinite number of Toms in an infinite number of universes, I assure you that in none of them am I dancing»

Benutzeravatar
seeker
Ehrenmitglied
Ehrenmitglied
Beiträge: 5713
Registriert: 26. Dez 2009, 10:29

Re: Instabilität

Beitrag von seeker » 10. Jan 2019, 14:07

tomS hat geschrieben:
10. Jan 2019, 01:14
Ja, sehr. Nur die oben angesprochenen offenen Punkte bleiben offen ;-)
Das freut mich! Wir kommen voran...
tomS hat geschrieben:
10. Jan 2019, 01:14
Einzig der letzte Satz ist zu kommentieren: die VWI löst den Zufall alleine IN der Froschperspektive nicht auf, aber das muss sie auch nicht; sie löst ihn auf zweierlei Weise: i) in der Vogelperspektive, ii) in der Froschperspektive bei gleichzeitigem Wissen um die Existenz der Vogelperspektive. Die VWI einerseits zu verstehen, sie jedoch in Teilen zu ignorieren und sich dann zu beklagen, dass sie damit nicht das gewünschte leistet, ist irrational.
Ich beklage mich nicht, ich ignoriere auch nicht. Ich stelle nur fest, dass wenn man einzelne historische Linien in den Verzweigungen der VWI heraugreift, dass es dann in diesen Linien wie Zufall aussieht und auch so wirksam ist.
Die VWI erklärt mir warum das so ist. Der Punkt ist: Die VWI bevorzugt keine Verzweigung, sie erklärt im Gegenteil, dass überhaupt kein objektiver Grund/Mechanismus existiert, der einen Zweig über das Maß der QM-Wahrscheinlichkeitsaussagen bevorzugen könnte, also ist so eine Bevorzugung auch prinzipiell nicht berechenbar, weil es da nichts zu berechnen gibt. Sie erklärt, dass jede bevorzugte Wahl einer Verzweigungsline im VWI-Multiversum willkürlich bzw. grundlos bzw. ursachenlos bzw. zufällig erfolgen muss.

Der einzelne Beobachter bevorzugt in dem was er beobachten kann und was für ihn und in seiner Umwelt wirksam ist aber immer seinen Zweig, in dem er sich befindet bzw. seine eigene Gesamtverzweigung seit dem Urknall, so weit er in der Lage ist seine eigene Geschichte oder die Geschichte von beobachtbaren Systemen in seiner Umgebung zurückzuverfolgen oder in der Zukunft weiterzuverfolgen, er kann gar nicht anders. Daraus ergibt sich in jedem einzelnen Verweigungsweg ein wirksamer Quasi-Zufall, der in der reinen Beobachtung oder Reaktion darauf ununterscheidbar von echtem Zufall ist, weder für ihn, noch für irgendwelche komplexen Systeme in seiner Umgebung.

Ich will dabei eigentlich auch gar nicht um Worte bzw. die beste Formulierung streiten, wichtig ist der Freiraum, der dadurch geschaffen wird.

Wesentlich an komplexen Systemen ist dieser Freiraum:
Komplexe Systeme brauchen notwendig -um überhaupt als komplex verstanden werden zu können- ein Grundrauschen, etwas Zufälliges, auf dem sie sozusagen neue Ordnung aufbauen können. Wäre die Welt komplett, also auch auf jeder Ebene linear-kausal (und die Grundformulierung der Naturgesetze haben diese Natur), dann gäbe es so etwas nicht.

Deshalb nur haben wir uns darauf gestürzt, um zu bewerten, wecher Art dieser Zufall ist. Es gibt dafür nämlich grundsätzlich verschiede Möglichkeiten:

a) scheinbarer Zufall, in unüberschaubar komplizierten Systemen, ganz besonders in offenen Systemen, wo wir nicht in der Lage sind jedes Einzelteil des Systems genau zu verfolgen, wo es also nur auf unserem Unwissen basiert, dass wir an der Stelle nur Rauschen sehen
b) quasi-Zufall, der notwendig auf unser Froschperspektive basiert, die immer geschichtlicher Natur ist
c) echter Zufall, Wirkung ohne Ursache, der darauf basiert, dass Vorgänge in der Natur offen gelassen werden, nicht festgelegt sind

Ob c) existiert ist dabei strittig, aber es muss als grundsätzliche Option mindestens erwähnt werden.
Und der Pragmatiker wird mit seinen pragmatischen Fragestellungen schon mit a) zufrieden sein, den Rest kann er übergehen.
tomS hat geschrieben:
10. Jan 2019, 01:14
Wenn es sich um ein nicht-lineares und kontinuierliches System handelt, dann ist es von niemandem mittels eines Computers abbildbar. Wenn es sich dagegen um ein diskretes System handelt, ist es abbildbar.
Danke! Das ist ein ganz wesentlicher weiterer Punkt, den ich fast schon wieder vergessen hätte:
Um ein sensitives, nicht-lineares, echt-kontinuierliches, analoges System in einer Von-Neumann-Maschine exakt abzubilden, müsste diese Maschine unendlich genau rechnen können, irrationale Zahlen, die das abzubildende System exakt repräsentieren sollen, müssten mit allen Nachkommastellen erfasst werden. Da deren aber unendlich viele vorliegen, müsste der diskrete Speicher der Maschine unendlich groß sein - und dann würde sie für einen einzigen Rechenschritt unendlich lange brauchen. Also müsste die Maschine auch noch unendlich schnell rechnen können, wahrscheinlich sogar überabzählbar-unendlich schnell. An der Stelle würde ich dann behaupen, dass es hier zu abstrus wird und wir einsehen müssen, dass das Konzept "Von-Neumann-Maschine" hier nichts mehr taugt: Wir lernen daraus nichts, außer, dass es so nicht geht.
tomS hat geschrieben:
10. Jan 2019, 01:14
Ohne die VWI-Voraussetzung, also mit echtem QM-Zufall, sind sie es prinzipiell überhaupt nicht.
Ja, was aber nicht am Zufall liegt.
Nicht nur am Zufall, aber auch am Zufall: Selbst wenn die Natur komplett diskret wäre, es aber echten Zufall gäbe, wären komplexe Systeme prinzipiell nicht vollständig reduktiv abbildbar.
tomS hat geschrieben:
10. Jan 2019, 01:14
Die Diskussion um den Computer führt aber ggf. in die Irre: im Kern haben wir nicht die Modellierung auf dem Computer diskutiert, sondern das Wesen der Naturgesetze. Da sehe ich inzwischen klarer - s.o.
Nun ja, du selbst hast dich naturgemäß vor allen Dingen darauf und auf die algorithmische Abbildung konzentriert. Es gibt andere Aspekte, die ebenso interessant sein können, die Komplexität im Computer ist eines davon.

Mich treibt im Moment noch eine andere Frage um:
In diesen komplexen oder chaotischen nicht-liearen Systemen emergieren offenbar zweierlei Muster:

a) stabile linear beschreibbare Muster
b) instabile und nicht-lineare Muster

Wenn wir hier nun von solchen Systemen lernen können, dass "aus der Bewegung heraus" und z.T. aufbauend auf schlichtem chaotischen Rauschen auch Muster nach a) hervortreten können, wäre es dann nicht denkbar, dass die Muster, die wir "Naturgesetze" nennen auch auf diesem Weg in die Existenz gekommen sind? Gibt es möglicherweise ganz einfache, nichlinear-rückgekoppelte Grundstrukturen, aus denen unsere NG 'aus der Bewegung heraus' emergieren könnten?
Den Punkt a) finde ich deshalb besonders bemerkenswert. Erstens, ist es überraschend, dass diese in einem nicht-liearen System überhaupt auftreten können und zweitens weil diese stabilen oder in der Näherung als stabil annehmbaren Muster in einer Weise korrekt formal erfasst werden können, die mit ihrem Entstehungsgrund und ihrem Wesen nicht das Geringste zu tun hat.

Einfachstes Beispiel:
Logistische Gleichung, Feigenbaumdiagramm, wenn sich das System im Zusand vor der ersten Bifurkation befindet, dort strebt es sehr schnell einem völlig stabilen Wert zu, der in einer völlig profanen linearen Gleichung oder als Konstante völlig korrekt ausgedrückt werden könnte, der aber mit dem wirklichen Geschehen nichts zu tun hat, der das wirkliche Geschehen völlig verkennt.
Grüße
seeker


Mache nie eine Theorie zu DEINER Theorie!
Denn tut man das, so verliert man zumindest ein Stück weit seine Unvoreingenommenheit, Objektivität.

Benutzeravatar
ATGC
wohnt hier!
wohnt hier!
Beiträge: 357
Registriert: 13. Jul 2017, 15:33
Wohnort: zu Hause

Re: Instabilität

Beitrag von ATGC » 10. Jan 2019, 15:30

Hallo Tom,
Wenn nein, welche mikroskopische Eigenschaft oder welcher mikroskopische Prozess wäre nicht derartig modellierbar?
Alles, was über die reine Atomstruktur bzw. Molekülstruktur hinausgeht. Man kann zwar modellieren, wie sich Moleküle zusammensetzen und wie sie miteinander wechselwirken, indem sie z.B. chemische Bindungen eingehen oder chemische Bindungen auflösen usw., aber wenn es über diese elektromagnetischen Wechselwirkungen hinausgeht, wenn also die Molekülformen selber als Mechanik zum Tragen kommen, dann ist da mit Quantenmechanik nichts mehr zu machen. Als Beispiel sei hier der Vorgang der Translation gezeigt:

https://www.youtube.com/watch?v=Jml8CFBWcDs
Welcher Aspekt des Phänotyps fehlt in diesem Modell bzw. geht nicht aus diesem Modell hervor?
Der dynamische Aspekt fehlt hierbei. Es ist nicht ableitbar, welche Moleküle mit welchen anderen Molekülen auf welche Art und Weise miteinander wechselwirken, wenn ich nur die örtliche Position der Moleküle kenne und nicht die ineinander greifenden Reaktionswege, über die sich die Rückkopplungen ergeben. Und aus den chemischen Eigenschaften der Moleküle und der chemischen Reaktionskinetik allein ergeben sich nicht die erwähnten mechanischen Effekte, die ihrerseits einen wichtigen Stellenplatz im Zellplasmageschehen einnehmen.
Behauptest du, dass die Gesetze der Ontogenese einer höheren Organisationsebene nicht aus den zugrundeliegenden physikalischen Gesetzen ableitbar sind?
Ja, das behaupte ich. Die Ontogenese ist z.B. nicht aus der Quantenmechanik ableitbar, die für das stoffliche Fundament der Organismen (Atome, Moleküle) relevant ist. Ab einer bestimmten Organisationshöhe kommen andere Gesetze zum Tragen, die die Ontogenese koordiniert ablaufen lassen. Gradienten z.B. haben einen auslösenden Effekt für Differenzierungsvorgänge, welche wiederum eine Veränderung der Gradienten bewirken, so dass sich die Reaktionskaskaden verändern, was wieder einen Effekt auf die Differenzierung hat usw.

Die Physik spielt hier zwar eine Rolle, weil sie den Rahmen des Erlaubten absteckt, aber sie determiniert nicht mehr die konkreten Abläufe, die aus einer befruchteten Eizelle einen ausgewachsenen Organismus werden lassen. Diese ergeben sich durch das Wirken neuer und anderer Gesetze, die sich über die erreichte Organisationshöhe ergeben - also über das Komplexitätsniveau der Wechselwirkungen, welches neue Fakten schafft und neue Freiräume für Entwicklungsmöglichkeiten eröffnet.
dann musst du beweisen, warum dies nicht funktioniert
Ich weiß nicht, wie ich das beweisen kann, ich sehe nur keinen Zugang vom quantenmechanischen Fundament der Materie, aus der sich ein Organismus zusammensetzt, zur Autopoiesis, über die sich ein Organismus selbst zusammenbaut und reproduziert. Mir fehlt da der stringente Übergang, der das eine mit dem anderen logisch und formal folgerichtig in beide Richtungen wechselseitig ableitbar werden lässt. Wenn ich immer tiefer in die Fundamente schaue, treffe ich zwar am Ende auf Atome und Moleküle, aber ich habe dann keinen Organismus mehr.

Und wenn ich von den Atomen und Molekülen ausgehe, kann ich sie zwar beliebig vervielfältigen und miteinander kombinieren, aber ich erhalte dann keinen Organismus, sondern nur eine Ansammlung von Atomen und Molekülen - ebenso wie, wenn ich einen Haufen Ziegelsteine betrachte, aber daraus noch lange kein Haus geworden ist. Hier fehlt mir der Übergang, der mir die Organisation bringt, die eine Ansammlung von Einzelteilen zu einem funktionierenden Ganzen werden lässt.
Was wären konkrete Eigenschaften, Fähigkeiten oder Verhaltensweisen eines Organismus?
Der organisierte Ablauf der verschiedenen Prozesse, der eine Zelle als lebende Zelle erkennbar werden lässt, ist ein wesentliches Kriterium.
Behauptest du, dass die Gesetze der Phylogenese nicht aus den zugrundeliegenden physikalischen Gesetzen ableitbar sind?
Ja genau. Diese Gesetze ergeben sich über einen Komplex von Wechselwirkungen, der zwischen Organismen und Umweltbedingungen abläuft, die sich nicht auf physikalische Wechselwirkungen eingrenzen lassen. Insbesondere, wenn es um Wechselwirkungen zwischen Organismen geht, die sich in der gemeinsamen ökologischen Nische aufhalten bzw. das gleiche Ökosystem besiedeln. Der auslösende Prozess - die Mutation - lässt sich physikalisch beschreiben, da es hier um eine Änderung der Basensequenz der DNA geht, für die sich physikalische Ursachen ausmachen lassen.

Die Folgeprozesse, die die Selektion betreffen, beinhalten nicht ausschließlich physikalische Gesetzmäßigkeiten, sondern eben darüber hinaus auch Gesetzmäßigkeiten, die sich aus der Interaktion zwischen Organismen der gleichen Art oder Organismen anderer Arten ergeben. Bei Tieren kommen oft noch Verhaltensdispositionen hinzu sowie soziale Gesetzmäßigkeiten (Hierarchien, Hackordnung, Revierverhalten, sexuelle Selektion usw.), die wiederum eine eigene Klasse von Wechselwirkungen darstellen.

In der Summe haben wir einen konkreten Verlauf der Phylogenese, der unvorhersehbar und unableitbar aus den Grundlagen heraus abläuft, da nicht absehbar ist, welche Mutationen sich konkret ereignen werden und welche selektiven Vorteile oder Nachteile daraus erwachsen werden (da die konkreten Selektionsdrücke ebenfalls einem unvorhersehbaren Prozess unterworfen sind) sowie welche phänotypischen Merkmale langfristig daraus hervorgehen werden. Alles das verläuft zwar auf der Basis des physikalischen Rahmens, aber stellt für sich genommen eine eigene Klasse von Gesetzmäßigkeiten dar, die man aus dem physikalischen Fundament nicht ableiten kann.
Es geht mir darum, ob das Gesamtsystem = die Biosphäre einschließlich ihrer zeitlichen Entwicklung reale Eigenschaften aufweist, die prinzipiell nicht aus dem mikroskopischen Modell ableitbar sind.
Ja, die Organisationsstruktur der Biosphäre ist aus dem mikroskopischen Modell nicht ableitbar. Siehe oben: Mir fehlt hier das Bindeglied, welches einen logisch folgerichtigen Übergang von der einen Ebene in die andere Ebene ermöglicht.
Der erste wesentliche Unterschied ist, dass ich über reale Eigenschaften, Vorgänge und Prozesse spreche, während du von den zugehörigen Gesetzen sprichst.
Die Gesetze beschreiben die Phänomene, die man beobachten bzw. analysieren kann. Wenn ich also von Gesetzen spreche, bedeutet das zugleich, dass die Phänomene so beschaffen sind, dass man sie adäquat nur dann beschreiben kann, wenn man über die physikalischen Gesetzmäßigkeiten hinaus noch weitere Gesetzmäßigkeiten berücksichtigt. Anderenfalls kann man die betreffenden Phänomene nicht adäquat und nicht vollständig beschreiben.
Deine Beispiele laufen nicht auf eine prinzipielle sondern lediglich auf die gegenwärtig praktische Unmöglichkeit hinaus
Ich sehe die Organisiertheit des Ablaufs der Prozesse in einem Organismus als prinzipiell unableitbar an. Man kann zwar im Einzelnen aufdröseln, welche Prozesse da mit welchen anderen Prozessen zu einem Netzwerk verbunden sind, aber dann habe ich lediglich eine Zusammenstellung des Netzwerks, einschließlich der einzelnen Systemkomponenten (Moleküle), aber noch kein organisiertes System, welches einen Organismus als Ganzes repräsentiert. Was man ableiten kann, sind Teilaspekte des Systems (meinetwegen die Struktur der Rückkopplungen von Reaktionswegen und die sich daraus ergebenden Vernetzungen), aber nicht das System als Ganzes, wie es als lebendes System existiert.
Nehmen wir an, wir könnten alle fundamentalen Freiheitsgrade (Teilchen wie Atomkerne und Elektronen, Photonen) eines in guter Näherung abgeschlossenen biologischen Systems oder Habitats in eine mathematische Formel packen
Dann hättest Du zunächst nur die Freiheitsgrade mathematisch erfasst, aber nichts, was sich an Organisation daraus ergeben kann.
Nehmen wir weiter an, wir könnten einige makroskopischen Gesetzmäßigkeiten der biologischen Organismen auf die mikroskopische Ebene übersetzen (teilweise recht einfach, z.B. für Transportprozesse wie die Nahrungsaufnahme, das Ergebnis der Fortpflanzung = die Vermehrung ...; teilweise kompliziert, z.B. für den Stoffwechsel; teilweise unklar, z.B. für das Sehen - weil für das Erregungsmuster im Gehirn der Übergang zu „Interpretation“ und „Denken“ unklar bleibt).
Hier liegt der Knackpunkt bei "einige": Du wählst also willkürlich aus. Aber nach welchen Kriterien und vor allen Dingen: Was ist mit dem Rest, der nicht ausgewählt wird? Ist der plötzlich irrelevant geworden? Und wenn ja, warum?
Nehmen wir an, wir könnten beides auf einem Computer zum Ablauf bringen
Dann hättest Du lediglich ein Modell für die Populationsentwicklung bei zuvor definiertem Nahrungsangebot, denn der Rest (Fortpflanzung, Stoffwechsel, Wahrnehmung) verschwindet in der Blackbox der Modellorganismen, die dann nur noch gezählt werden, aber in ihrer phylogenetischen Entwicklung nicht mehr modellierbar sind, weil Du wesentliche Parameter außen vor gelassen hast (Mutationsrate, Mutationsorte, phänotypische Effekte, Fitnessparameter usw.). Und dafür genügt dann auch eine simple Bakterienkultur, die man beliebig oft vervielfältigen kann, um evolutionäre Veränderungen zu untersuchen.
Jedenfalls könnten wir dann - den geeigneten Computer vorausgesetzt - die Entwicklungen innerhalb des Habitats näherungsweise berechnen,
Nur sehr allgemein, was die Populationsentwicklung betrifft, aber nicht, was die Organismen betrifft, aus denen sich die Population zusammensetzt.
und wir könnten - z.B. durch Mustererkennung - Vorgänge wie Nahrungsaufnahme, Ausscheidung, Paarung, Vermehrung, Mutationen des Phänotyps, ... ermitteln lassen.
Mutationen kannst Du nicht vorausberechnen - siehe oben - und damit langfristig nicht die anderen Parameter, die Du aufgeführt hattest. Bei konstanten Annahmen (Nahrungsbereitstellung, Stoffwechselrate, Ausscheidungsprodukte, Teilungsrate) lässt sich wenigstens eine Populationsentwicklung berechnen, die so lange existiert, bis sie an der Vergiftung durch die sich sukzessive anreichernden Ausscheidungsprodukte, die sich nicht mehr über den Stoffwechsel verwerten lassen, zugrunde geht. Aber das ist aus der Bakteriologie schon lange bekannt. Es gibt da ein typisches Wachstumsmuster.

Bild
Ich denke, dies ist ein prinzipiell mathematisch formulierbares Vorhaben.
Ja, aber der Erkenntniswert ist nicht größer geworden in Bezug darauf, was ein Organismus ist, sondern es wird lediglich die Populationsentwicklung abgebildet und modelliert - und auch dies nur sehr allgemein gehalten. Der Erkenntnis, was ein Lebewesen ist, ist man mit dieser Methode nicht näher gekommen. Man hat lediglich einen einzelnen Rückkopplungseffekt nachgebildet.
ich habe in gewisser Weise die realen biologischen Prozesse auf physikalische Prozesse reduziert
Nein, Du hast damit ein statistisch beobachtbares Verhalten (Populationsentwicklung) mathematisch abgebildet, aber nicht auf physikalische Prozesse reduziert.

Benutzeravatar
ATGC
wohnt hier!
wohnt hier!
Beiträge: 357
Registriert: 13. Jul 2017, 15:33
Wohnort: zu Hause

Re: Instabilität

Beitrag von ATGC » 10. Jan 2019, 15:48

Hallo seeker,

bitte entschuldige, dass ich auf Deine Beiträge bislang nicht eingegangen bin. Ich stimme Dir weitgehend zu, habe aber mit Tom momentan den größeren Diskussionsbedarf und - aufwand, so dass ich mich erst mal hierauf konzentriere. Falls ich größere Knackpunkte finde, die auf einen Dissens hinauslaufen, würde ich mich dazu dann noch einmal äußern. Einstweilen verfolge ich Deine Diskussion mit Tom mit Interesse, da sie auch auf mich hinsichtlich der Argumentation bereichernd wirkt.

Viele Grüße!

Skeltek
Site Admin
Beiträge: 3376
Registriert: 25. Mär 2008, 23:51

Re: Instabilität

Beitrag von Skeltek » 10. Jan 2019, 17:48

@ATGC: Danke für die schöne ausführliche Formulierung. Denke das Wort 'Algorithmus' ist hier tatsächlich irgendwie unzutreffend. Aber geht man richtig in der Annahme, dass die Bausteine sequentiell ausgewertet werden sobald die Genese irgendeiner Struktur anhand des Erbguts einsetzt? Letztlich geht es doch teils um das hintereinander geschehen von Ereignissen in einer bestimmten Reihenfolge?

@seeker, tomS: Der Fluß des Themas ist ganz interessant und ich lese feissig und still mit. Nur eine Anmerkung zu seekers Ausspruch:
Weshalb seeker1 und seeker2 bei der VWI 'ihren Zufall' jeweils nicht erklären können oder Informationen untereinander austauschen... ich sehe hier keinen Unterschied dazu, dass seeker1 und tomS1 keine Informationen in ihren Bewusstseinen austauschen können.
Die 'seeker's sind dimensional getrennt, seeker1 und tomS1 jeweils räumlich. Bei letzterem fragt man sich ja auch nicht, wieso man nicht jemand anderes ist oder als ein anderer geboren wurde.
Aber das nur als Zwischeneinschub... das geht denke ich zu sehr off-topic von mir.
Die plausibelste Erklaerung jedes hinreichend komplizierten Systems ist falsch

Unentscheidbarkeit für Dummies: Dieser Satz ist wahr
oder
Diese Menge hat zwei Elemente: A und B

Benutzeravatar
ATGC
wohnt hier!
wohnt hier!
Beiträge: 357
Registriert: 13. Jul 2017, 15:33
Wohnort: zu Hause

Re: Instabilität

Beitrag von ATGC » 10. Jan 2019, 18:17

Hallo Skeltek,
Danke für die schöne ausführliche Formulierung.
Danke für das Feedback. :)
Aber geht man richtig in der Annahme, dass die Bausteine sequentiell ausgewertet werden sobald die Genese irgendeiner Struktur anhand des Erbguts einsetzt?
Die Formulierung ist missverständlich. Zutreffender ist es, wenn man sagt, dass auf einzelne Abschnitte der DNA im Verlauf der Ontogenese je nach Entwicklungsabschnitt in verschiedenem Umfang zugegriffen wird. Es ergibt sich eine Zugriffsfrequenz, die die Häufigkeit des Zugriffs und die Zugriffsorte betrifft, welche sich über den gesamten Zeitverlauf erstreckt.
Letztlich geht es doch teils um das hintereinander geschehen von Ereignissen in einer bestimmten Reihenfolge?
Ja, das ist die Zugriffsfrequenz über den Verlauf der gesamten Ontogenese hinweg. Diese Frequenz scheint so, als liefe sie nach einem feststehenden Plan ab oder als gebe es ein Programm, welches nur noch abgearbeitet wird, darum ist die Programm-Metapher in der Molekularbiologie auch so verbreitet. Sie hat einen großen heuristischen Wert, um damit im Sinne dar Aufklärung (und Manipulation) von funktionalen DNA-Abschnitten operieren zu können, aber sie ist lediglich ein Terminus technicus und kein ontologischer Fakt, der tatsächlich vorläge.

Falls Dich das Thema interessiert, kann ich Dir dieses Buch als Lektüre empfehlen. Hier wird zusammengetragen, wie sich der "Informations-Diskurs" in der Biologie etabliert hat und zu welchen Verwirrungen dies beigetragen hat, die auch heute noch in beträchtlichem Umfang kommuniziert werden. Eine modernere Darstellung zur adäquaten Sichtweise auf das Genom ist hier zusammengetragen.

Benutzeravatar
tomS
Administrator
Administrator
Beiträge: 9998
Registriert: 19. Nov 2007, 20:29
Wohnort: Nürnberg

Re: Instabilität

Beitrag von tomS » 11. Jan 2019, 08:08

seeker hat geschrieben:
10. Jan 2019, 14:07
Die VWI bevorzugt keine Verzweigung, sie erklärt im Gegenteil, dass überhaupt kein objektiver Grund/Mechanismus existiert, der einen Zweig über das Maß der QM-Wahrscheinlichkeitsaussagen bevorzugen könnte, also ist so eine Bevorzugung auch prinzipiell nicht berechenbar, weil es da nichts zu berechnen gibt. Sie erklärt, dass jede bevorzugte Wahl einer Verzweigungsline im VWI-Multiversum willkürlich bzw. grundlos bzw. ursachenlos bzw. zufällig erfolgen muss.
Verstehe ich so nicht.
seeker hat geschrieben:
10. Jan 2019, 14:07
Der einzelne Beobachter bevorzugt in dem was er beobachten kann und was für ihn und in seiner Umwelt wirksam ist aber immer seinen Zweig, in dem er sich befindet bzw. seine eigene Gesamtverzweigung seit dem Urknall, so weit er in der Lage ist seine eigene Geschichte oder die Geschichte von beobachtbaren Systemen in seiner Umgebung zurückzuverfolgen oder in der Zukunft weiterzuverfolgen, er kann gar nicht anders. Daraus ergibt sich in jedem einzelnen Verweigungsweg ein wirksamer Quasi-Zufall, der in der reinen Beobachtung oder Reaktion darauf ununterscheidbar von echtem Zufall ist, weder für ihn, noch für irgendwelche komplexen Systeme in seiner Umgebung.
Richtig.
seeker hat geschrieben:
10. Jan 2019, 14:07
Komplexe Systeme brauchen notwendig -um überhaupt als komplex verstanden werden zu können- ein Grundrauschen, etwas Zufälliges, auf dem sie sozusagen neue Ordnung aufbauen können. Wäre die Welt komplett, also auch auf jeder Ebene linear-kausal (und die Grundformulierung der Naturgesetze haben diese Natur), dann gäbe es so etwas nicht.
Das ist eine Vermutung deinerseits, und sie ist wahrscheinlich falsch.

In der klassischen Mechanik resultiert das Verhalten komplexer Systeme aus Nichtlinearitäten / Rückkopplungen und / oder Zufall.

In der Quantenmechanik existiert dies alles - ohne den Messprozess - sicher nicht. Trotzdem folgt die Dynamik klassischer Systeme als Näherung aus quantenmechanischen Systemen, die zunächst linear und deterministisch sind. Der mathematische Formalismus ist verwickelt, jedoch gut verstanden. Fakt ist jedenfalls, dass ein auf fundamentaler Ebene lineares System auf höherer Ebene nichtlinearen Gesetzen zu folgen scheint. Dabei kommen diese nicht neu hinzu, sondern können aus den zugrundeliegenden linearen Gesetzen abgeleitet werden.

D.h. die linearen Gesetze sind diejenigen, denen letztlich alleine die kausale Verursachung zugeschrieben werden kann, während den effiktiven Gesetze auf höherer Ebene keine „echte“ kausale Verursachung zugeschrieben wird; dies erscheint so, wenn man ignoriert oder nicht weiß, wie sie entstehen. Kennt man jedoch den mathematischen Mechanismus, so haben sie letztlich nur beschreibenden Charakter.
seeker hat geschrieben:
10. Jan 2019, 14:07
An der Stelle würde ich dann behaupen, dass es hier zu abstrus wird und wir einsehen müssen, dass das Konzept "Von-Neumann-Maschine" hier nichts mehr taugt: Wir lernen daraus nichts, außer, dass es so nicht geht.
Das ist nicht das, worauf ich hinauswollte, und daher ist die Schlussfolgerung explizit falsch.

Du fokussierst zumeist auf praktische Aspekte. Das ist OK, aber du darfst daraus keine prinzipiellen Schlussfolgerungen ableiten.

Im Falle der Algorithmen geht es nicht um die praktische Implementierung sondern um die theoretische Klassifizierung. Deine praktischen Aspekte kommen erst bei der Umsetzung und damit einer Näherung ins Spiel, während die Klassifizierung natürlich am idealisierten System vorgenommen wird.

Bsp. Wetter: dieses ist für uns praktisch nur über kurze Zeiträume vorhersagbar, da die nichtlinearen Differentialgleichungen zu nichtlinearen Verhalten führen, was bei kleinen Abweichungen in den Startbedingungen in exponentiell divergierenden Trajektorien im Phasenraum resultiert. Nur - das tatsächliche Wetter an sich - ohne die Näherung auf dem Computer - weist diese exponentiell divergierenden Trajektorien im Phasenraum gar nicht auf! Ich habe nur ein einziges Wetter, ich kann nicht mehrere Wetter am selben Tag experimentell präparieren und studieren. Das Verhalten des Wetters weist auch ohne Näherung bestimmte intrinsische Eigenschaften der Nichtlinearität auf, die nicht durch eine künstliche Näherung entstehen.

Z.B. haben Poincaré bis hin zu KAM ihre Untersichungen zur Stabilität des Sonensysems nicht auf Basis von Näherungen und Simulationen sondern auf Basis der exakten analytischen Eigenschaften durchgeführt.
seeker hat geschrieben:
10. Jan 2019, 14:07
... wäre es dann nicht denkbar, dass die Muster, die wir "Naturgesetze" nennen auch auf diesem Weg in die Existenz gekommen sind?

...
Logistische Gleichung, Feigenbaumdiagramm, wenn sich das System im Zusand vor der ersten Bifurkation befindet, dort strebt es sehr schnell einem völlig stabilen Wert zu, der in einer völlig profanen linearen Gleichung oder als Konstante völlig korrekt ausgedrückt werden könnte, der aber mit dem wirklichen Geschehen nichts zu tun hat, der das wirkliche Geschehen völlig verkennt.
Das ist ein wichtiger Punkt, und das ist sicher einer der Gründe für unser fortführendes Missverstehen!

Es gibt hier zwei Arten der Emergenz:
1) Die Emergenz von realen Mustern, Verhalten und Prozessen aus fundamentalen Entitäten
2) Die Emergenz von diesbzgl. Gesetzen

Beides ist voneinander völlig verschieden!!

Im Kern dreht sich unsere Diskussion immer um (1) und (2), was wir - leider - immer wieder miteinander vermischen.

Bei (2) haben wir zwei Situationen
a) wir verstehen die Emergenz: Kernphysik aus QCD, Atom- und Molkülphysik aus QED, Supraleitung, Festkörperphysik und Elastizitätslehre, Optik, ... Chemie, Biochemie, Molekularbiologie
b) wir verstehen die Emergenz nicht: ... Strukturbildung im Organismus, Verhaltensbiologie, Geist / Verstand / Bewusstsein

Fakt ist nun, dass wir in allen Fällen, in denen (a) vorliegt, wir heute sicher sagen können, dass emergente Gesetze ohne zusätzliche Zutat aus den fundamentalen Gesetzen ableitbar sind, und dass es prinzipiell ausreichend ist, die fundamentale Ebene zu betrachten. Salopp gesprochen folgt die Biochemie aus der QED und QCD

In den Fällen, in denen (b) vorliegt, erkenne ich zwei verschiedene Argumentationsmuster:

TomS: 1) Auch wird das reale Verhalten höherer Systeme kausal ausschließlich durch die fundamentalen Entitäten bedingt. 2) Gesetze auf höherer Ebene haben strukturierenden, ordnenden Charakter. Das Vorliegen von (b) besagt nichts über die (1), d.h. unsere Unkenntnis der Emergenz bei (2) führt nicht zu etwas qualitativ Neuem bei (1). Vereinfacht: (1) ist reduzibel, (2) ist praktisch irreduzibel - möglicherweise kann sich das ändern - und es ändert sich in immer mehr Fachbereichen

seeker, ATGC: 1) Das reale Verhalten höherer Systeme wird nicht ausschließlich durch die fundamentalen Entitäten bedingt. 2) Gesetze auf höherer Ebene haben fundamentalen Charakter. Das Vorliegen von (b) d.h. die Emergenz bei (b) spiegelt eine Realität wieder, d.h. das auf etwas qualitativ Neues bei (1). Vereinfacht: (1) ist irreduzibel, (2) ist prinzipiell irreduzibel.

Ich denke, wenn wir das so formulieren, dann sieht man ein, dass wir alle noch gewisse Annahmen bzgl. des Zusammenhangs zwischen (1) und (2) treffen. Damit wird auch klar, warum mit ATGCs Beispiele nicht überzeugen können, da es sich doch ausschließlich um Beispiele für (2) auf der höherwertigen Ebene handelt, die aufgrund von (b) existieren, während meine Beispiele für (1) und (2) immer auf (a) basieren.

Damit ist es letztlich eine Glaubenssache: ich bin bzgl. der Reduzibilität ein Optimist und glaube nicht, dass unsere gegenwärtige Unkenntis bei (2b) etwas fundamentales über (1) aussagt; ihr seid diesbzgl. Pessimisten und denkt, dass (2b) selbst eine gewisse Realität der Natur selbst = bei (1) widerspiegelt. Ich extrapoliere den Erfolg von (2a); ihr extrapoliert dem Misserfolg bei (2b).

OK?
Gruß
Tom

«while I subscribe to the "Many Worlds" theory which posits the existence of an infinite number of Toms in an infinite number of universes, I assure you that in none of them am I dancing»

Benutzeravatar
ATGC
wohnt hier!
wohnt hier!
Beiträge: 357
Registriert: 13. Jul 2017, 15:33
Wohnort: zu Hause

Re: Instabilität

Beitrag von ATGC » 11. Jan 2019, 14:32

Hallo Tom,
Beides ist voneinander völlig verschieden!!
Warum? Die unter (1) aufgelisteten emergenten Muster, Verhaltensweisen und Prozesse weisen Eigenschaften auf, die man nur dann adäquat beschreiben kann, wenn man entsprechende Gesetze formuliert, die sich in den unteren Wechselwirkungsebenen nicht finden und auch nicht aus diesen tieferliegenden Gesetzen abgeleitet werden können. Dennoch sehe ich da keine Verschiedenheit, da Gesetze zunächst nur Beschreibungen von Regelmäßigkeiten sind, die man aus der Beobachtung der Wechselwirkungen ableiten und formulieren kann.

Da sich bei Emergenz neue Verhaltensweisen ergeben, ergeben sich zugleich auch neue Gesetze, so dass ich hier nichts voneinander Verschiedenes zwischen Verhaltensweisen einerseits und den diese Verhaltensweisen beschreibenden Gesetzen andererseits ausmachen kann.
Im Kern dreht sich unsere Diskussion immer um (1) und (2), was wir - leider - immer wieder miteinander vermischen.
Weil es ja im Prinzip zwei Seiten derselben Medaille sind: Das Phänomen auf der einen Seite und die Beschreibung des Phänomens auf der anderen Seite.
Salopp gesprochen folgt die Biochemie aus der QED und QCD
Wenn man sich nur auf die chemischen Abläufe der Biochemie beschränkt (Moleküle reagieren mit anderen Molekülen, so dass neue chemische Verbindungen entstehen), ist das wohl so, da sich Biochemie aber in einem größeren Kontext ereignet, haben wir im Zellinneren einen organisierten Ablauf dieser chemischen Prozesse, der über die reine Chemie hinausgeht, so dass man nicht sagen kann, der konkrete Ablauf der Biochemie in einer Zelle ließe sich aus den die chemischen Prozesse beschreibenden quantenphysikalischen Theorien als notwendige Folge ableiten.
Gesetze auf höherer Ebene haben strukturierenden, ordnenden Charakter.
Gesetze sind zunächst mal nur Beschreibungen, wie sich Dinge zueinander verhalten, wenn sie miteinander wechselwirken. Gesetze sind selber keine Dinge, die etwas ordnen oder strukturieren könnten. Wenn wir sagen, ein emergiertes Ding folgt eigenen Gesetzen, meinen wir eigentlich, dass das Verhalten dieses Dings mit neuen Gesetzen beschrieben werden muss, die man auf den untergeordneten Ebenen nicht zur Beschreibung der dort auftretenden Verhaltensweisen in den Wechselwirkungen der sich dort befindenden Dinge benötigt.
Gesetze auf höherer Ebene haben fundamentalen Charakter.
Dito. Die Gesetze, die man für die Vorgänge und Verhaltensweisen der Dinge auf den höheren Ebenen formuliert, um sie zu beschreiben, verweisen darauf, dass neue Eigenschaften, Prozesse usw. aufgetreten sind, die sich in den unteren Ebenen nicht auffinden lassen.
Damit wird auch klar, warum mich ATGCs Beispiele nicht überzeugen können, da es sich doch ausschließlich um Beispiele für (2) auf der höherwertigen Ebene handelt, die aufgrund von (b) existieren, während meine Beispiele für (1) und (2) immer auf (a) basieren.
Das ist mir hingegen überhaupt nicht klar. Mein verlinktes Beispiel der Translation als Video läuft auf der molekularen Ebene ab und ist nicht quantenphysikalisch ableitbar. Und Dein Versuch, eine hypothetische Modellierung von Organismen in ihrem Entwicklungsweg mathematisch berechenbar zu machen, läuft auf eine Simulation der Populationsentwicklung hinaus, weil es a priori unmöglich ist, die sich ereignenden Mutationen vorab zu berechnen, so dass phänotypische Effekte dieser Mutationen ebenfalls nicht vorab berechenbar sind.

Der Vorgang der Mutation selber lässt sich zwar physikalisch beschreiben, wenn man von Punkt- und Rastermutationen ausgeht (was aber nicht alle Mutationsarten abdeckt!), aber die konkrete Abfolge von sich ereignenden Mutationen steht nirgends fest und kann daher prinzipiell nicht nach ihrer Auftretenswahrscheinlichkeit modelliert werden, so dass man zwar verstehen kann, wie sich Mutationen ereignen und auch modellieren kann, wie sich Mutationen ereignen, aber dennoch nicht verstehen und modellieren kann, welche Mutationen sich wann und in welcher Abfolge nacheinander ereignen werden.
Damit ist es letztlich eine Glaubenssache.
Nein, ich denke, darauf läuft es nicht hinaus.

Benutzeravatar
tomS
Administrator
Administrator
Beiträge: 9998
Registriert: 19. Nov 2007, 20:29
Wohnort: Nürnberg

Re: Instabilität

Beitrag von tomS » 11. Jan 2019, 15:39

ATGC hat geschrieben:
11. Jan 2019, 14:32
Beides ist voneinander völlig verschieden!!
Warum? ... sehe ich da keine Verschiedenheit, da Gesetze zunächst nur Beschreibungen von Regelmäßigkeiten sind, die man aus der Beobachtung der Wechselwirkungen ableiten und formulieren kann ... weil es ja im Prinzip zwei Seiten derselben Medaille sind: Das Phänomen auf der einen Seite und die Beschreibung des Phänomens auf der anderen Seite.
Ich lerne, dass wir leider sprachlich völlig aneinander vorbeireden.

Sorry, wenn das jetzt etwas harsch rüberkommt: verstehst du den Unterschied zwischen einem Schweinebraten und dem Rezept für einen Schweinebraten?

Kannst du nachvollziehen, das der tatsächliche Bratvorgang trivialerweise auf atomare Prozesse reduzibel sein kann, obwohl das Rezept nicht aus der Schrödingergleichung hervorgeht?
ATGC hat geschrieben:
11. Jan 2019, 14:32
... meinen wir eigentlich, dass das Verhalten dieses Dings mit neuen Gesetzen beschrieben werden muss, die man auf den untergeordneten Ebenen nicht zur Beschreibung der dort auftretenden Verhaltensweisen in den Wechselwirkungen der sich dort befindenden Dinge benötigt.
OK, das ist sehr konkret, diese Aussage gehe ich - fast - mit; meine Korrektur:

... meinen wir eigentlich, dass das Verhalten dieses Dings mit neuen Gesetzen beschrieben werden kann, die man auf den untergeordneten Ebenen nicht zur Beschreibung der dort auftretenden Verhaltensweisen ... benötigt.

Warum "kann" statt "muss"?

Erstens weil ich aus der Physik zig Beispiele kenne, wo "kann" zutrifft, jedoch nicht "muss". Ich kann sinnvollerweise in der Elektrotechnik das Ohmsche Gesetz verwenden und muss nicht auf das Sommerfeld-Modell zurückrgreifen.

Zweitens weil es darüberhinaus möglich ist,
A) Systeme mit höherwertigen Strukturen rein mikroskopisch zu berechnen, ohne dass dabei die emergenten Strukturen für uns erkennbar werden, sowie
B) anschließend tatsächlich irreduzible Gesetze auf makroskopischer Ebene anzuwenden - lediglich um mittels dieser Gesetze die Strukturen "sichtbar" zu machen.
Die Gesetze auf makroskopischer Ebene beschreiben damit keineswegs die kausale Verursachung - sie sind diesbzgl. verzichtbar - sie dienen lediglich als Hilfsmittel, um makroskopische / emergente Eigenschaften aus dem mikroskopisch modellierten System "herauszufischen."

Bsp. Supraleitung (Suprafluidität, Quantum-Hall-Effekt, ...):
A) man berechnet die Dynamik des Systems mikroskopisch auf Basis der Vielteilchen-Quantenmechanik
B.1) man kennt aus dem Experiment makroskopische Strukturen, z.B. Flussschläuche in Typ-2 Supraleitern in der Shubnikov-Phase - im Gegensatz zu homogenem Verhalten in der Meissner-Phase; man formuliert mathematische Modelle für makroskopische Observablen mittels der mikroskopischen Gesetze, z.B. für Stromdichten
B.2) man wendet diese makroskopischen Observablen auf die Ergebnisse von (A) an, um z.B. die Flusschläuche zu finden

Dies beweist für diesen konkreten Fall, dass die die Entstehung, Dynamik, Eigenschaften der makroskopischen Strukturen vollständig aus den mikroskopische Gesetzen (A) folgen, dass es jedoch (B) braucht, um diese effizient zu erkennen. Insofern ist (B) lediglich ein Hilfsmittel zum Verständnis, enthält jedoch keinerlei Ursache.
ATGC hat geschrieben:
11. Jan 2019, 14:32
Damit wird auch klar, warum mich ATGCs Beispiele nicht überzeugen können, da es sich doch ausschließlich um Beispiele für (2) auf der höherwertigen Ebene handelt, die aufgrund von (b) existieren, während meine Beispiele für (1) und (2) immer auf (a) basieren.
Das ist mir hingegen überhaupt nicht klar. Mein verlinktes Beispiel der Translation als Video läuft auf der molekularen Ebene ab und ist nicht quantenphysikalisch ableitbar.
Warum ist es nicht quantenphysikalisch ableitbar? Nur weil es auf der molekularen Ebene abläuft? Das ist doch kein Argument.
Gruß
Tom

«while I subscribe to the "Many Worlds" theory which posits the existence of an infinite number of Toms in an infinite number of universes, I assure you that in none of them am I dancing»

Benutzeravatar
ATGC
wohnt hier!
wohnt hier!
Beiträge: 357
Registriert: 13. Jul 2017, 15:33
Wohnort: zu Hause

Re: Instabilität

Beitrag von ATGC » 11. Jan 2019, 16:00

Hallo Tom,
Sorry, wenn das jetzt etwas harsch rüberkommt:
Oh kein Problem, das kann ich auch:

Verstehst Du den Unterschied zwischen einem Verhalten von Dingen, welches das Verhalten anderer Dinge ordnet, strukturiert und reguliert und der Beschreibung, die diesen ordnenden, strukturierenden und regulierenden Vorgang beschreibt? Wenn ja, dann wirst Du bestimmt auch wissen, dass Gesetze nichts ordnen, strukturieren oder regulieren können. Andernfalls würdest Du den Gesetzen einen dinglichen Status zuweisen, den sie nun mal nicht haben.
meine Korrektur
Nein, "muss", denn die Gesetze der niedrigeren Ebenen sind nicht hinreichend, um die Phänomene der oberen Ebenen adäquat zu beschreiben.
Warum ist es nicht quantenphysikalisch ableitbar?
Weil wir hier u.a. auch mechanische Prozesse am Laufen haben, die sich nicht aus den atomaren oder molekularen Eigenschaften ableiten lassen.
Weil wir noch nicht mal die gemeinsame Sprachebene gefunden haben.
Das glaube ich nicht. Wir interpretieren nur etwas differenzierter voneinander. ;)

Benutzeravatar
seeker
Ehrenmitglied
Ehrenmitglied
Beiträge: 5713
Registriert: 26. Dez 2009, 10:29

Re: Instabilität

Beitrag von seeker » 11. Jan 2019, 17:15

Ich habe jetzt keine Zeit, später...

Aber vorweg:
Toms Frage sollte klar gestellt werden, damit wir sie sauber bearbeiten können.

Soweit ich das verstehe lautet sie so:

Wie ist es möglich bzw. soll es möglich sein, dass in einer vollständig determinierten Welt, die durch die bekannten grundlegenden linearen Naturgesetze der Physik bereits vollständig festgelegt ist, weitere echte Naturgesetzlichkeiten hervortreten können (z.B. in komplexen Systemen)?
Denn das wäre dann eine Übedeterminierung der Welt und das würde daher keinen Sinn machen.

Auf diese Frage gibt es verschiedene Antworten.

Außerdem ist es hier hilfreich, wenn wir ein komplexes System zum Vergleich zu natürlichen Systemen betrachten, das auf einem realen Computer läuft und ausschließlich mit endlichen Werten der natürlichen Zahlen arbeitet, also sicher vollständig exakt und determiniert abläuft.
Lassen sich hier grundlegende Unterschiede zu einem natürlichen komplexen System ausmachen oder nicht?

Später...
Grüße
seeker


Mache nie eine Theorie zu DEINER Theorie!
Denn tut man das, so verliert man zumindest ein Stück weit seine Unvoreingenommenheit, Objektivität.

Benutzeravatar
tomS
Administrator
Administrator
Beiträge: 9998
Registriert: 19. Nov 2007, 20:29
Wohnort: Nürnberg

Re: Instabilität

Beitrag von tomS » 11. Jan 2019, 17:26

@ ATGC:

Ich habe meinen Beitrag um ein explizites Beispiel ergänzt; bitte nochmal drüber lesen.

Zu deiner Argumentation:

Erstens:
ATGC hat geschrieben:
11. Jan 2019, 16:00
Nein, "muss", denn die Gesetze der niedrigeren Ebenen sind nicht hinreichend, um die Phänomene der oberen Ebenen adäquat zu beschreiben.
Das ist doch ein logischer Zirkelschluss.

Du sagst, ... "dass das Verhalten dieses Dings mit neuen Gesetzen beschrieben werden muss". Meinem Einwand, das "muss" durch ein "kann" zu ersetzen, begegnest du mit ... "[weil] die Gesetze der niedrigeren Ebenen nicht hinreichend [sind], um die Phänomene der oberen Ebenen adäquat zu beschreiben".

Damit sagst du letztlich, dass das Verhalten dieses Dings mit neuen Gesetzen beschrieben werden muss, weil die Gesetze der niedrigeren Ebenen nicht hinreichend sind, um das Verhalten dieses Dings adäquat zu beschreiben.

Wie gesagt, das ist ein Zirkelschluss.

Oder du hast nicht verstanden, was ich sage: natürlich kann es sein, dass die Gesetze der niedrigeren Ebenen nicht hinreichend sind, um die Phänomene der oberen Ebenen adäquat zu beschreiben. Ich behaupte aber etwas ganz anderes, nämlich dass die Gesetze der niedrigeren Ebenen hinreichend sein können, um die Phänomene der oberen Ebenen hervorzubringen. Das ist etwas völlig anderes - siehe dazu das o.g. Beispiel.

Zweitens:
ATGC hat geschrieben:
11. Jan 2019, 16:00
Warum ist es nicht quantenphysikalisch ableitbar?
Weil wir hier u.a. auch mechanische Prozesse am Laufen haben, die sich nicht aus den atomaren oder molekularen Eigenschaften ableiten lassen.
Das ist wieder ein Zirkelschluss.

Du sagst, es sei quantenphysikalisch nicht ableitbar, weil mechanische Prozesse ablaufen, die sich nicht quantenphysikalisch ableiten lassen.

Siehst du diesen Zirkelschluss nicht? Warum sollen denn mechanische Prozesse nicht quantenphysikalisch ableitbar sein?
Gruß
Tom

«while I subscribe to the "Many Worlds" theory which posits the existence of an infinite number of Toms in an infinite number of universes, I assure you that in none of them am I dancing»

Benutzeravatar
ATGC
wohnt hier!
wohnt hier!
Beiträge: 357
Registriert: 13. Jul 2017, 15:33
Wohnort: zu Hause

Re: Instabilität

Beitrag von ATGC » 11. Jan 2019, 17:48

Hallo Tom,

hast recht mit der zirkelschlüssigen Argumentation. Ich habe gerade wenig Zeit und schreibe morgen Vormittag noch mal dazu etwas genauer und ausführlicher.

Benutzeravatar
tomS
Administrator
Administrator
Beiträge: 9998
Registriert: 19. Nov 2007, 20:29
Wohnort: Nürnberg

Re: Instabilität

Beitrag von tomS » 11. Jan 2019, 23:22

ATGC hat geschrieben:
11. Jan 2019, 17:48
Ich habe gerade wenig Zeit und schreibe morgen Vormittag noch mal dazu etwas genauer und ausführlicher.
Freu‘ mich drauf.

Ich habe wirklich den Eindruck, dass unsere Missverständnisse eher auf der Sprache und den Begriffen beruhen, nicht unbedingt auf der Sache.
Gruß
Tom

«while I subscribe to the "Many Worlds" theory which posits the existence of an infinite number of Toms in an infinite number of universes, I assure you that in none of them am I dancing»

Benutzeravatar
tomS
Administrator
Administrator
Beiträge: 9998
Registriert: 19. Nov 2007, 20:29
Wohnort: Nürnberg

Re: Instabilität

Beitrag von tomS » 12. Jan 2019, 08:25

Ich möchte noch ein paar Erklärungen zum o.g. Beispiel nachschieben:
A) Systeme mit höherwertigen Strukturen rein mikroskopisch zu berechnen, ohne dass dabei die emergenten Strukturen für uns erkennbar werden, sowie
B) anschließend tatsächlich irreduzible Gesetze auf makroskopischer Ebene anzuwenden - lediglich um mittels dieser Gesetze die Strukturen "sichtbar" zu machen.
Die Gesetze auf makroskopischer Ebene beschreiben damit keineswegs die kausale Verursachung - sie sind diesbzgl. verzichtbar - sie dienen lediglich als Hilfsmittel, um makroskopische / emergente Eigenschaften aus dem mikroskopisch modellierten System "herauszufischen."

Bsp. Supraleitung (Suprafluidität, Quantum-Hall-Effekt, ...):
A) man berechnet die Dynamik des Systems mikroskopisch auf Basis der Vielteilchen-Quantenmechanik
B.1) man kennt aus dem Experiment makroskopische Strukturen, z.B. Flussschläuche in Typ-2 Supraleitern in der Shubnikov-Phase - im Gegensatz zu homogenem Verhalten in der Meissner-Phase; man formuliert mathematische Modelle für makroskopische Observablen mittels der mikroskopischen Gesetze, z.B. für Stromdichten
B.2) man wendet diese makroskopischen Observablen auf die Ergebnisse von (A) an, um z.B. die Flusschläuche zu finden.

Dies beweist für diesen konkreten Fall, dass die die Entstehung, Dynamik, Eigenschaften der makroskopischen Strukturen vollständig aus den mikroskopische Gesetzen (A) folgen, dass es jedoch (B) braucht, um diese effizient zu erkennen. Insofern ist (B) lediglich ein Hilfsmittel zum Verständnis, enthält jedoch keinerlei Ursache.
https://en.m.wikipedia.org/wiki/Superconductivity
https://en.m.wikipedia.org/wiki/London_equations
https://en.m.wikipedia.org/wiki/Ginzbur ... dau_theory
https://en.m.wikipedia.org/wiki/BCS_theory
https://portal.ifi.unicamp.br/images/fi ... es_BCS.pdf

https://en.m.wikipedia.org/wiki/Meissner_effect
https://en.m.wikipedia.org/wiki/Type-II_superconductor
https://en.m.wikipedia.org/wiki/Abrikosov_vortex

Der Punkt ist, dass sich unser Verständnis historisch von makroskopischen zu mikroskopischen Effekten entwickelt hat. D.h. wir hatten zunächst makroskopische Begriffe (elektrisches Feld, Feldstärke, Ladungsträgerdichte, ...) und kannten makroskopische Phänomene (Supraleitung, kritische Temperatur, kritische Feldstärken, Meißner-Effekt, Eindringtiefe, Kohärenzlänge, Flussschlauch / Vortex, Flux pinning). Die makroskopischen Gesetze (London-Gleichungen, ...) erlauben eine quantitative Beschreibung dieser Phänomene.

Später gelang es Bardeen, Cooper und Schriefer, die mikroskopische, BCS-Theorie zu konstruieren, die quantenmechanische Begriffen verwendet (Elektronen, quantenmechanische Zustände, Cooper pair, ...) aus der sich makroskopische Begriffe bzw. deren Werte und Eigenschaften (Energielücke, kritische Temperatur, spezifische Wärme, Eindringtiefe, Kohärenzlänge, ...) berechnen lassen.

D.h. dass die Dynamik des Systems vollständig durch die fundamentalen, mikroskopischen Gesetze der Quantenmechanik beschrieben wird und dass sämtliche makroskopische Gesetze und Phänomene daraus folgen. Dadurch wird die makroskopische Theorie nicht überflüssig, denn sie enthält die strukturierenden Begriffe, die wir in der mikroskopischen Theirie nicht zur Verfügung haben. Erst dadurch wissen wir, nach was wir in der mikroskopischen Theorie überhaupt suchen sollen. Wir müssen also die makroskopischen Begriffe durch die mikroskopischen ausdrücken, nicht jedoch ersetzen (Energielücke, kritische Temperatur, spezifische Wärme, Eindringtiefe, Kohärenzlänge, ... bleiben als wesentliche Begriffe erhalten).

Insofern ist die Reduzibilität im Sinne von (A) mit der Irreduzibilität von (B) verträglich.

Die Gesetze auf makroskopischer Ebene beschreiben damit keine kausale Verursachung mehr - sie sind diesbzgl. verzichtbar - sie dienen jedoch weiterhin dazu, um makroskopische Eigenschaften am mikroskopisch modellierten System sichtbar zu machen.

Übertragen auf die Biologie: die Dynamik der Zelle folgt ausschließlich quantenmechanischen Gesetzmäßigkeiten; aber um zu sehen, dass da eine Zelle ist, ein Zellkern, eine Zellmembran, ... benötigst du diese Begriffe der Biologie; sie folgen nicht aus der Quantenmechanik. Wenn du die Begriffe jedoch einmal hast, kannst du sie auf quantenmechanische Prozesse zurückzuführen.
Gruß
Tom

«while I subscribe to the "Many Worlds" theory which posits the existence of an infinite number of Toms in an infinite number of universes, I assure you that in none of them am I dancing»

Benutzeravatar
ATGC
wohnt hier!
wohnt hier!
Beiträge: 357
Registriert: 13. Jul 2017, 15:33
Wohnort: zu Hause

Re: Instabilität

Beitrag von ATGC » 12. Jan 2019, 11:13

Hallo Tom,
bitte nochmal drüber lesen.
Das hatte ich gestern nicht mehr getan, aber ich habe es jetzt nachgeholt.
Erstens weil ich aus der Physik zig Beispiele kenne, wo "kann" zutrifft, jedoch nicht "muss".
O.K., im Rahmen der Physik mag das zutreffend sein, aber daraus auf biologische Sachverhalte zu extrapolieren, scheint mir zu weit gegangen zu sein. Dein Beispiel betrifft das Verhalten des elektrischen Stroms in einem Leiter.
Dies beweist für diesen konkreten Fall, dass die die Entstehung, Dynamik, Eigenschaften der makroskopischen Strukturen vollständig aus den mikroskopische Gesetzen (A) folgen, dass es jedoch (B) braucht, um diese effizient zu erkennen. Insofern ist (B) lediglich ein Hilfsmittel zum Verständnis, enthält jedoch keinerlei Ursache.
Was den konkreten Fall betrifft, ja, aber ob das auf biologische Sachverhalte übertragbar ist, möchte ich doch bezweifeln, weil wir es bei Zellen bzw. Organismen nicht einfach nur mit einem Durchfluss-System zu tun haben (das ist es auch, da es sich bei Organismen um Fließgleichgewichte handelt, aber eben nicht ausschließlich, so dass wir einen Organismus nicht auf seine Eigenschaft als Fließgleichgewicht reduzieren können), sondern darüber hinaus mit einer geordneten Struktur in Bezug auf Prozesse und Stoffkomponenten sowie der Membranarchitektur des Zellinneren, die innere Separationen (Kompartimente) ermöglichen, wo sich anderenfalls einander ausschließende Reaktionswege dann doch ereignen können, um zum Ganzen beizutragen.
Warum ist es nicht quantenphysikalisch ableitbar? Nur weil es auf der molekularen Ebene abläuft?
Nein, nicht weil es auf der molekularen Ebene abläuft, sondern weil es auch auf der molekularen Ebene Vorgänge gibt, die sich nicht aus den quantenphysikalischen Gesetzmäßigkeiten ableiten lassen. Deine Behauptung war, dass ich mich lediglich auf Beispiele gestützt hätte, die in der Hierarchieebene weit oben liegen, während Du Dich auf Beispiele gestützt hattest, die weiter unten liegen - also auf der atomaren und molekularen Ebene. Und das Beispiel der Translation zeigt, dass es auch auf der molekularen Ebene Prozesse gibt, die sich m.E. ebenso einer Ableitung aus den quantenphysikalischen Gesetzmäßigkeiten entziehen.

Mit Hilfe der quantenphysikalischen Gesetzmäßigkeiten kann man modellieren, wie sich Atome und Moleküle strukturieren, wie sie über elektromagnetische Kräfte miteinander agieren und so neue Verbindungen eingehen usw., aber aus der Kenntnis der stofflichen Zusammensetzung der an der Translation beteiligten Moleküle (im Wesentlichen verschiedene RNA-Moleküle [rRNA, mRNA, tRNA] sowie mehrere Dutzend Proteine [ribosomale Proteine, IF-Proteine, EF-Proteine, TF-Proteine, aaRS] und die 20 jeweils spezifischen Aminosäurearten, die über die tRNA's zum Ribosom transportiert werden sowie Magnesium-Ionen und GTP und ATP als Energiequelle) folgt noch nicht das koordinierte Zusammenwirken aller Komponenten zu dem im Video gezeigten Prozess der Translation, bei dem am Ende eine Polypeptidkette herauskommt.

Das meinte ich gestern mit Mechanik: Die verschiedenen Komponenten "greifen ineinander", so dass am Ende ein bestimmtes Produkt entsteht und die Prozesskomponenten wieder auseinanderdriften, bis sie sich für eine Neuauflage des Prozesses wieder auf koordinierte Weise zusammenfinden. Und ich sehe hier keinen Weg, dass sich diese Koordination aus den quantenphysikalischen Gesetzmäßigkeiten heraus ableiten ließe. Falls Du da einen Weg siehst, lasse ich mich gern aufklären.
Du sagst, es sei quantenphysikalisch nicht ableitbar, weil mechanische Prozesse ablaufen, die sich nicht quantenphysikalisch ableiten lassen.
Ich hoffe, ich konnte diese Oberflächlichkeit meinerseits ein wenig ausgleichen, so dass nun klarer geworden ist, was ich eigentlich damit sagen wollte.
Ich behaupte aber etwas ganz anderes, nämlich dass die Gesetze der niedrigeren Ebenen hinreichend sein können, um die Phänomene der oberen Ebenen hervorzubringen.
Das müsstest Du noch einmal deutlicher herausstellen. Ich interpretiere es zunächst so: Das Verhalten der Atome und Moleküle lässt sich mit bestimmten Gesetzen beschreiben, die wir als - salopp gesagt - Quantenmechanik kennen. Die Art und Weise der Wechselwirkungen zwischen Atomen und Molekülen ermöglicht zugleich die Entstehung komplexerer Strukturen und Prozesse, so lange dem nicht andere Wechselwirkungen entgegenstehen, die dieses Hochwachsen von mehr Komplexität verhindern (Beispiel: zu hohe Temperaturen, die das Entstehen von Makromolekülen unterbinden würden).

Das Vorhandensein von höherer Komplexität lässt zugleich andere Wechselwirkungen erscheinen, die sich ihrerseits regulierend auf die weitere Entwicklung der Komplexität auswirken - von noch höherer Komplexität bis hin zum Systemkollaps und dem Verlust der Komplexität. Diese Wechselwirkungen der höheren Komplexitätsebene haben aber - als formulierte Gesetzmäßigkeiten - nur noch eine beschreibende Funktion und keine bewirkende Funktion, wie es bei der Quantenmechanik der Fall ist.

Falls Du es so gemeint haben solltest, möchte ich dazu Folgendes sagen:

Einerseits gehe ich da mit, wenn es darum geht, dass die Quantenmechanik das Zustandekommen von höherer Komplexität ermöglicht, denn das materielle Fundament und die Wechselwirkung zwischen Atomen und Molekülen ist eine unabdingbare Voraussetzung dafür, dass überhaupt etwas hochwachsen kann.

Andererseits stimme ich nicht zu, dass die höheren Gesetzmäßigkeiten, die die Entwicklung der höheren Komplexität regulieren, keinerlei verursachenden Charakter mehr hätten. Das Beispiel Selektionsdruck zeigt, dass Mutation als auslösender Faktor für Evolution für sich genommen nicht hinreichend ist, um Evolution zu bewirken. Die verschiedenen Selektionsdrücke bewirken ursächlich, dass sich ein bestimmter Evolutionsverlauf ergibt, der sich dann auch ursächlich auf die Zusammensetzung der Molekularstruktur der DNA der Genome jedes einzelnen Lebewesens auswirkt.

Darum würde ich wie folgt argumentieren: Quantenmechanik lässt Freiräume für Entwicklungen zu, aber Quantenmechanik legt nicht fest, ob Freiräume entstehen und legt nicht fest, was sich in den Freiräumen entwickeln kann. Die Freiräume und die Entwicklungen darin bedingen sich wechselseitig und ergeben sich über Gesetzmäßigkeiten, die ihrerseits verursachend sind (wenn ich mal diesen personalisierenden Duktus aufgreife) und nicht lediglich Hilfsmittel zur Beschreibung von Spezialfällen der Quantenmechanik, die wir nur noch herausfiltern müssten.
die Dynamik der Zelle folgt ausschließlich quantenmechanischen Gesetzmäßigkeiten
Das stimmt nur in Bezug auf die Reaktionen zwischen den darin enthaltenen Molekülen - also den stofflichen Komponenten und deren Wechselwirkungen untereinander. Es stimmt allerdings nicht mehr in Bezug auf die Rückkopplungen, die die Stabilisierung des Gesamtsystems bewirken. Die laufen auf einer höheren Ebene ab und lassen sich nicht auf die Eigenschaft reduzieren, dass es sich bei einer Zelle u.a. auch um ein Fließgleichgewicht handelt, wo Stoff- und Energiewechsel dazu führen, dass eine geordnete stoffliche Struktur entsteht und in seinem Komplexitätsniveau erhalten wird.
aber um zu sehen, dass da eine Zelle ist, ein Zellkern, eine Zellmembran, ... benötigst du diese Begriffe der Biologie
Das sind ja zunächst nur Begriffe, die das Erscheinungsbild betreffen, um dieses Ding da unter dem Mikroskop zu benennen. Damit strukturiert man den Gegenstand in seinen Bestandteilen, ordnet ihnen Funktionen zu und gewinnt so eine immer detailliertere Beschreibung, wie eine Zelle als lebende Zelle beschaffen ist. Das ist aber nicht der Punkt, um den es aus biologischer Sicht geht. Der Punkt aus biologischer Sicht ist das Vorhandensein weiterer Rückkopplungen, die als Gesetzmäßigkeiten qualitativ andere sind als die physikalischen, die die stofflichen Komponenten betreffen, aus denen sich Zellen zusammensetzen.

Lebewesen sind Systeme, die aus fundamentaleren Zusammenhängen entstanden sind und dabei einen Bereich als Freiraum erschlossen haben, in denen andere Gesetze gelten als die, die in den fundamentaleren Zusammenhängen gültig und strukturierend sind. Folglich lassen sich Lebewesen zwar - was die stofflichen Komponenten betrifft - auf Atome und Elementarteilchen zurückführen, aber die Reduktion auf die stofflichen Komponenten stellt bereits eine Idealisierung dar, bei der der Organismus als lebendes System verlustig geht.

Die Methode von Descartes - ich zerlege das Untersuchungsobjekt in kleinere Bestandteile, untersuche sie und füge sie anschließend wieder zusammen und erhalte das Untersuchungsobjekt zurück, so dass ich es vollständig erkannt habe - funktioniert hier nicht. Descartes hat Lebewesen als Automaten bzw. als rein mechanische Maschinen betrachtet, was aus einer Sicht nur konsequent gewesen ist, aber beim Menschen musste er die Res Cogitans einführen, um ihn nicht zum bloßen Automaten werden zu lassen, den man beliebig zerlegen und wieder zusammenbauen kann, so dass er danach wieder ein vollständiger Mensch ist.

So auch hier: Aus der quantenmechanischen Analyse der Einzelteile eines Lebewesens lässt sich nicht das Leben dieses Lebewesens ableiten, sondern allenfalls ein Verständnis des Stoffwechsels.
Wenn du die Begriffe jedoch einmal hast, kannst du sie auf quantenmechanische Prozesse zurückzuführen.
Wie gesagt, nur in Bezug auf die stofflichen Komponenten, aber nicht in Bezug auf das Systemganze.

Benutzeravatar
tomS
Administrator
Administrator
Beiträge: 9998
Registriert: 19. Nov 2007, 20:29
Wohnort: Nürnberg

Re: Instabilität

Beitrag von tomS » 12. Jan 2019, 13:52

ATGC, ich werde in zwei Schritten bzw. Beiträgen antworten.

Zunächst zum eher philosophischen Teil:

Du vertrittst den Ansatz der Irreduzibilität sehr überzeugt, und du siehst insbs. in der Biologie prinzipielle Probleme für die Reduzibilität. Du beziehst dich u.a. auf Descartes, wenn es um höherwertige und nicht-reduzierbare Entitäten geht (ich gehe davon aus, dass dir der logische Bruch bei Descartes bekannt ist: wenn der Geist wesensverschieden von Materie ist, wie soll er dann auf sie einwirken? wenn er auf die einwirkt, wie soll er dann wesensverschieden sein?) Nun muss man ja nicht gleich die Lösung von Descartes akzeptieren, man kann trotzdem seine grundsätzlichen Bedenken gegen ein rein materialistisches Weltbild teilen.

Wenn das die wesentliche philosophische Position ist, dann wird man Belege für fehlende Reduzibilität als Belege für eine prinzipielle Irreduzibilität ansehen, gewisse Belege für Reduzibilität und damit gegen Irreduzibilität als Ausnahmen, die auf bestimmte Bereich beschränkt sind.

Wenn man die gegenteilige philosophische Position einnimmt - wie ich es als Physiker tue, wohl wissend, dass sie insgs. nicht beweisbar ist, und im Falle des Mind-Body-Problems wahrscheinlich beweisbar unbeweisbar - denn wird man umgekehrt schlussfolgern und fehlende Belege für Reduzibilität als temporäre bzw. praktische Probleme ansehen, jedoch an einer prinzipiellen Reduzibilität der Natur festhalten.

Ich denke, das ist unsere Situation.

Demzufolge kann ich dich mit meinen Beispielen nicht überzeugen, da du genügend Räume bzw. Bereiche siehst, in die ich mit meinen Beispielen nicht vordringen kann - weil ich mich nicht auskenne, weil die Physik noch nicht so weit ist, ... Und ich bin von deinen Beispielen nicht überzeugt, da ich lediglich praktische Probleme sehe, die man zu gegebener Zeit durchaus noch lösen kann.

Ich habe zum Beispiel kein Problem damit, die Extrapolation der Physik auf alle Vorhänge der Natur als Hypothese anzunehmen und so lange daran zu glauben, bis ein Gegenbeispiel gefunden wird. Du hast ein Problem mit dieser unbegrenzten Extrapolation und akzeptierst die erst dann, wenn tatsächlich Beweise vorliegen, dann allerdings immer nur in Einzelfällen, nie unbegrenzt, nicht mal als Hypothese.

Es hilft wahrscheinlich auch nichts, wenn ich dir jetzt sage, dass meine Haltung bzgl. der Extrapolation als Hypothese der Grundhaltung der Physiker entspricht, die von universellen Naturgesetzen ausgehen, und sie dann revidieren, wenn es nötig wird.

Damit könnte ich die Diskussion jetzt beenden - tue ich aber nicht, dazu ist sie zu interessant. Zunächst mal würde mich interessieren, ob ich unsere Sitiin richtig verstanden habe.

Ich werde also später versuchen, in einem zweiten Teil Belege für die Reduzibilität weiterer Bereiche der Biologie anzuführen. Außerdem werde ich versuchen, deine Beispiele für die Irreduzibilität durch Gegenbeispiele zu widerlegen oder Lücken in deiner Beweisführung zu finden, die entweder logischer Natur sind oder die auf mangelnder Kenntnis der Physik beruhen.
Gruß
Tom

«while I subscribe to the "Many Worlds" theory which posits the existence of an infinite number of Toms in an infinite number of universes, I assure you that in none of them am I dancing»

Benutzeravatar
seeker
Ehrenmitglied
Ehrenmitglied
Beiträge: 5713
Registriert: 26. Dez 2009, 10:29

Re: Instabilität

Beitrag von seeker » 12. Jan 2019, 14:02

tomS hat geschrieben:
seeker hat geschrieben:Komplexe Systeme brauchen notwendig -um überhaupt als komplex verstanden werden zu können- ein Grundrauschen, etwas Zufälliges, auf dem sie sozusagen neue Ordnung aufbauen können. Wäre die Welt komplett, also auch auf jeder Ebene linear-kausal (und die Grundformulierung der Naturgesetze haben diese Natur), dann gäbe es so etwas nicht.
Das ist eine Vermutung deinerseits, und sie ist wahrscheinlich falsch.
Abwarten.
Dannn fangen wir zunächst bei etwas anderem an, das wesentlich ist, über das wir sicher Einigkeit haben werden und das wir längst hätten betrachten sollen: Die Entropie!

Wir können festhalten, dass natürliche komplexe Systeme immer Prozesse sind und vom Entropiedurchfluss leben:
niederentropischer Input -> komplexes System -> hochentropischer Output
Aus diesem Durchfluss heraus zweigen sie sich sozusagen Ordnung ab, um ihren eigenen Ordnungszustand zu regulieren.
Sie tun das aber nicht in der Weise, dass sie eine höchstmögliche Ordnung anstreben, sie werden nicht zu Kristallen oder dergleichen.
Stattdessen regulieren sie sich selbsttätig an den Rand zwischen Ordnung und Rauschen (Chaos), also gezielt an den Rand zum instabilen Bereich, wodurch ihre Sensitivität herrührt und noch viele weitere essentielle Eigenschaften. Gerade auf diesem instabilen, verrauschten Bereich, der zumindest für das System selbst nicht von einem echten zufälligen Rauschen unterscheidbar ist, bauen sie ihre innere Ordnung auf: Aus Chaos wird Ordnung, die Entropie nimmt ab, aber nicht zu sehr ab.

Soweit einverstanden?
tomS hat geschrieben:
11. Jan 2019, 08:08
In der klassischen Mechanik resultiert das Verhalten komplexer Systeme aus Nichtlinearitäten / Rückkopplungen und / oder Zufall.

In der Quantenmechanik existiert dies alles - ohne den Messprozess - sicher nicht. Trotzdem folgt die Dynamik klassischer Systeme als Näherung aus quantenmechanischen Systemen, die zunächst linear und deterministisch sind. Der mathematische Formalismus ist verwickelt, jedoch gut verstanden. Fakt ist jedenfalls, dass ein auf fundamentaler Ebene lineares System auf höherer Ebene nichtlinearen Gesetzen zu folgen scheint.
Aha, als Näherung.
Und wie kann man dann das hier sicher sagen (?):
tomS hat geschrieben:
11. Jan 2019, 08:08
Dabei kommen diese nicht neu hinzu, sondern können aus den zugrundeliegenden linearen Gesetzen abgeleitet werden.
Woher weiß man, dass hier eine Näherung ausreichend ist? Immerhin haben wir hier sensitive Systeme vorliegen.
tomS hat geschrieben:
11. Jan 2019, 08:08
seeker hat geschrieben:An der Stelle würde ich dann behaupen, dass es hier zu abstrus wird und wir einsehen müssen, dass das Konzept "Von-Neumann-Maschine" hier nichts mehr taugt: Wir lernen daraus nichts, außer, dass es so nicht geht.
Das ist nicht das, worauf ich hinauswollte, und daher ist die Schlussfolgerung explizit falsch.

Du fokussierst zumeist auf praktische Aspekte. Das ist OK, aber du darfst daraus keine prinzipiellen Schlussfolgerungen ableiten.

Im Falle der Algorithmen geht es nicht um die praktische Implementierung sondern um die theoretische Klassifizierung. Deine praktischen Aspekte kommen erst bei der Umsetzung und damit einer Näherung ins Spiel, während die Klassifizierung natürlich am idealisierten System vorgenommen wird.
Du hast Recht, dass ich anders denke. Das liegt in der Natur der Sache: Ich habe es bei meiner Arbeit mit praktischen Dingen zu tun: vornehmlich Prozessentwicklung. Gerade darin liegt das schöne an so einem Forum: Man kann mit Leuten reden, die anders 'trainiert' sind.
Aber du hast glaube ich Unrecht, mit dem was du eigentlich meinst. Ich denke, es liegt im Kern eher daran, dass ich Theorien oder theoretischen Überlegungen mehr misstraue als du. Das kommt daher, weil ich erfahrungsgemäß weiß, dass all die theoretischen Modelle und Berechnungen, die meine Prozesse abbilden sollen, zwar sehr hilfreich sind, dass sie aber auch nie ganz passen, dass man ihnen nie ganz trauen darf, denn ansonsten kommt man nicht zum Ziel.
tomS hat geschrieben:
11. Jan 2019, 08:08
Das Verhalten des Wetters weist auch ohne Näherung bestimmte intrinsische Eigenschaften der Nichtlinearität auf, die nicht durch eine künstliche Näherung entstehen.
Das ist ganz sicher wahr. Das heißt aber noch lange nicht, dass das für alle Eigenschaften gilt.
tomS hat geschrieben:
11. Jan 2019, 08:08
Das ist ein wichtiger Punkt, und das ist sicher einer der Gründe für unser fortführendes Missverstehen!

Es gibt hier zwei Arten der Emergenz:
1) Die Emergenz von realen Mustern, Verhalten und Prozessen aus fundamentalen Entitäten
2) Die Emergenz von diesbzgl. Gesetzen

Beides ist voneinander völlig verschieden!!
Das verstehe ich nicht ganz, bzw. erscheint es mir zweifelhaft, dass man das überhaupt ganz sauber trennen kann ohne dann doch wieder etwas zu vernachlässigen, das nicht vernachlässigt werden darf. Naturgesetze existieren in dem Sinne gar nicht.
Als Naturgesetz wird in der Wissenschaftstheorie eine Regelmäßigkeit von Vorgängen in der Natur bezeichnet. Die Pluralform „Naturgesetze“ bezeichnet darüber hinaus die Gesamtheit dieser Regelmäßigkeiten, einschließlich solcher, die noch nicht entdeckt oder formuliert wurden, unabhängig von ihrer spezifischen Formulierung. Von anderen Gesetzen unterscheiden sich Naturgesetze darin, dass sie nicht von Menschen nach deren Belieben in Kraft oder außer Kraft gesetzt werden können. Eine genaue, einheitliche abschließende Definition des Begriffs existiert derzeit nicht.
https://de.wikipedia.org/wiki/Naturgesetz

Naturgesetze sind für mich zunächt einmal stabile, überall und immer wiederkehrende Muster im Geschehen (also der Dynamik!) der Natur, die von uns so statisch-fix abstrahiert und formalisiert wurden, dass sie als quantitativ mathematische Relationen in Gleichungen ausdrückbar wurden. Also sind Naturgesetze statische, abstrakte, verallgemeinernde Abbilder der von uns erkannten Muster einer dynamsichen Natur aus vielen wiederkehrenden Einzelfällen - und sie sind ein geistiges Produkt.
Wichtig ist mir hier auch, dass durch diese definierte Perspektive schon festgelegt von vorneherein kein Naturgesetz veränderlich/dynamisch sein kann, obwohl es die wirklichen Muster, die in der Natur beobachtbar sind, immer sind: Durch Naturgesetze wird Dynamik statisch abgebildet.
Die zu stellende Frage lautet: Geht das vollständig?

Aber gut, verfolgen wir das einmal:
tomS hat geschrieben: Bei (2) haben wir zwei Situationen
a) wir verstehen die Emergenz: Kernphysik aus QCD, Atom- und Molkülphysik aus QED, Supraleitung, Festkörperphysik und Elastizitätslehre, Optik, ... Chemie, Biochemie, Molekularbiologie
b) wir verstehen die Emergenz nicht: ... Strukturbildung im Organismus, Verhaltensbiologie, Geist / Verstand / Bewusstsein

Fakt ist nun, dass wir in allen Fällen, in denen (a) vorliegt, wir heute sicher sagen können, dass emergente Gesetze ohne zusätzliche Zutat aus den fundamentalen Gesetzen ableitbar sind, und dass es prinzipiell ausreichend ist, die fundamentale Ebene zu betrachten. Salopp gesprochen folgt die Biochemie aus der QED und QCD
Einverstanden, für alle Fälle, wo a) vorliegt.
tomS hat geschrieben:
11. Jan 2019, 08:08
In den Fällen, in denen (b) vorliegt, erkenne ich zwei verschiedene Argumentationsmuster:
...
tomS hat geschrieben:
11. Jan 2019, 08:08
TomS: 1) Auch wird das reale Verhalten höherer Systeme kausal ausschließlich durch die fundamentalen Entitäten bedingt. 2) Gesetze auf höherer Ebene haben strukturierenden, ordnenden Charakter. Das Vorliegen von (b) besagt nichts über die (1), d.h. unsere Unkenntnis der Emergenz bei (2) führt nicht zu etwas qualitativ Neuem bei (1). Vereinfacht: (1) ist reduzibel, (2) ist praktisch irreduzibel - möglicherweise kann sich das ändern - und es ändert sich in immer mehr Fachbereichen
Ich bin da gar nicht weit weg von dir. Es geht hier um Überdeterminiertheit.

Ich weise nur u.a. auf folgende Schwierigkeiten bzw. Unsicherheiten hin:

- selbst wenn es so ist, nützt das gar nichts, wenn man solche Systeme in der Realität sinnvoll beschreiben will

- es ist nicht klar, ob unsere Welt vollständig kausal-exakt nach fundamentalen Gesetzmäßigkeiten, die noch dazu allein im Allerkleinsten zu finden sind, abläuft

- die Welt ist in ihrer konkreten Entwicklung nicht allein durch die NG festgelegt, es braucht zusätzlich noch die Naturkonstanten und Anfangsbedingungen und ein Bewegungsmoment. Durch die prinzipiell unbekannten exakten Anfangsbedingungen (die ja keine Naturgesetze sind) und evtl. auch durch nicht a priori ausschließbare Störungen 'von außen' wird ein Freiraum aufgespannt, das zu einem Rauschen führt, aus dem komplexe Systeme aus der Bewegung heraus neue inhärente gesetzliche Muster gewinnen können, die die Wikipedia-Definition von "Naturgesetz" erfüllen. Im Grunde kann man das so sehen, dass aus den Anfangsbedingungen erkennbare Muster gewonnen werden.

- natürliche komplexe Systeme können so sensitiv sein, dass man für eine korrekte Beschreibung als Systemgrenzen mindestens das gesamte beobachtbare, wenn nicht das ganze Universum festlegen müsste, das ist uns nicht möglich bzw. führt uns nicht weiter. Das ist zunächst eher eine praktische Grenze, die aber für uns fundamental ist, denn was wir nicht exakt definieren können, können wir auch nicht exakt beschreiben und auch nicht vollständig auf etwas anderes reduzieren. Und sie setzt die Existenz "Universum als fixes Ganzes voraus", falls das so nicht existiert oder nicht vollständig definierbar ist, ist das sogar eine prinzipielle Grenze.

- eine mathematische Durchführung dieses Programms der Reduktion ist bei echt-komplexen Systemen ebenso unmöglich, schon deshalb weil irrationale Zahlen unendlich viele Nachkommastellen haben, es ist dabei notorisch unklar, ob diese Idealisierung die Natur korrekt abbildet.

Das heißt für mich insgesamt:
Dein ganzer Gedankenaufbau ist mir zu unsicher, du musst mir zu viele Annahmen treffen, um klare, sichere Aussagen gewinnen zu können.
Deshalb konzentriere ich mich ab dem Punkt lieber auf das, was man praktisch-empirisch-konkret feststellen kann.

tomS hat geschrieben:
11. Jan 2019, 08:08
Damit ist es letztlich eine Glaubenssache: ich bin bzgl. der Reduzibilität ein Optimist und glaube nicht, dass unsere gegenwärtige Unkenntis bei (2b) etwas fundamentales über (1) aussagt; ihr seid diesbzgl. Pessimisten und denkt, dass (2b) selbst eine gewisse Realität der Natur selbst = bei (1) widerspiegelt. Ich extrapoliere den Erfolg von (2a); ihr extrapoliert dem Misserfolg bei (2b).
So wärst du aus meiner Sicht sogar ein ein tollkühner Optimist, es besteht aus meiner Sicht überhaupt keine Hoffnung, dass das in deinem Sinne jemals vollständig gelingen könnte. Auf der Beschreibungsebene ist es prinzipiell unmöglich.

Zur Wiederholung:

Ich denke, die Frage aus Perspektive der Physik lautet:

Wie ist es möglich bzw. soll es möglich sein, dass in einer vollständig determinierten Welt, die durch die bekannten grundlegenden linearen Naturgesetze der Physik bereits vollständig festgelegt ist, weitere echte Naturgesetzlichkeiten hervortreten können (z.B. in komplexen Systemen)?
Denn das wäre dann eine Übedeterminierung der Welt und das würde daher keinen Sinn machen.

Auf diese Frage gibt es verschiedene Antworten:

a) es ist nicht möglich
b) die Welt ist nicht vollständig determiniert
c) die 'weiteren NG' kommen letztlich aus den Anfangsbedingungen plus dem Bewegungsmoment, aus denen sie sozusagen explizit werden, als naturgesetzlicher Ausdruck der Anfangsbedingungen


Außerdem ist es hier hilfreich, wenn wir ein komplexes System zum Vergleich zu natürlichen Systemen betrachten, das auf einem realen Computer läuft und ausschließlich mit endlichen Werten der natürlichen Zahlen arbeitet, also sicher vollständig exakt und determiniert abläuft.
Lassen sich hier grundlegende Unterschiede zu einem natürlichen komplexen System ausmachen oder nicht?
Auf diesem Weg ließe sich u.a. evtl. ein besserer Einblick in die Optionen b) und c) gewinnen.
Grüße
seeker


Mache nie eine Theorie zu DEINER Theorie!
Denn tut man das, so verliert man zumindest ein Stück weit seine Unvoreingenommenheit, Objektivität.

Antworten