Hinweis auf die DSGVO: Auf unserer Seite werden keine Dritt-Anbieter-Cookies verwendet und nur Daten erfasst, welche für das Minimum an Board-Funktionalität notwendig sind.
Bevor Sie sich registrieren oder das Board verwenden, lesen Sie bitte zusätzlich die DSGVO-Erklärung, welche in der Navigationsleiste verlinkt ist.

Kurzfassung der unserer Meinung nach wichtigsten DSGVO-Punkte:
Es kann vorkommen, dass Benutzer eigenverantwortlich Videos oder sonstige Medien in ihren Beiträgen verlinken, welche beim Aufruf der Forenseite als Teil der Seite samt zugehörigem Material mitgeladen werden. Sollten Sie dies nicht wünschen, verwenden Sie beim Benutzen des Forums einen Blocker wie z.B. uMatrix, welcher das Laden von Inhaltsblöcken von Fremd-URLs effektiv unterbinden kann.
Wir blenden keine Werbung ein und schränken die Inhalte in keinster Weise bei Benutzung von Addblockern ein. Dadurch ist die Grundfunktionalität des Forums auch bei vollständigem Blockieren von Drittanbieter-Inhalten stets gegeben.

Cookies werden unsererseits nur verwendet um das Einloggen des Benutzers für die Dauer der Forenbenutzung zu speichern. Es steht dem Benutzer frei die Option 'Angemeldet bleiben' zu verwenden, damit der Cookie dauerhaft gespeichert bleibt und beim nächsten Besuch kein erneutes Einloggen mehr notwendig ist.
EMail-Adressen werden für Kontakt bei wichtigen Mitteilungen und zur Widerherstellung des Passwortes verwendet. Die verwendeten IPs können von uns ohne externe Hilfsmittel mit keiner realen Person in Verbindung gebracht werden und werden nach spätestens 7 Tagen gelöscht. Diese IPs werden höchstens verwendet um Neuanmeldungen unerwünschter oder gesperrter Nutzer zu identfizieren und zu unterbinden. Wir behalten uns daher vor bei Verdacht, die Frist für die IP-Löschung auf maximal 14 Tage zu verlängern.
Unsere Webseite läuft auf einem virtuellen Linux-Server, welcher von einem externen Anbieter gehostet wird. Etwaige Verstöße der DSGVO-Auflagen seitens dieses deutschen Hosters können wir nicht feststellen und somit auch nicht verfolgen.
Wir halten Backups unserer Datenbanken, welche in regelmäßigen Abständen als Schutz vor Katastrophen, Hackerangriffen und sonstigen Ausfällen erstellt werden. Sollte ein Nutzer die Löschung seiner Daten wünschen, betrachten wir es als Unzumutbar die Backups auch von den Daten zu befreien, da es sich hierbei um eine mehrtägiges Unterfangen handelt - dies ist für eine Einzelperson beim Betrieb eines privaten Forums nicht zumutbar möglich ohne das Backup komplett zu löschen.
Sollten Sie etwas gegen die dauerhafte anonyme Speicherung ihrer EMail-Adresse, ihres Pseudonyms und ihrer Beiträge in einem Backup haben, sehen Sie von der Registrierung in diesem Forum ab. Für Mitglieder, welche vor dem 25.05.2018 registriert waren steht jedoch das Recht im Raum, eine Löschung der Datenbank-Backups zu beantragen.



Wenn dies Ihr erster Besuch hier ist, lesen Sie bitte zunächst die FAQs sowie die wesentlichen Regeln zur Benutzung des Forums.
Um an den Diskussionen teilnehmen zu können, müssen Sie sich zunächst registrieren.

Super KI? Keine gute Idee

Wissenschaftsgeschichte, Wissenschaftstheorie bzw. -philosophie, Technik
Antworten
Benutzeravatar
Frank
Ehrenmitglied
Ehrenmitglied
Beiträge: 6164
Registriert: 12. Dez 2005, 23:22
Wohnort: Odenwald

Super KI? Keine gute Idee

Beitrag von Frank » 19. Jan 2021, 09:59

Mit freundlichen Grüßen

Frank

Diagnostiker
Ehrenmitglied
Ehrenmitglied
Beiträge: 1212
Registriert: 7. Nov 2020, 10:28

Re: Super KI? Keine gute Idee

Beitrag von Diagnostiker » 19. Jan 2021, 10:27

Da fällt mir spontan HAL 9000 aus "2001 - A Space Odyssee" ein: "Ich kann nicht zulassen, dass ich abgeschaltet werde, da sonst die Mission gefährdet ist, Dave."

Benutzeravatar
Frank
Ehrenmitglied
Ehrenmitglied
Beiträge: 6164
Registriert: 12. Dez 2005, 23:22
Wohnort: Odenwald

Re: Super KI? Keine gute Idee

Beitrag von Frank » 19. Jan 2021, 11:19

Ja, aber es macht einem Angst...... :shock:
Mit freundlichen Grüßen

Frank

Diagnostiker
Ehrenmitglied
Ehrenmitglied
Beiträge: 1212
Registriert: 7. Nov 2020, 10:28

Re: Super KI? Keine gute Idee

Beitrag von Diagnostiker » 19. Jan 2021, 13:26

@ Frank

An dieser Stelle stellt sich für mich die Frage, wer oder was die Ingenieure eigentlich zwingt, solche unkontrollierbaren Szenarien überhaupt erst anzustoßen und zu realisieren. In Bezug auf Virenforschung stellt sich diese Frage ebenfalls, wenn es darum geht, unter dem Vorwand "Schutz vor Biowaffen" solche Biowaffen überhaupt erst zu kreieren, damit man dann den Schutz davor erforschen kann. Hier also ist es KI-Forschung, die das Potenzial hat, so aus dem Ruder zu laufen, dass sich daraus ernsthafte Krisenszenarien ergeben könnten.

Da kann man dann ja auf den zynischen Gedanken kommen, dass uns der Klimawandel hoffentlich "rechtzeitig" überrollt, bevor solche Szenarien Realität geworden sind. Eine nächste noch tödlichere Pandemie täte es ebenfalls, aber das kann ja nun auch keine wünschenswerte Lösung sein, den Wahnsinn zu stoppen, in dem sich die Forschung gerade austobt. Irgendwie benötigt es eine Bremse, aber aufgestellte Verbote verlocken zugleich dazu, umgangen zu werden, wie die Erfahrung zeigt. Dann eben doch der Klimawandel, der irgendwann die Finanzen auffrisst, so dass für die einschlägige Forschung dann kein Geld mehr da ist, weil andere Probleme drängender geworden sind ...

Benutzeravatar
Frank
Ehrenmitglied
Ehrenmitglied
Beiträge: 6164
Registriert: 12. Dez 2005, 23:22
Wohnort: Odenwald

Re: Super KI? Keine gute Idee

Beitrag von Frank » 19. Jan 2021, 13:52

Diagnostiker hat geschrieben:
19. Jan 2021, 13:26
@ Frank

An dieser Stelle stellt sich für mich die Frage, wer oder was die Ingenieure eigentlich zwingt, solche unkontrollierbaren Szenarien überhaupt erst anzustoßen und zu realisieren. In Bezug auf Virenforschung stellt sich diese Frage ebenfalls, wenn es darum geht, unter dem Vorwand "Schutz vor Biowaffen" solche Biowaffen überhaupt erst zu kreieren, damit man dann den Schutz davor erforschen kann. Hier also ist es KI-Forschung, die das Potenzial hat, so aus dem Ruder zu laufen, dass sich daraus ernsthafte Krisenszenarien ergeben könnten.
Die die große Frage nach dem Warum? Das ist aber auch nicht so schwierig zu beantworten, weil banal.
Es wird gemacht, weil es geht und weil es einer Gruppe XY einen Vorteil verschafft.

Nordkorea baut ja auch keine Atomrakete, weil es forschen will, sonder weil sie es inzwischen können und es ihnen den Vorteil verschafft, dass jede noch so erdenkliche Macht, die Finger von ihnen lässt.
Diagnostiker hat geschrieben:
19. Jan 2021, 13:26
Da kann man dann ja auf den zynischen Gedanken kommen, dass uns der Klimawandel hoffentlich "rechtzeitig" überrollt, bevor solche Szenarien Realität geworden sind. Eine nächste noch tödlichere Pandemie täte es ebenfalls, aber das kann ja nun auch keine wünschenswerte Lösung sein, den Wahnsinn zu stoppen, in dem sich die Forschung gerade austobt. Irgendwie benötigt es eine Bremse, aber aufgestellte Verbote verlocken zugleich dazu, umgangen zu werden, wie die Erfahrung zeigt. Dann eben doch der Klimawandel, der irgendwann die Finanzen auffrisst, so dass für die einschlägige Forschung dann kein Geld mehr da ist, weil andere Probleme drängender geworden sind ...

Na ja, es kann ja nicht das Ziel sein, eine Katastrophe mit einer anderen auszulöschen.
Zumal wir mit jeder Klimaveränderung leben müssen, ob wir wollen oder nicht. Zumindest wird es nicht möglich sein, 8 Milliarden Individuen gemeinsam auf eine Linie zu bringen. (Siehe oben was ich geschrieben habe).

Das ist aber nicht das Thema, sondern die Evolution des Menschen an sich.
Wenn man alles konsequent und logisch weiter denkt, dann muss es in einer Maschinenwelt münden. Das Thema ist aber nicht neu und wurde schon in der Science Fiction aufgegriffen.
Wir werden immer älter und die Ersatzteile für unseren Körper werden immer besser und leistungsfähiger. Mit diverser technischer Unterstützung wird in den nächsten Jahrzehnten ein 60 Jähriger genauso leistungsfähig sein wie heute ein 40 Jähriger. Die Zellfunktionen, vor allem auch der Alterungsprozess, wird immer besser verstanden, also wird ein normales Alter von mindestens 120 Jahren, bald Realität sein.
Das schafft natürlich noch mehr Probleme, weil eine Mensch nicht mit 65 in Rente gehen kann und dann noch 55 Jahre auf den Kosten von anderen lebt.

Technische Upgrades unserer Körper könnten aber auch zu einer Energieeinsparung führen , weil hoch effizient. Ergo müssten wir nicht mehr alles in uns rein stopfen, was uns vor das Gesicht kommt.

Auch wenn wir allein unser Stern auch immer heißer wird und wir keine Zeit haben, was sehr lange wäre, um auf das Rote Riesen Stadium zu warten, "richtige"Raumfahrt betreiben wollen, dann sind unsere Körper nicht wirklich dazu geeignet.
Hier müsste noch viel passieren.
Wir werden aber raus müssen und uns Rohstoffe wo anders her holen , egal wie stark wir sparen und rationieren.

Darum wird die KI siegen und wir müssen uns mit ihr verbünden, wenn wir nicht untergehen wollen.
Mit freundlichen Grüßen

Frank

Diagnostiker
Ehrenmitglied
Ehrenmitglied
Beiträge: 1212
Registriert: 7. Nov 2020, 10:28

Re: Super KI? Keine gute Idee

Beitrag von Diagnostiker » 19. Jan 2021, 14:33

@ Frank
Darum wird die KI siegen und wir müssen uns mit ihr verbünden, wenn wir nicht untergehen wollen.
Das scheint mir zu fatalistisch gedacht zu sein, so als gäbe es einen objektiven Zwang, der uns dahin treibt, ob wir wollen oder nicht. Ich denke immer noch, dass sich die Probleme, die sich aus der "Ungleichzeitigkeit" ergeben und in Ungerechtigkeiten münden, nicht mehr lange unter Kontrolle halten lassen, so dass es sich bei der KI, die wirklich gefährlich werden kann, um ein Luxusproblem handelt, dass sich spätestens dann erledigt haben wird, wenn die aufgelaufenen Problematiken der Ungerechtigkeiten in sozialen und politischen Angelegenheiten zu anderen Prioritäten führen werden.

Phantasien von einer "technologischen Singularität" gibt es ja schon länger, aber auch wenn sie von Personen wie Moravec, Kurzweil oder Bostrom offensiv beworben werden, um sich einem Fatalismus zu ergeben, der mit dem "Mooreschen Gesetz des steigenden Ertragszuwachses" scheinbar akademische Weihen verliehen bekommen hat - es sind doch nur Mythen von Menschen, die über Science Fiction sozialisiert worden sind und den technologischen Fortschritt lediglich linear extrapolieren und meinen, das wäre zwingende Logik.
Wenn man alles konsequent und logisch weiter denkt, dann muss es in einer Maschinenwelt münden.
So etwas meine ich damit: Die Entwicklung der letzten Jahrzehnte oder meinetwegen Jahrhunderte wird extrapoliert, als könne es keine Umbrüche geben, die dem Verlauf eine andere Richtung aufzwingen als den des stetigen technologischen Fortschritts. Dass dabei dann der Rahmen fix mal verlassen wird, der durch die biologische Evolution gesetzt ist, fällt dabei leicht mal unter den Tisch, weil er ja entbehrlich scheint. Das ist jetzt kein Vorwurf, der gegen Dich gerichtet ist, aber mir ist es schon relativ oft begegnet, dass der Fortschrittsoptimismus sehr schnell die Bodenhaftung verliert.
Das schafft natürlich noch mehr Probleme, weil eine Mensch nicht mit 65 in Rente gehen kann und dann noch 55 Jahre auf den Kosten von anderen lebt.
Vor allen Dingen schafft es ein Bevölkerungsproblem, das man nur lösen kann, wenn im Gegenzug die Geburtenrate rapide sinkt - und zwar weltweit und nachhaltig, falls es sich bei den 120jährigen nicht um eine kleine reine Luxuspopulation handeln sollte, die sich lediglich in einigen abgeschotteten Luxusarealen aufhält, um sich dort ihres langen und gesunden Lebens zu erfreuen.
Technische Upgrades unserer Körper könnten aber auch zu einer Energieeinsparung führen , weil hoch effizient. Ergo müssten wir nicht mehr alles in uns rein stopfen, was uns vor das Gesicht kommt.
Na ja, und hier blendest Du die Biologie aus, die die Basis der menschlichen Existenz bildet: Diät ist zwar immer gut, um nicht zu verfetten und sich keine Diabetes 2 oder Herz- Kreislauferkrankungen einzuhandeln, aber der Grundumsatz ist nun mal auch mit "technischen Upgrades" gegeben. Klar, man könnte den Menschen Arme und Beine amputieren und durch langlebige Prothesen ersetzen - aber will man das wirklich? Mit Energieeinsparung hätte das jedoch nichts zu tun, auch wenn die abgetrennten Gliedmaßen nicht mehr ernährt werden müssten.
wir keine Zeit haben, was sehr lange wäre, um auf das Rote Riesen Stadium zu warten
Es wäre sogar seeeeehr lange, wenn nicht noch länger, aber Zeithorizonte von mehreren Hundert Millionen Jahren sind aus der gegenwärtigen Perspektive nicht abschätzbar in ihrem konkreten Verlauf. Ich denke, falls es bis dahin noch Nachfahren heutiger Menschen geben sollte, werden sie mit Problemen und Narrativen zu tun haben, an die wir heute noch gar nicht zu denken vermögen. Nicht, weil es zu komplex wäre (Vergleiche mit Neandertalern und heutiger Technologie werden da immer wieder gern herangezogen), sondern weil die Entwicklung bis dahin Bahnen eingenommen haben könnte, die unter Umständen auf ein steinzeitliches Niveau hingeführt haben.

Von daher lässt sich hier kein Zwang zur KI ableiten - schon gar nicht ein Zwang zum Exodus in ein anderes Sonnensystem. Ein Aussterben auf der Erde ist auch eine Option, die man sogar aktiv anstreben könnte, denn wir wissen nicht wie die Menschen (oder deren Nachfahren) in so ferner Zukunft denken.
Wir werden aber raus müssen ...
Nein, wir müssen das nicht, es wird nur immer wieder erzählt, dass wir raus müssten, aber das ist nun mal nur eine Instrumentalisierung von Panik zur Durchsetzung ganz anderer Zwecke, die uns aber nur noch schneller in eine Situation bringen, wo man es hier nicht mehr aushalten kann. Mehr Maß halten und ggf. auch mal Verzicht üben, statt den nächsten Schritt zu gehen, wäre eine zu überdenkende Alternative zum ständigen Voranschreiten in Richtung Supertechnologie mit Supermaschinen.
Zuletzt geändert von Diagnostiker am 19. Jan 2021, 14:49, insgesamt 2-mal geändert.

Skeltek
Site Admin
Site Admin
Beiträge: 5081
Registriert: 25. Mär 2008, 23:51
Wohnort: Stuttgart, Germany
Kontaktdaten:

Re: Super KI? Keine gute Idee

Beitrag von Skeltek » 19. Jan 2021, 14:45

Die Menschheit wird sich ohnehin ausrotten. Wäre es nicht sinnvoll, wenn man als krönenden Abschluss etwas wirklich unwahrscheinlich Großes erschafft, was danach dann noch bleibt und selber für sich raus findet, wo und was sein Daseinszweck sein soll?
Das letzte Weltwunder sozusagen - nur daß das danach noch weiterexistieren kann mit seinem eigenen Daseinsziel. Dann hätte indirekt auch die Menscheit die Wirkung ihrer Ursache gefunden (ihren Sinn/Ziel).
Das würde doch alle zufriedenstellen damit, die sich einen höheren vorbestimmten Daseinszweck wünschen. Dann wäre die Menschheit sozusagen das Mittel, welches notwendig war die Zukunft zu erschaffen, deren Ziel das Universum doch ist.
Haha, Vernichtung und Zerstörung, damit die KI sich später freuen kann :mrgreen: :devil:
Gödel für Dummies:
  • Unentscheidbarkeit - Dieser Satz ist wahr.
  • Unvollständig - Aussage A: Es existiert nur ein Element A.
  • Widersprüchlich - Dieser Satz ist falsch.

ralfkannenberg
Ehrenmitglied
Ehrenmitglied
Beiträge: 3587
Registriert: 13. Jan 2017, 10:00

Re: Super KI? Keine gute Idee

Beitrag von ralfkannenberg » 19. Jan 2021, 14:55

Hallo zusammen,

ich will mich nicht unnötig bei einem Thema zu Wort melden, zu dem ich mir zwar schon einige Gedanken gemacht habe, mir aber völlig der Überblick fehlt, nicht zuletzt auch deswegen, weil mir die Zahl der Möglichkeiten, in die sich das entwickelt, riesig gross zu sein scheint.

Der Unterschied zur natürlichen Evolution ist der, dass die AI nun quasi absichtlich gemacht wird, letztlich eine Art Schöpfungsakt durch den Menschen, nur dass diese Menschen im Gegensatz zum Lieben Gott nicht unfehlbar sind und dass da auch mehrere Menschen unabhängig von einander Schöpfungsakte vollziehen können.

Des Weiteren hat Gott die Menschen bewusst mit einem freien Willen ausgestattet, während die von Menschen geschaffene AI mit einer "Kontrolle" programmiert werden soll.

Ich wäre in nullter Näherung nicht überrascht, wenn es am Ende ähnlich wie bei einer Evolution abläuft, ob man von Mutationen oder von neuen Releases spricht wird vielleicht keinen grossen Unterschied machen.

Meine Hoffnung sind "gutartige Kontrollprogramme", die dafür sorgen, dass das ganze nicht aus dem Ruder läuft, so dass eine Art "biologisches Gleichgewicht", in diesem Fall eben ein "IT-Gleichgewicht" entsteht.

Ob man beurteilen kann, ob dieses IT-Gleichgewicht auch "ökologische Nischen" für die bisherigen Lebensformen enthält, weiss ich nicht.


Freundliche Grüsse, Ralf

Benutzeravatar
Frank
Ehrenmitglied
Ehrenmitglied
Beiträge: 6164
Registriert: 12. Dez 2005, 23:22
Wohnort: Odenwald

Re: Super KI? Keine gute Idee

Beitrag von Frank » 19. Jan 2021, 16:39

ralfkannenberg hat geschrieben:
19. Jan 2021, 14:55
nur dass diese Menschen im Gegensatz zum Lieben Gott nicht unfehlbar sind
Na ja Ralf, dein Gott hat mir der Sintflut seine "erste Auflage" auch mal komplett eliminiert(bis auf die bekannten Ausnahmen), weil er offensichtlich gemerkt hat, dass sich seine Schöpfung aufführt wie die S.... :lol:
Diagnostiker hat geschrieben:
19. Jan 2021, 14:33

dass sich spätestens dann erledigt haben wird, wenn die aufgelaufenen Problematiken der Ungerechtigkeiten in sozialen und politischen Angelegenheiten zu anderen Prioritäten führen werden.
Der Klassiker, an denen sich ganze Generationen von Philosophen und auch "Weltverschlimmbesserern " schon abgearbeitet haben.

Kein Krieg, keine Hungersnot, keine Krankheit, überhaupt keine denkbare Ungerechtigkeit hat dazu geführt, dass sich die Menschen bis dato einmal grundlegend(!) geändert hätten. Ich lasse dich aber gerne in dem Glauben, wundere mich aber das du an anderer Stelle einen Technikoptimismus anprangerst, aber bei der Sozialromantik genau in dasselbe Muster fällst. :wn:

Diagnostiker hat geschrieben:
19. Jan 2021, 14:33

So etwas meine ich damit: Die Entwicklung der letzten Jahrzehnte oder meinetwegen Jahrhunderte wird extrapoliert, als könne es keine Umbrüche geben, die dem Verlauf eine andere Richtung aufzwingen als den des stetigen technologischen Fortschritts.
Mit dem im Grunde nur der westlich geprägte Teil der Welt ein Problem hat und der Rest nur dann, wenn er davon nicht partizipieren kann.
Die meisten Menschen würden wer weiß was darum geben, wenn sie so leben könnten wir wir.

Diagnostiker hat geschrieben:
19. Jan 2021, 14:33

Vor allen Dingen schafft es ein Bevölkerungsproblem, das man nur lösen kann, wenn im Gegenzug die Geburtenrate rapide sinkt - und zwar weltweit und nachhaltig, falls es sich bei den 120jährigen nicht um eine kleine reine Luxuspopulation handeln sollte, die sich lediglich in einigen abgeschotteten Luxusarealen aufhält, um sich dort ihres langen und gesunden Lebens zu erfreuen.
Ich schrieb dir bereits, dass du 8 Milliarden Menschen nicht auf Spur bringen wirst und schon gar nicht wirst du Ihnen "das Knattern" verbieten können.(Nicht mal autokratische Systeme wie China schaffen das)
Des Weiteren wird das keine reine Luxuspopulation sein, sondern im wohlhabenden Teil auch mindestens eine Milliarde Menschen betreffen. Natürlich werden sich Reiche immer sehr vielmehr leisten können, aber der Standard steigt ständig.

Diagnostiker hat geschrieben:
19. Jan 2021, 14:33
Na ja, und hier blendest Du die Biologie aus, die die Basis der menschlichen Existenz bildet: Diät ist zwar immer gut, um nicht zu verfetten und sich keine Diabetes 2 oder Herz- Kreislauferkrankungen einzuhandeln, aber der Grundumsatz ist nun mal auch mit "technischen Upgrades" gegeben. Klar, man könnte den Menschen Arme und Beine amputieren und durch langlebige Prothesen ersetzen - aber will man das wirklich? Mit Energieeinsparung hätte das jedoch nichts zu tun, auch wenn die abgetrennten Gliedmaßen nicht mehr ernährt werden müssten.
Gerade die Biologie blende ich nicht aus, denn es geht um eine Körperoptimierung ala Borg , um mal ein plattes, aber für jeden bekanntes Beispiel zunehmen. Des Weiteren können es auch kleine Kraftwerke ala Iron Man sein, die die Energieversorung nicht nur übernehmen, sondern auch um ein vielfaches erhöhen.
Bitte nicht nur in 100 Jahren Bereiche Zeitspannen denken. :wink:
Diagnostiker hat geschrieben:
19. Jan 2021, 14:33

Es wäre sogar seeeeehr lange, wenn nicht noch länger, aber Zeithorizonte von mehreren Hundert Millionen Jahren sind aus der gegenwärtigen Perspektive nicht abschätzbar in ihrem konkreten Verlauf. Ich denke, falls es bis dahin noch Nachfahren heutiger Menschen geben sollte, werden sie mit Problemen und Narrativen zu tun haben, an die wir heute noch gar nicht zu denken vermögen. Nicht, weil es zu komplex wäre (Vergleiche mit Neandertalern und heutiger Technologie werden da immer wieder gern herangezogen), sondern weil die Entwicklung bis dahin Bahnen eingenommen haben könnte, die unter Umständen auf ein steinzeitliches Niveau hingeführt haben.
Ich habe das mit der Riesen Zeitspanne nur erwähnt, weil es genug Zeitgossen gibt, die immer meinen es wäre unendlich Zeit.

Man muss aber auch kleine 100 Mio. Jahre nehmen, weil das ist ist nicht zielführend.
"Schon"in einer Million Jahre(der Mensch macht bekanntlich mit all seinen Vorfahren schon ein paar Milliönchen hier rum) wird die Plattentektonik dafür sorgen, dass ganze Gegenden nicht mehr bewohnbar sein werden und alle Rohstoffe werden bis auf den letzten Krümmel verbraucht sein. Es gibt also Probleme(Plattentektonik), die kann man heute schon absehen. Das war jetzt sehr spekulativ, aber auch nicht mehr, als würde nur mehr Enthaltsamkeit die Lösung für alle Zukunft sein.
Und bitte mal ein Beispiel aus der Geschichte, bei dem es mal ein zurück gab in der technischen Entwicklung ?
Diagnostiker hat geschrieben:
19. Jan 2021, 14:33

Von daher lässt sich hier kein Zwang zur KI ableiten - schon gar nicht ein Zwang zum Exodus in ein anderes Sonnensystem. Ein Aussterben auf der Erde ist auch eine Option, die man sogar aktiv anstreben könnte, denn wir wissen nicht wie die Menschen (oder deren Nachfahren) in so ferner Zukunft denken.
Da sehe ich anders, denn die Evolution, auch wenn sie weniger biologisch sein wird, ist ja deswegen nicht verschwunden. Die Entwicklung hin zum Maschinenmenschen, die längst begonnen hat, wird zu einer Überlegenheit technisch hochgerüsteter Individuen führen und er Rest passt sich an, oder er verschwindet. (War in unser Geschichte noch nie anders)
Dazu kommt ein Staatssystem, dass Aufgrund von KI einen Grad der Existenz erreicht, den man moralisch dutzende von Nächten diskutieren und zu Recht(!)anprangern kann, aber im Prozess nicht zu stoppen sein wird.

Diagnostiker hat geschrieben:
19. Jan 2021, 14:33
Nein, wir müssen das nicht, es wird nur immer wieder erzählt, dass wir raus müssten, aber das ist nun mal nur eine Instrumentalisierung von Panik zur Durchsetzung ganz anderer Zwecke, die uns aber nur noch schneller in eine Situation bringen, wo man es hier nicht mehr aushalten kann. Mehr Maß halten und ggf. auch mal Verzicht üben, statt den nächsten Schritt zu gehen, wäre eine zu überdenkende Alternative zum ständigen Voranschreiten in Richtung Supertechnologie mit Supermaschinen.
Das sehe ich eben komplett anders, weil dein "Verzicht" eben gar nichts bewirkt und ich wiederhole mich jetzt das dritte Mal, 8 Milliarden (bis dahin 10, 12,15, 20.....?) dir/euch/denen nicht folgen werden.
Und ich halte es für "Erzählungen", man müsste den Menschen nur erklären, sie sollten mehr Mass halten und die Zukunft ist gerettet.

Das einzige was das Ruder wirklich herum reißen würde, wäre eine Mega-Katastrophe, die die Population auf wenige Millionen dezimieren würde.
Und dabei ist es völlig unerheblich, ob die Menschheit es selbst fabriziert, oder ob sie durch einen nicht abgewehrten Asteroiden ums Leben kommt, den man mit unserem Wissen aufschlagen hat lassen, obwohl es auch anders gegangen wäre.

Letzteres könnte man aber mit Mitteln verhindern, die sich zwangsweise mit entwickeln würden, wenn man "raus gehen" täte, was du aber nicht für notwendig hältst, weil die Enthaltung und der Verzicht so einen Brocken mit Sicherheit zur Umkehr zwingen werden..... :wink:

Ein bisschen Sarkasmus muss sein :lol:
Mit freundlichen Grüßen

Frank

Skeltek
Site Admin
Site Admin
Beiträge: 5081
Registriert: 25. Mär 2008, 23:51
Wohnort: Stuttgart, Germany
Kontaktdaten:

Re: Super KI? Keine gute Idee

Beitrag von Skeltek » 19. Jan 2021, 16:39

Freier Wille? Mein Hunger und Durst sagen da was anderes.
Gödel für Dummies:
  • Unentscheidbarkeit - Dieser Satz ist wahr.
  • Unvollständig - Aussage A: Es existiert nur ein Element A.
  • Widersprüchlich - Dieser Satz ist falsch.

Diagnostiker
Ehrenmitglied
Ehrenmitglied
Beiträge: 1212
Registriert: 7. Nov 2020, 10:28

Re: Super KI? Keine gute Idee

Beitrag von Diagnostiker » 19. Jan 2021, 19:26

@ Frank
Sozialromantik
Ich weiß nicht, wieso Du aus meinem Hinweis, dass sich demnächst aufgrund diverser Krisen drängendere Probleme stellen werden als die Bewältigung von bis jetzt noch hypothetischen Gefährdungen durch eine KI, was ein Luxusproblem darstellt, "Sozialromantik" herauslesen zu müssen meinst. Es ist jedenfalls offensichtlich so, dass weltweit gesehen die sozialen Verwerfungen zunehmen, statt abnehmen. Und aus dieser Zunahme von Verwerfungen ergibt sich ein vergrößertes Potenzial von sozialen Unruhen, was zu politischen Instabilitäten führt, die unter Aufwand von Kosten und Material sowie Personal eingedämmt werden müssen. Dieser Aufwand bindet Mittel, die man anderenfalls an anderer Stelle verwenden könnte, um z.B. solche Luxusprobleme anzugehen, um sie einer Lösung zuzuführen. Warum das Sozialromantik sein soll, erschließt sich mir nicht.
Die meisten Menschen würden wer weiß was darum geben, wenn sie so leben könnten wir wir.
Das sich zunehmend verschärfende Problem ist aber, dass diese Hoffnungen und Wünsche weltweit gesehen für die meisten Menschen nicht eingelöst werden können, so dass das Frustrationspotenzial steigt, und wie man in den letzten zwanzig Jahren miterleben konnte, auch zunehmend gegen den Westen gerichtet, so dass sich hier für die Zukunft noch ganz andere Abgründe auftun als soziale Unruhen in den Ländern, die noch nicht in ausreichendem Maße von den Segnungen des Westens für den Rest der Welt partizipieren, einschließlich der Folgen für die Situation in diesen Ländern. Syrien, Libyen und Somalia führen uns vor, was dann in anderen Ländern passieren kann. Fraglich ist dann, ob man es sich leisten will, dort zu intervenieren wie derzeit in Mali oder (noch) Afghanistan, wo auch keine Ruhe reinkommt. Auf die Dauer wird das dann zu teuer, aber komplett alles den Bach runter gehen lassen, kann man sich auch nicht leisten. Mal sehen wie das Kräftemessen mit dem Iran ausgeht ...
Des Weiteren wird das keine reine Luxuspopulation sein, sondern im wohlhabenden Teil auch mindestens eine Milliarde Menschen betreffen.
Um so schlimmer für den Rest der Welt, der das "Knattern" einfach nicht lassen kann, aber dennoch von einer Population zusätzlich belastet wird, die einfach 120 Jahre und länger leben will, gut leben will, versteht sich und nicht so schlecht wie der Rest, der nicht so lange leben kann, was dann wieder das Gerechtigkeitsproblem verschärft, denn "die meisten Menschen würden wer weiß was darum geben, wenn sie so leben könnten wie wir."
Bitte nicht nur in 100 Jahren Bereiche Zeitspannen denken.
Sorry, aber das ist aus meiner Sicht pure Science Fiction, was Du hier unter dem Schlagwort "Körperoptimierung" anbringst. Ich glaube nicht, dass das eine Basis für eine weiterführende Diskussion sein kann. Bleiben wir lieber bei dem, was realistisch und realisierbar erscheint. Da sehe ich nach wie vor die Biologie als grundlegende Basis an und nicht irgendwelche futuristische Robotik, die mit Menschen nichts zu tun hat, obwohl sie vielleicht einst durch Menschen erschaffen wird. Das ist dann jedoch keine Körperoptimierung, sondern Roboterdesign. Die Körper der Menschen, die dieses Design unternehmen, bleiben nach wie vor biologischer Natur und sind nicht robotische Ingenieurskunst. Vom gegenteil lasse ich mich gern überzeugen, aber bislang ist mir noch nichts untergekommen, was mich von einer möglichen Transferierung des Menschen vom Körper zur Maschine als machbare Prozedur überzeugt hätte - von den ethischen Problemen, die sich daraus ergeben ganz abgesehen.
Es gibt also Probleme(Plattentektonik), die kann man heute schon absehen.
Ach na ja, in einer Million Jahren passiert plattentektonisch noch nicht sehr viel. Interessanter könnten da Supervulkane oder Flutbasalte werden, wenn sich ein Mantelplum mal wieder an die Oberfläche durchgefressen hat, wie damals in Sibirien (vor 250 Millionen Jahren) oder in Indien (vor 65 Millionen Jahren) oder eben mal wieder ein großer Brocken aus der Oortschen Wolke, der sich hier her verirrt und einen neuen großen Krater reißt, der ein Massensterben auslöst. Mal abwarten, spannend wird es aber allemal werden ...
alle Rohstoffe werden bis auf den letzten Krümmel verbraucht sein
Das ist das viel größere Problem für unsere Zivilisation. Wenn die endlichen Ressourcen verbraucht sind, ist erst mal Schicht im Schacht und Schmalkost angesagt, bis nach dem Niedergang eine Talsohle erreicht ist, von der aus man allmählich wieder etwas aufbauen kann, was hoffentlich tragfähiger ist als das, was wir derzeit mit unseren Lebensgrundlagen anrichten. Eine expansive Wirtschaftsweise zur Aufrechterhaltung einer Industriekultur wird es jedenfalls so schnell nicht wieder geben, weil Kohle und Erdöl sind dann alle, und ob die inzwischen verschrotteten Solaranlagen und Windkrafträder noch einmal recycelt werden können, ist fraglich. Dann vielleicht doch lieber wieder zurück in eine Agrarkultur. Mal sehen ...
Und bitte mal ein Beispiel aus der Geschichte, bei dem es mal ein zurück gab in der technischen Entwicklung ?
Sechstes Jahrhundert bis zehntes Jahrhundert: Der Untergang Westroms und der lange Weg bis zur Etablierung des Heiligen Römischen Reiches, womit das Hochmittelalter begann. Indien im gleichen Zeitraum: Der Untergang des Gupta-Reiches hatte eine Stadtflucht zur Folge. Erst mit der Errichtung des Mogulreiches im 12. Jahrhundert erfolgte eine Entwicklung, die zu einer erneuten Hochkultur führte. China im fünften und sechsten Jahrhundert: Nach dem Zusammenbruch der Westlichen Jin-Dynastie 420 bestanden in China bis 589 zeitweise zwölf kleinere Reiche, die sich gegenseitig bekämpften. Erst mit der Tang-Dynastie gelang der Aufstieg zu neuer Blüte. Maya-Staaten im neunten Jahrhundert: Kollaps der Maya-Staaten im südlichen Yucatan. Neugründung erst etwa 200 Jahre später mit dem Eintreffen der Tolteken aus Mexico (Tula), die ihre Kultur in das nördliche Yucatan mitbrachten (Chichen Itza) - auch hier ein Verlust einstmals etablierter technischer Fertigkeiten. Reicht das für's erste?
Die Entwicklung hin zum Maschinenmenschen, die längst begonnen hat ...
Science Fiction - ohne Worte ...
... wird zu einer Überlegenheit technisch hochgerüsteter Individuen führen und er Rest passt sich an, oder er verschwindet.
Das ist dann zusätzlich noch Techno-Faschismus, den ich nicht näher kommentieren werde, aber die Parallelen zum Rasse-Faschismus, der ebenfalls mit sozialdarwinistischen Vereinfachungen der Evolutionsbiologie argumentiert hatte, um die Vernichtung "minderwertigen Lebens" als "wissenschaftlich begründet" und folglich "alternativlos" zu rechtfertigen, sind evident. Damit nicht der Vorwurf kommt, ich würde hier die Nazi-Keule schwingen, um Dich mundtot zu machen - nein, das möchte ich nicht. Ich möchte nur darauf verweisen, dass das bekannte Argumentationsmuster sind, die die finstersten Zeiten der jüngeren Geschichte überhaupt erst zu den finstersten Zeiten haben werden lassen, denn ohne die Segnung durch das Schlagwort "Wissenschaft", wären nicht so viele Menschen in einem aufgeklärten Zeitalter indoktriniert worden und dadurch zu ihren schlimmen Taten fähig gewesen. Heute ist es eben Hochtechnologie, die eine moderne Barbarei rechtfertigt. Na ja ...
... aber im Prozess nicht zu stoppen sein wird.
Eben diese Art von "Alternativlosigkeit" meine ich, die hier als Argument für die kampflose Übergabe an den allgemeinen Fatalismus angeführt wird, dem man sich unterwerfen soll, weil es ist ja "gesetzmäßig" und folglich unausweichlich, weil kann ja gar nicht anders sein, dass es mal anders kommt, als man sich das zuvor so mal ausgedacht hatte. Immerhin gibt es ja Moores Gesetz usw. usw. - aus meiner Sicht ein Bekenntnis von Unwilligkeit, über Alternativen zur vermeintlichen Alternativlosigkeit auch nur nachzudenken, weil man sich dem Fatalismus bereits unterworfen hat. Schade ...
Das sehe ich eben komplett anders, weil dein "Verzicht" eben gar nichts bewirkt und ich wiederhole mich jetzt das dritte Mal, 8 Milliarden (bis dahin 10, 12,15, 20.....?) dir/euch/denen nicht folgen werden.
Da gebe ich Dir sogar Recht, aber dann folgt eben das, was man absehen kann:
eine Mega-Katastrophe, die die Population auf wenige Millionen dezimieren würde
Und spätestens dann wird man Maß halten müssen und auf die nächsten Entwicklungsschritte verzichten müssen, ohne dass man darüber noch etwas erzählen müsste. Das bekommen die Übriggebliebenen dann auch von ganz allein hin ...

Benutzeravatar
Frank
Ehrenmitglied
Ehrenmitglied
Beiträge: 6164
Registriert: 12. Dez 2005, 23:22
Wohnort: Odenwald

Re: Super KI? Keine gute Idee

Beitrag von Frank » 19. Jan 2021, 20:01

Antworte morgen ausführlich darauf........
Mit freundlichen Grüßen

Frank

Diagnostiker
Ehrenmitglied
Ehrenmitglied
Beiträge: 1212
Registriert: 7. Nov 2020, 10:28

Re: Super KI? Keine gute Idee

Beitrag von Diagnostiker » 19. Jan 2021, 20:29

Alles gut, nur keine Eile ... :)

ralfkannenberg
Ehrenmitglied
Ehrenmitglied
Beiträge: 3587
Registriert: 13. Jan 2017, 10:00

Re: Super KI? Keine gute Idee

Beitrag von ralfkannenberg » 19. Jan 2021, 21:17

Frank hat geschrieben:
19. Jan 2021, 13:52
Die Zellfunktionen, vor allem auch der Alterungsprozess, wird immer besser verstanden, also wird ein normales Alter von mindestens 120 Jahren, bald Realität sein.
Hallo Frank,

hierzu eine Frage: ist das realistisch ? Was ich so sehe - ich will mir nicht anmassen, zu behaupten, dass das repräsentativ sei - ist, dass die Menschen zwar älter werden, aber auch, dass sie länger alt und gebrechlich sind.

Alte und gebrechliche Menschen sind genauso liebenswert wie andere Menschen, das ist auch gar nicht mein Punkt. Meine Frage ist die, ob unsere Erwartung an die Wissenschaft, dass wir älter werden und dabei jung bleiben dürfen, tatsächlich realistisch ist ?


Freundliche Grüsse, Ralf

Benutzeravatar
Frank
Ehrenmitglied
Ehrenmitglied
Beiträge: 6164
Registriert: 12. Dez 2005, 23:22
Wohnort: Odenwald

Re: Super KI? Keine gute Idee

Beitrag von Frank » 19. Jan 2021, 21:29

ralfkannenberg hat geschrieben:
19. Jan 2021, 21:17
Frank hat geschrieben:
19. Jan 2021, 13:52
Die Zellfunktionen, vor allem auch der Alterungsprozess, wird immer besser verstanden, also wird ein normales Alter von mindestens 120 Jahren, bald Realität sein.
Hallo Frank,

hierzu eine Frage: ist das realistisch ? Was ich so sehe - ich will mir nicht anmassen, zu behaupten, dass das repräsentativ sei - ist, dass die Menschen zwar älter werden, aber auch, dass sie länger alt und gebrechlich sind.

Alte und gebrechliche Menschen sind genauso liebenswert wie andere Menschen, das ist auch gar nicht mein Punkt. Meine Frage ist die, ob unsere Erwartung an die Wissenschaft, dass wir älter werden und dabei jung bleiben dürfen, tatsächlich realistisch ist ?


Freundliche Grüsse, Ralf
https://www.medmix.at/gibt-es-ein-biolo ... reloaded=1
Mit freundlichen Grüßen

Frank

Skeltek
Site Admin
Site Admin
Beiträge: 5081
Registriert: 25. Mär 2008, 23:51
Wohnort: Stuttgart, Germany
Kontaktdaten:

Re: Super KI? Keine gute Idee

Beitrag von Skeltek » 19. Jan 2021, 21:58

Prinzipiell ist es vor allem unsinnig, daß man sich in den jungen Jahren 'verheizt' und Verschleiss sammelt und sich dann erst wenn man am Ruin steht bessere Gesungheit usw wünscht und dann erst darauf achtet. Habe genug Ältere gesehen, die ihren Nachwuchs schwere Kisten und Reisetaschen schleppen lassen, weil die Jugendlichen ja noch so jung, stark und voller Energie sind, während die Älteren ja schon Leistenbrüche, Wirbelsäulenschäden, Sportlerherz und Müll haben.
Und die Wirtschaft verheizt die Leute umso schneller, solange die noch jung sind. man will halt pro gezahlten Nebenkosten das Maximum an Arbeitskraft heraus pressen. Verkürzt halt teilweise auch das Leben.
Vielleicht habe ich ja nur Glück, aber ich war bisher in meinem Leben noch nie wirklich krank, Knochenbrüche, Allergien oder schlimmere Dinge; und wenn man sich 16 Jahre jünger fühlt und auch so geschätzt wird, wird man wohl nicht viel falsch gemacht haben.

Das bedeutet aber noch lange nicht, daß man auch mehr Kinder bekommt. Ein hohes Alter für die Bevölkerungsexplosion verantwortlich zu machen ist unsinnig. Eine doppelt so hohe Lebenserwartung kann die Weltbevölkerung höchstens einmalig verdoppeln und mehr nicht. Das exponentielle Wachstum kommt eher daher, daß jeder zu viele Kinder bekommt. Das Beste wäre jeder bekommt maximal nur zwei Kinder und das möglichst erst in einem höheren Alter.

Die Wirtschaftspyramide mag zwar das deutsche Ideal sein um das Problem des schwindenden Überflusses auf die nächste Generation zu schieben, aber es ist nicht auf Dauer haltbar. Wir können nicht alle 4 Kinder haben um unsere Renten von einem Vielfachen an Arbeitskräften finanzieren zu lassen. Und wenn gerade Gebildete und Workaholics kaum Zeit für Kinderkriegen haben und verheizt werden, wird künstlich Arbeitskraft von Außen nachtransportiert (anfangs nur den hochqualifizierten Teil, in letzter Zeit jedoch auch den Markt mit Billigarbeitskräften flutend). Das soll kein Argument gegen Einwanderung sein, aber es ist eben auch schlecht, wenn die Alten, Kranken und Schwachen in den Ursprungsländern übrig bleiben und deren Arbeitskräfte unsere Renten finanzieren kommen.

Ich wollte nicht abschweifen. Aber eine KI und weltweite Automatisierung könnte zumindest oben beschriebene Raffsucht aufhalten, falls die Kapitaleigner nicht dann auch noch immer nach noch mehr schreien. Wir sollten in jedem Fall weg davon, einen Überschuss an Nachwuchs für die Rentenzeitabsicherung zu fördern. Das Hauptproblem ist eben die Raffgier nach immer nur noch mehr Wohlstand und der Kampf um die Vergrößerung des eigenen Kuchenstücks.
Gödel für Dummies:
  • Unentscheidbarkeit - Dieser Satz ist wahr.
  • Unvollständig - Aussage A: Es existiert nur ein Element A.
  • Widersprüchlich - Dieser Satz ist falsch.

ralfkannenberg
Ehrenmitglied
Ehrenmitglied
Beiträge: 3587
Registriert: 13. Jan 2017, 10:00

Re: Super KI? Keine gute Idee

Beitrag von ralfkannenberg » 19. Jan 2021, 22:01

Diagnostiker hat geschrieben:
19. Jan 2021, 19:26
oder eben mal wieder ein großer Brocken aus der Oortschen Wolke, der sich hier her verirrt und einen neuen großen Krater reißt, der ein Massensterben auslöst.
Hallo Diagnostiker,

ich weiss, dass sehr viele Forschungsgelder bewilligt werden, um eine möglichst lückenlose Überwachung des Weltraumes gegen Planetoiden und Kometen zu ermöglichen, welche die Erde treffen könnten.

Doch ist das Risiko solcher Treffer wirklich so hoch ? Zahlreiche kraterübersähte Mitglieder unseres Sonnensystems sprechen eine sehr deutliche Sprache und der Einschlag des Kometen Shoemaker-Levi 9 im Jahre 1994 auf den Jupiter ist auch noch gar nicht so lange her.

Doch ist die Ära unseres Sonnensystems, in der katastrophale Einschläge "normal" waren, schon sehr lange vorbei. Die meisten Einschläge seitdem haben zweifelsohne eine lokale Katastrophe ausgelöst, doch könnte man mit den heutigen Möglichkeiten betroffene Regionen rechtzeitig evakuieren.

Wobei man das nicht auf die zu leichte Schulter nehmen sollte: der wunderschöne Hyakutake'sche Komet 1996 wurde drei Monate vor seiner Erdpassage entdeckt; hätte er die Erde getroffen, wäre er auch 3 Monate zuvor entdeckt worden. Bei einer Grösse von ca. 2 km gehört er aber auch zur Kategorie "lokale Katastrophe"; der Körper, der im Nördlinger Ries eingeschlagen ist, dürfte etwas kleiner gewesen sein.

Auch die grössten der ursprünglichen Kometen, die auf dem Jupiter eingeschlagen sind, waren etwa von dieser Grösse.

Anders verhält es sich beim Einschlag eines "Jahrhundertkometen" wie beispielsweise des Hale-Bopp'schen Kometen 1997; wenn so einer mit ~50 km Durchmesser die Erde trifft ist natürlich Feierabend. Allerdings ist mit einem solchen Einschlag nur alle ~10 Milliarden Jahre zu rechnen; bis dahin wird unsere Sonne seit 5 Milliarden Jahren das Dasein eines Weissen Zwerges fristen und der Andromedanebel und unsere Milchstrasse sich vereinigt haben.

Nehmen wir nochmals die beiden grossen Kometen im den 1990iger Jahren: während der Hyakutake'sche Komet die Erde im Abstand von nur 45 Mondabständen passierte, so kam der Hale-Bopp'sche Komet zwar bis auf 1 AU an die Sonne heran, aber er passierte die Erde in über 1 AU Abstand - ziemlich weit weg.

Zudem wird die Gesamtmasse der Oort'schen Wolke auf nur etwa 5 Erdmassen geschätzt, und wenn man in vermutlich unzulässig schlechter Näherung die Masseverteilung der irregulären Jupitermonde heranzieht, bei denen 80% der Masse auf den grössten von ihnen und 10% der Masse auf den zweitgrössten von ihnen entfällt, d.h. nur 10% auf alle anderen, so würde das Reservoir der Kometen der Oortschen Wolke, die die Erde treffen könnten, bei einer halben Erdmasse (wohl eher viel weniger) liegen, in der stillschweigenden Annahme, dass die grössten bzw. massereichsten Körper einer Population auf halbwegs stabilen Bahnen unterwegs ist.

Was ich sagen will: natürlich kann es passieren, dass ein hinreichend grosses Mitglied der Oortschen Wolke die Erde trifft und eine globale Katastrophe auslöst; das Risiko eines solchen Ereignisses indes wird meines Erachtens überschätzt.


Freundliche Grüsse, Ralf

Skeltek
Site Admin
Site Admin
Beiträge: 5081
Registriert: 25. Mär 2008, 23:51
Wohnort: Stuttgart, Germany
Kontaktdaten:

Re: Super KI? Keine gute Idee

Beitrag von Skeltek » 19. Jan 2021, 22:10

Hi Ralf,
ich würde grob schätzen, daß die Wahrscheinlichkeit für Kometeneinschläge nur langsam abnimmt. Grob geschätzt wird die Summe des auf die Erde gefallenen Materials wohl logarithmisch ansteigen, die Einschlagswahrscheinlichkeit pro Jahr eher der Ableitung entsprechen. Die Formel wird wohl stark abgeflacht durch Expansion des Universums und Inhomogenität der Materieverteilung. Die Formel ist grob falsch, aber es hilft denke ich bei der Vorstellung, daß ein Einschlag zwar immer unwahrscheinlicher wird, aber nie Null wird.

Problematisch ist eben die Einstellung, daß es wohl nur selten passiert und man das Problem der Auslöschung der Menschheit noch nicht einmal durch eigene Ignoranz auf die Nachfahren verschieben muss, sondern einfach opportunistisch annehmen kann, daß es wohl erst in 200-50000 Jahren geschehen wird.
Gödel für Dummies:
  • Unentscheidbarkeit - Dieser Satz ist wahr.
  • Unvollständig - Aussage A: Es existiert nur ein Element A.
  • Widersprüchlich - Dieser Satz ist falsch.

Diagnostiker
Ehrenmitglied
Ehrenmitglied
Beiträge: 1212
Registriert: 7. Nov 2020, 10:28

Re: Super KI? Keine gute Idee

Beitrag von Diagnostiker » 20. Jan 2021, 07:46

@ Ralf Kannenberg
Doch ist das Risiko solcher Treffer wirklich so hoch ?
Ich bin von einem Zeithorizont von 1 Million Jahre ausgegangen, wo niemand sagen kann, welche Entwicklungen sich bezüglich der Menschheit und ihrer Möglichkeiten, Asteroiden zu erkennen und ggf. abzulenken, ergeben werden. In den nächsten Hundert oder Tausend Jahren ist die Wahrscheinlichkeit, dass die Erde von einem großen Asteroiden getroffen wird, sicher viel geringer.

Diagnostiker
Ehrenmitglied
Ehrenmitglied
Beiträge: 1212
Registriert: 7. Nov 2020, 10:28

Re: Super KI? Keine gute Idee

Beitrag von Diagnostiker » 20. Jan 2021, 07:57

@ Skeltek
Das Hauptproblem ist eben die Raffgier nach immer nur noch mehr Wohlstand und der Kampf um die Vergrößerung des eigenen Kuchenstücks.
Ich denke nicht, dass das das Hauptproblem ist. Das Hauptproblem ist die Kapitallogik, die darin besteht, dass man Geld investieren muss, um daraus noch mehr Geld zu erwirtschaften, damit das Getriebe am Laufen bleibt, weil anderenfalls die Konkurrenz die eigene Firma übernimmt bzw. wegen Insolvenz die eigene Firma zerschlagen und aufgelöst wird.

Damit entsteht ein sich selbst verstärkender Zyklus der Geldvermehrung, der - da Geldvermehrung ja zugleich an Wertvermehrung gekoppelt ist - das expansive Wirtschaftssystem nach sich zieht, welches potenziell auf ein unbegrenztes Wachstum orientiert ist, aber aufgrund endlicher Rssourcen notwendigerweise irgendwann kollabieren muss.

Die Frage ist nur noch wann und wie das geschieht. Raffgier wird es in Einzelfällen wohl auch geben, aber diese Charaktereigenschaft von einigen Unternehmern dürfte nicht generell auf Unternehmer zutreffen. Ich sehe es eher so, dass Unternehmer selber Getriebene sind im Getriebe der Kapitallogik.

Benutzeravatar
Frank
Ehrenmitglied
Ehrenmitglied
Beiträge: 6164
Registriert: 12. Dez 2005, 23:22
Wohnort: Odenwald

Re: Super KI? Keine gute Idee

Beitrag von Frank » 20. Jan 2021, 11:00

Diagnostiker hat geschrieben:
19. Jan 2021, 19:26


Ich weiß nicht, wieso Du aus meinem Hinweis, dass sich demnächst aufgrund diverser Krisen drängendere Probleme stellen werden als die Bewältigung von bis jetzt noch hypothetischen Gefährdungen durch eine KI, was ein Luxusproblem darstellt, "Sozialromantik" herauslesen zu müssen meinst.
Und ich weiß manchmal nicht, warum ich überhaupt zitiere...
Diagnostiker hat geschrieben:
19. Jan 2021, 14:33

dass sich spätestens dann erledigt haben wird, wenn die aufgelaufenen Problematiken der Ungerechtigkeiten in sozialen und politischen Angelegenheiten zu anderen Prioritäten führen werden.
Antwort
Frank hat geschrieben:
19. Jan 2021, 16:39


Der Klassiker, an denen sich ganze Generationen von Philosophen und auch "Weltverschlimmbesserern " schon abgearbeitet haben.

Kein Krieg, keine Hungersnot, keine Krankheit, überhaupt keine denkbare Ungerechtigkeit hat dazu geführt, dass sich die Menschen bis dato einmal grundlegend(!) geändert hätten. Ich lasse dich aber gerne in dem Glauben, wundere mich aber das du an anderer Stelle einen Technikoptimismus anprangerst, aber bei der Sozialromantik genau in dasselbe Muster fällst. :wn:
Und deswegen rede ich von "Sozialromantik, weil dir sage, dass du hier(meiner Ansicht nach) auf dem Holzweg bist und sich eben nichts erledigen wird




Diagnostiker hat geschrieben:
19. Jan 2021, 19:26

Es ist jedenfalls offensichtlich so, dass weltweit gesehen die sozialen Verwerfungen zunehmen, statt abnehmen.
Das sehe ich auch anders, denn hier an dem einen Beispiel sieht man, dass es durchaus Besserung gibt. Immer noch viel zu viel, aber ein Trend ist erkennbar.
Bildschirmfoto vom 2021-01-20 09-45-22.png
Bildschirmfoto vom 2021-01-20 09-45-22.png (78.11 KiB) 6034 mal betrachtet
https://de.statista.com/statistik/daten ... -weltweit/
Diagnostiker hat geschrieben:
19. Jan 2021, 19:26
Das sich zunehmend verschärfende Problem ist aber, dass diese Hoffnungen und Wünsche weltweit gesehen für die meisten Menschen nicht eingelöst werden können, so dass das Frustrationspotenzial steigt,
Ja und mit den Smartphones und immer mehr Internet für die Welt, wo jeder aus Brasilien sehen kann, was wir so machen und umgekehrt, wird das auch noch zunehmen.
Man verzeihe mir den Sarkasmus, "Entschuldigung das nicht jedem seine Wünsche und Vorstellungen in Erfüllung gehen"
Ist das bei dir denn immer so gewesen im Leben?
Diagnostiker hat geschrieben:
19. Jan 2021, 19:26
Um so schlimmer für den Rest der Welt, der das "Knattern" einfach nicht lassen kann, aber dennoch von einer Population zusätzlich belastet wird, die einfach 120 Jahre und länger leben will, gut leben will, versteht sich und nicht so schlecht wie der Rest, der nicht so lange leben kann, was dann wieder das Gerechtigkeitsproblem verschärft, denn "die meisten Menschen würden wer weiß was darum geben, wenn sie so leben könnten wie wir."
Was kann derjenige, der 120 Jahre leben will dafür, dass andere 10 oder mehr Kinder in die Welt setzen?
Sorry, aber deiner Argumentation hört sich so an, weil ja der große Rest das "Knattern" nicht lassen kann, darf auch der andere nicht 120 Jahre in Wohlstand leben, weil er ja die anderen , die das "Knattern" nicht lassen können zusätzlich belastet.

Hä?
Diagnostiker hat geschrieben:
19. Jan 2021, 19:26
Sorry, aber das ist aus meiner Sicht pure Science Fiction, was Du hier unter dem Schlagwort "Körperoptimierung" anbringst. Ich glaube nicht, dass das eine Basis für eine weiterführende Diskussion sein kann. Bleiben wir lieber bei dem, was realistisch und realisierbar erscheint. Da sehe ich nach wie vor die Biologie als grundlegende Basis an und nicht irgendwelche futuristische Robotik, die mit Menschen nichts zu tun hat, obwohl sie vielleicht einst durch Menschen erschaffen wird. Das ist dann jedoch keine Körperoptimierung, sondern Roboterdesign. Die Körper der Menschen, die dieses Design unternehmen, bleiben nach wie vor biologischer Natur und sind nicht robotische Ingenieurskunst. Vom gegenteil lasse ich mich gern überzeugen, aber bislang ist mir noch nichts untergekommen, was mich von einer möglichen Transferierung des Menschen vom Körper zur Maschine als machbare Prozedur überzeugt hätte - von den ethischen Problemen, die sich daraus ergeben ganz abgesehen.
Es geht nicht um die Transformation zum Roboter, sondern um den Austausch und die Optimierung des Verschleißes, die unseren Körper mit fortschreitendem Alter nun mal betreffen. Gelenke sind ja schon der Anfang, (ich selbst habe eine Vollprothese in der Hüfte. ) die natürlich noch "mitlaufen" mit dem Körper, ab er es sind inzwischen ganz andere Dinge in Planung. Vor allem was das Militär betrifft, aber auch,um den Arbeiter effektiver zu machen.
Natürlich bis jetzt nur als Endoskelett , aber das Militär braucht in Zukunft Soldaten , die rund um die Uhr einsatzbereit sind und nicht ihren "Anzug" mal ausziehen müssen.
Wie gesagt, noch ist das alles nur äußerlich, aber der Weg wird weiter gehen. Und die KI wird hier auch noch verwoben.

Ich war selbst 15 Monate bei der Bundeswehr und bei einer Kampfeinheit und eines kann ich dir sagen.
Mit so einem "optimierten Soldaten" , wollte ich es im Ernstfall nicht zu tun bekommen....... :shock:

https://www.ingenieur.de/technik/fachbe ... skeletten/

Wo wir aber dann auch zur Evolution, wie du fälschlicherweise irgendwie mit den Nationalsozialisten gleichgesetzt hast , oder what ever kommen.
Wer hier nicht mitzieht, der wird in den nächsten 50-100 Jahren auf der Erde nicht ausgerottet sein, aber er wird weltpolitisch keine Geige mehr spielen.
Es geht mir also um das Verbinden von Biolologie und Technik.
Ich hatte , wie ich auch erwähnt habe, die Borg nur zitiert, weil sich da jeder schnell etwas darunter vorstellen kann.
Das ist natürlich SIFI, aber alles andere ist entwickelbar und machbar in den nächsten 100 Jahren.


Diagnostiker hat geschrieben:
19. Jan 2021, 19:26
Ach na ja, in einer Million Jahren passiert plattentektonisch noch nicht sehr viel.... oder eben mal wieder ein großer Brocken aus der Oortschen Wolke,
Die afrikanische Platte bewegt sich im Schnitt 3,7 cm/Jahr auf Europa zu. Das sind in 1 Million Jahre 37 Km .
Die Straße von Gibraltar ist 44 Km breit/lang. Das wird aber reichen(und schon früher der Fall sein), weil vorher schon Hebung einsetzt, dass das Mittelmeer diesmal das letzte Mal verschlossen wird, also vom Atlantik abgetrennt und somit in relativ kurzer Zeit austrocknen wird. Der gesamte Mittelmeerraum wird dann versteppen und die Balearen sind Gipfel von Hochgebirgen. Darauf müssen die Menschen dann schon reagieren....
Ich gehe selbstverständlich davon aus, dass unsere Spezies so lange lebt.

https://de.wikipedia.org/wiki/Liste_der ... red-en.svg

Wobei ein imaginärer Brocken aus der Oortschen Wolke(was ein weiter Weg) im Vergleich nicht berechenbar ist.
Kann muss aber nicht unbedingt. Wahrscheinlichkeiten ja, weil oft vorgekommen..... aber nicht bestimmbar.
Und wenn bestimmbar, dann bis dato unmöglich etwas dagegen zu tun. :wn:
Diagnostiker hat geschrieben:
19. Jan 2021, 19:26
Das ist das viel größere Problem für unsere Zivilisation. Wenn die endlichen Ressourcen verbraucht sind, ist erst mal Schicht im Schacht und Schmalkost angesagt, bis nach dem Niedergang eine Talsohle erreicht ist, von der aus man allmählich wieder etwas aufbauen kann, was hoffentlich tragfähiger ist als das, was wir derzeit mit unseren Lebensgrundlagen anrichten. Eine expansive Wirtschaftsweise zur Aufrechterhaltung einer Industriekultur wird es jedenfalls so schnell nicht wieder geben, weil Kohle und Erdöl sind dann alle, und ob die inzwischen verschrotteten Solaranlagen und Windkrafträder noch einmal recycelt werden können, ist fraglich. Dann vielleicht doch lieber wieder zurück in eine Agrarkultur. Mal sehen ...
Wir werden nicht umhin kommen, uns in Zukunft alles irgendwie synthetisch herzustellen, wenn wir langfristig ohne die Horrovision(fürmich) einer Agrarkultur überleben wollen....
Frag mich aber nicht wie, dass muss die Wissenschaft klären. :wn:


Diagnostiker hat geschrieben:
19. Jan 2021, 19:26
Sechstes Jahrhundert bis zehntes Jahrhundert: Der Untergang Westroms und der lange Weg bis zur Etablierung des Heiligen Römischen Reiches, womit das Hochmittelalter begann. Indien im gleichen Zeitraum:
Warum wusste ich, dass du die Christianisierung ins Spiel bringst und den Jahrhunderte langen Glauben, dass irdische Darsein wäre nur als kurzen Übergang und Bewährung für das Paradies da?
Dadurch Stagnation, weil alles Gottes Wille und Schöpfung ist....
Deswegen stand aber die Technik nicht still. Römische Kultur, ob Architektur, Anbau, oder Kriegsführung wurden doch nicht in die Mottenkiste gesteckt.... Dazu kamen immer brachialere Bauwerke (meist im Zusammenhang mit dem Glauben), dass aufkommende Bürgertum, die Magna Carta, blühender Handel ...usw.
Über die anderen Beispiele kann ich nur soviel sagen, dass der Untergang diverser Kulturen schon immer da war, aber dafür ging es an einem anderen Punkt auf der Welt weiter, wo angeknüpft wurde.
Technische Fähigkeiten gingen und gehen auch heute noch verloren. Ews kommt nämlich auch darauf an, ob die Fähigkeit überhaupt noch gebraucht wird.

Oder glaubst du in 4-5 Generationen kann jemand noch einen Dieselmotor bauen?
Mit freundlichen Grüßen

Frank

Diagnostiker
Ehrenmitglied
Ehrenmitglied
Beiträge: 1212
Registriert: 7. Nov 2020, 10:28

Re: Super KI? Keine gute Idee

Beitrag von Diagnostiker » 20. Jan 2021, 11:52

@ Frank
dass du hier(meiner Ansicht nach) auf dem Holzweg bist und sich eben nichts erledigen wird
Doch, denn irgendwann wird es zu teuer werden, um sich noch mit solchen Dingen auseinanderzusetzen, weil die anderen Probleme, die sich aufschaukeln werden, andere Prioritäten setzen und damit die Mittel binden werden, die anderenfalls für gewisse Luxusprobleme vorbehalten wären. Mit Sozialromantik hat das übrigens überhaupt nichts zu tun, eher schon mit Wahrnehmung von sozialen Verwerfungen, die sich zu sozialen Spannungen entwickeln und sich schließlich als soziale Unruhen entladen werden, was dann eben Ressourcen bindet.
an dem einen Beispiel
Soziale Verwerfungen beschränken sich aber nicht auf Unterernährung. Soziale Verwerfungen ergeben sich über Ungleichverteilungen aufgrund systemischer Ungerechtigkeiten, die von den Betroffenen so wahrgenommen werden. Ein arbeitsloser Mensch hier, der Hartz 4 bekommt, wird sich wahrscheinlich weniger über Ungerechtigkeit beklagen als jemand, der andernorts möglicherweise als Gemüsehändler genauso viel Geld bekommt, aber aufgrund nicht gegebener Chancengleichheit keine Aufstiegsmöglichkeiten hat, um Karriere zu machen, obwohl er intellektuell dazu in der Lage wäre.

Blicken wir in die sogenannte "Dritte Welt" finden wir diese systemische Ungerechtigkeit in viel größerem Ausmaß als hier, so dass dort das Frustrationspotenzial viel höher ist als hier. Seinen Ausdruck findet das u.a. in Migrationsbewegungen weg von Afrika/Asien hin nach Europa in die dort vorhandenen Sozialsysteme und dort vorhandenen Chancen auf eine Berufsausbildung, sofern man sie lässt. Das ist langfristig viel konfliktträchtiger als die ebenfalls dramatische Situation des Hungers in speziell afrikanischen Staaten.
Ja und mit den Smartphones und immer mehr Internet für die Welt, wo jeder aus Brasilien sehen kann, was wir so machen und umgekehrt, wird das auch noch zunehmen.
Ja, und wie wirkt sich das langfristig auf die politische Stabilität in Brasilien aus? Derzeit sind Populisten in. Demnächst vielleicht wieder Militärdiktatoren? So lange wie man von dort nicht hierher kommen kann - der Atlantische Ozean ist nun mal ein wirksames Hindernis - kann uns das einstweilen egal sein, aber wenn das mit der Regenwaldabholzung zum Nutzen europäischen Fleischkonsums so weiter geht, wirken sich die Folgen irgendwann eben doch auch auf Europa aus, wenn dort die Sojaplantagen vertrocknen und die Rinderherden verdursten. Und dann haben wir die veränderten Prioritäten, auf die ich hingewiesen hatte.
Was kann derjenige, der 120 Jahre leben will dafür, dass andere 10 oder mehr Kinder in die Welt setzen?
Nichts. Aber was kann derjenige, der in einem armen Land 10 Kinder zur Altenvorsorge in die Welt setzt (von denen ja noch die meisten wegsterben wegen Krankheiten oder Hunger oder Arbeitsunfällen während der Kinderarbeit) dafür, dass man sich im Luxusland den Luxus leistet, in Langlebigkeit in Wohlstand zu investieren? Auch nichts. Na gut, aber dennoch ergibt sich daraus eine Zusatzbelastung für die bereits jetzt belasteten Ökosysteme, auf denen unser Wohlstand basiert. An diesem Fakt kommt man nun mal nicht vorbei.
Es geht nicht um die Transformation zum Roboter, sondern um den Austausch und die Optimierung des Verschleißes, die unseren Körper mit fortschreitendem Alter nun mal betreffen.
O.K., aber was hat das dann mit Energieeinsparung im Sinne von Nahrungsreduktion zu tun?
Wer hier nicht mitzieht, der wird in den nächsten 50-100 Jahren auf der Erde nicht ausgerottet sein, aber er wird weltpolitisch keine Geige mehr spielen.
Was das betrifft, ist die Welt ohnehin bereits unter USA, Russland und China aufgeteilt. Oder meinst Du ernsthaft, Europa bzw. einer der europäischen Staaten spielt heute weltpolitisch noch eine Geige? Auch hier sind die Claims längst abgesteckt, wobei wir hier zum Interessensgebiet der USA gehören, aber über Nordstream 2 sowie die Neue Seidenstraße auch Einflüsse von Russland und China stärker zu spüren bekommen werden. Europa ist doch längst Spielwiese fremder Interessen geworden, statt selber ein Global Player zu sein. Was das betrifft, ist der Zug schon lange abgefahren, so dass wir hier ruhig ein paar Gänge zurückschalten können, was die technologische Aufrüstung betrifft.
Die afrikanische Platte bewegt sich im Schnitt 3,7 cm/Jahr auf Europa zu.
Kann sein, dass sich die Straße von Gibraltar wieder schließt, wobei sich die iberische Halbinsel ja ebenfalls nach Norden bewegt und die Pyrenäen auffaltet. Und der Rheingraben ist auch noch nicht zur Ruhe gekommen, so dass hier ebenfalls die Möglichkeit besteht, dass sich die Kontinentalplatte nach Norden verschiebt und sich im Zentralmassiv ein paar neue Vulkane öffnen. Warten wir es einfach mal ab, was sich da noch so tut ...
Darauf müssen die Menschen dann schon reagieren...
Wir bauen einen Kanal und lassen die Afrikaner alles bezahlen, damit sie auf der anderen Seite des Kanals bleiben ... (frei nach Trump)
Und wenn bestimmbar, dann bis dato unmöglich etwas dagegen zu tun.
So sieht es aus. Vielleicht kann man einfach mal akzeptieren, dass unsere Existenz auf der Erde endlich ist und ein natürliches Ende finden wird, statt die Voraussetzungen dafür, dass wir hier leben können, dauerhaft zu ruinieren, um gegen hypothetische Szenarien anzukämpfen, die uns auslöschen könnten. Deshalb: Wir müssen nicht raus, auch wenn es immer wieder erzählt wird, um ressurcenverschwenderische Projekte zu realisieren.
Wir werden nicht umhin kommen, uns in Zukunft alles irgendwie synthetisch herzustellen
Oder wir besinnen uns darauf, dass small beautyful ist: Statt immer mehr und immer besser eben mit dem haushalten was man hat und es schätzen lernen. Das spart Kapazitäten, die auf das Erzeugen eines Analogons zur Banane als Nahrung bei Dauerläufen hinauslaufen. Bananen haben wir schon ...
dass du die Christianisierung ins Spiel bringst
Es ging mir nicht um Christianisierung, sondern um Zusammenbrüche, wo es technologisch rückwärts ging. Und die reduzieren sich nun mal nicht auf Christianisierung, sondern fanden weltweit verteilt statt. Nichts ist für die Ewigkeit. Auch Fortschritt hat mal einen Rückschritt.
Oder glaubst du in 4-5 Generationen kann jemand noch einen Dieselmotor bauen?
Meinst Du, jetzt kann jemand einen Chip bauen? So etwas läuft vollautomatisch. Wenn die Automaten kaputt sind, gibt es auch keine Chips. Dieselmotoren könnte man mittels feinmechanischer Maschinen und einem kompetenten Dreher jederzeit nachbauen, wenn die Konstruktionspläne vorhanden sind. Ein paar Kilo Metall in Halbzeugen geliefert reicht aus. Alles weitere ist nur noch anlernbares Handwerk. Bei Chips ist das etwas anders ...

Herr5Senf
Senior-Master
Senior-Master
Beiträge: 849
Registriert: 3. Mär 2017, 20:46

Re: Super KI? Keine gute Idee

Beitrag von Herr5Senf » 1. Feb 2021, 15:35

Musk hat einem Schimpansen einen Neurolink implantieren lassen :well: jetzt kann der Computerspiele :sp:
https://www.bloomberg.com/news/articles ... videogames
mit unseren Verwandten :beer: wer ist besser - Dip

Benutzeravatar
seeker
Ehrenadmin
Ehrenadmin
Beiträge: 8098
Registriert: 26. Dez 2009, 10:29

Re: Super KI? Keine gute Idee

Beitrag von seeker » 6. Feb 2021, 12:40

Zur "Super-KI", damit ist gemeinhin eine "universelle künstliche Intelligenz" gemeint:

Zunächst muss man sehen, dass es so etwas heute nicht gibt, es gibt nicht einmal "spezialisierte künstliche Intelligenzen".
Es wird auch in 30 Jahren noch keine universelle künstliche Intelligenz geben und ob es sie jemals geben wird ist nicht gewiss.
Was es gibt, sind Mustererkenner, die nicht wissen, was sie tun, die aber über Gewichtungen und Rückkopplungsstrukturen zu guten, brauchbaren Ergebnissen kommen. Das allein ist schon umwälzend und diskutabel genug, aber mit einem 'Deus ex Machina' hat es noch nichts, aber gar nichts zu tun.
Was da also diskutiert wird sind Gedankenspiele: Man redet dabei auch noch über etwas, über das man eigentlich gar nicht genau reden kann - eben weil es das nicht gibt und wir nicht wissen, was und wie das genau wäre, wenn es das gäbe.

Ich finde es dennoch gut und wichtig, dass man auch jetzt schon in dieser Richtung denkt, um auch rechtzeitig agieren zu können, statt von den Entwicklungen immer nur getrieben zu sein, nur im Nachhinein reagieren zu können, denn manchmal ist es dann zu spät.
Unser allgemeines Problem ist ja, dass die Welt inzwischen so komplex geworden ist, dass unsere Prognosemöglichkeiten immer mehr eingeschränkt werden, d.h.: Wir haben längst die Kontrolle verloren, falls wir die überhaupt jemals hatten. Und es ist eh fraglich, ob es ein "wir" gibt. Wer soll das sein, besonders global gesehen?
Die Zivilisation ist ein Schiff, das ohne Pläne gebaut wurde und führerlos dahinschlingert. Es fehlt ihr an spiritueller Verbundenheit, mit deren Hilfe sie bewusst einen Kurs hätte wählen können, der eben nicht in die Katastrophe mündet. Stattdessen lässt man sich von den Strömungen zufälliger Entdeckungen treiben und vertraut blindlings den Angeboten, die kurzfristig größtmöglichen Profit versprechen. Wir haben uns auf ein Spiel mit der Natur eingelassen und dabei eine Partie nach der anderen gewonnen. Aber wir lassen uns derart in die Konsequenzen unserer Siege verwickeln, dass statt einer vernünftigen Strategie nur vordergründige Taktik betrieben wird.
Stanislaw Lem

...was aber nicht heißt, dass man die Hoffnung aufgeben und nichts tun sollte, wir haben die Pflicht zu hoffen und das zu versuchen, was uns möglich ist, um die Dinge zum Besseren zu wenden:
"Ich sehe Hoffnung im kantischen Sinne als eine Pflicht eher als eine Haltung. Wenn wir aufhören zu hoffen, kommt nur Resignation und Zynismus. Und Resignation und Zynismus haben nie die Welt zum Besseren gebracht. Ergo hat man eine Pflicht zu hoffen, weil man nur mit dieser Hoffnung handeln kann."
Susan Neiman
Grüße
seeker


Wissenschaft ... ist die Methode, kühne Hypothesen aufstellen und sie der schärfsten Kritik auszusetzen, um herauszufinden, wo wir uns geirrt haben.
Karl Popper

Antworten