Hinweis auf die DSGVO: Auf unserer Seite werden keine Dritt-Anbieter-Cookies verwendet und nur Daten erfasst, welche für das Minimum an Board-Funktionalität notwendig sind.
Bevor Sie sich registrieren oder das Board verwenden, lesen Sie bitte zusätzlich die DSGVO-Erklärung, welche in der Navigationsleiste verlinkt ist.

Kurzfassung der unserer Meinung nach wichtigsten DSGVO-Punkte:
Es kann vorkommen, dass Benutzer eigenverantwortlich Videos oder sonstige Medien in ihren Beiträgen verlinken, welche beim Aufruf der Forenseite als Teil der Seite samt zugehörigem Material mitgeladen werden. Sollten Sie dies nicht wünschen, verwenden Sie beim Benutzen des Forums einen Blocker wie z.B. uMatrix, welcher das Laden von Inhaltsblöcken von Fremd-URLs effektiv unterbinden kann.
Wir blenden keine Werbung ein und schränken die Inhalte in keinster Weise bei Benutzung von Addblockern ein. Dadurch ist die Grundfunktionalität des Forums auch bei vollständigem Blockieren von Drittanbieter-Inhalten stets gegeben.

Cookies werden unsererseits nur verwendet um das Einloggen des Benutzers für die Dauer der Forenbenutzung zu speichern. Es steht dem Benutzer frei die Option 'Angemeldet bleiben' zu verwenden, damit der Cookie dauerhaft gespeichert bleibt und beim nächsten Besuch kein erneutes Einloggen mehr notwendig ist.
EMail-Adressen werden für Kontakt bei wichtigen Mitteilungen und zur Widerherstellung des Passwortes verwendet. Die verwendeten IPs können von uns ohne externe Hilfsmittel mit keiner realen Person in Verbindung gebracht werden und werden nach spätestens 7 Tagen gelöscht. Diese IPs werden höchstens verwendet um Neuanmeldungen unerwünschter oder gesperrter Nutzer zu identfizieren und zu unterbinden. Wir behalten uns daher vor bei Verdacht, die Frist für die IP-Löschung auf maximal 14 Tage zu verlängern.
Unsere Webseite läuft auf einem virtuellen Linux-Server, welcher von einem externen Anbieter gehostet wird. Etwaige Verstöße der DSGVO-Auflagen seitens dieses deutschen Hosters können wir nicht feststellen und somit auch nicht verfolgen.
Wir halten Backups unserer Datenbanken, welche in regelmäßigen Abständen als Schutz vor Katastrophen, Hackerangriffen und sonstigen Ausfällen erstellt werden. Sollte ein Nutzer die Löschung seiner Daten wünschen, betrachten wir es als Unzumutbar die Backups auch von den Daten zu befreien, da es sich hierbei um eine mehrtägiges Unterfangen handelt - dies ist für eine Einzelperson beim Betrieb eines privaten Forums nicht zumutbar möglich ohne das Backup komplett zu löschen.
Sollten Sie etwas gegen die dauerhafte anonyme Speicherung ihrer EMail-Adresse, ihres Pseudonyms und ihrer Beiträge in einem Backup haben, sehen Sie von der Registrierung in diesem Forum ab. Für Mitglieder, welche vor dem 25.05.2018 registriert waren steht jedoch das Recht im Raum, eine Löschung der Datenbank-Backups zu beantragen.



Wenn dies Ihr erster Besuch hier ist, lesen Sie bitte zunächst die FAQs sowie die wesentlichen Regeln zur Benutzung des Forums.
Um an den Diskussionen teilnehmen zu können, müssen Sie sich zunächst registrieren.

Algorithmen auf dem Richterstuhl

Wissenschaftsgeschichte, Wissenschaftstheorie bzw. -philosophie, Technik
Benutzeravatar
Frank
Ehrenmitglied
Ehrenmitglied
Beiträge: 3810
Registriert: 12. Dez 2005, 23:22
Wohnort: Odenwald

Re: Algorithmen auf dem Richterstuhl

Beitrag von Frank » 29. Jan 2018, 13:27

ralfkannenberg hat geschrieben:
29. Jan 2018, 12:29

Hallo Dgoe,

vielleicht doch, wenn Du weisst, dass mit dieser Software Deine Überlebenswahrscheinlichkeit 100x grösser ist als wenn Du selber fährst.

Ok, weil Du ein weit überdurchschnittlich guter Autofahrer bist: dass mit dieser Software Deine Überlebenswahrscheinlichkeit 98x grösser ist
An dieser Stelle klinke ich mich jetzt aus. :lol:
Mit freundlichen Grüßen

Frank

Benutzeravatar
Dgoe
wohnt hier!
wohnt hier!
Beiträge: 395
Registriert: 20. Nov 2017, 17:32

Re: Algorithmen auf dem Richterstuhl

Beitrag von Dgoe » 29. Jan 2018, 13:33

:lol: der war gut. Franks arme Nerven *mitleid*
Der Optimist glaubt, dass wir in der besten aller möglichen Welten leben. Der Pessimist befürchtet, dass der Optimist damit Recht hat.

Benutzeravatar
ralfkannenberg
Ehrenmitglied
Ehrenmitglied
Beiträge: 1644
Registriert: 13. Jan 2017, 10:00

Re: Algorithmen auf dem Richterstuhl

Beitrag von ralfkannenberg » 29. Jan 2018, 13:37

Frank hat geschrieben:
29. Jan 2018, 13:27
Hallo Frank,

wieso ? Der Quotient der beiden von Tom genannten Zahlen ergibt doch 100 ...


Freundliche Grüsse, Ralf

Benutzeravatar
ralfkannenberg
Ehrenmitglied
Ehrenmitglied
Beiträge: 1644
Registriert: 13. Jan 2017, 10:00

Re: Algorithmen auf dem Richterstuhl

Beitrag von ralfkannenberg » 29. Jan 2018, 13:39

Dgoe hat geschrieben:
29. Jan 2018, 13:05
Man schaue sich mal entsprechende YT-Clips an, wo die Fahrer sofort das Lenkrad übernehmen, weil die KI halsbrecherisch und viel zu schnell in einer kurvigen Strecke schon im äußersten Rand der Spur dahinjagdt beispielsweise und vieles mehr.
Hallo Dgoe,

KI bedeutet "künstliche Intelligenz" und nicht wie im YT-Filmchen suggeriert "künstliche Idiotie".

Keine brauchbare Software wird halsbrecherisch fahren oder am äußersten Rand der Spur dahinjagen.


Freundliche Grüsse, Ralf

Benutzeravatar
Dgoe
wohnt hier!
wohnt hier!
Beiträge: 395
Registriert: 20. Nov 2017, 17:32

Re: Algorithmen auf dem Richterstuhl

Beitrag von Dgoe » 29. Jan 2018, 13:53

ralfkannenberg hat geschrieben:
29. Jan 2018, 13:37
Hallo Frank,

wieso ? Der Quotient der beiden von Tom genannten Zahlen ergibt doch 100 ...
Hallo Ralf,

ich antworte mal für Frank, aus meiner Sicht.

Das sind ja gerade diese Behauptungen, die ich meinte. Mag das Podium und Tom diese für realistisch halten, ich tue es nicht. Einfach von der bekannten Zahl (die so genau gar nicht bekannt ist, soviel ich weiß) an menschlichem Versagen hochzurechnen bzw. mit einer perfekten idealen KI dagenhaltend, ist eben sehr geschönt, mMn.

Die Fehler und das Versagen der KIs ist ja auch noch da. Wie sieht es beispielsweise damit aus, wenn man Richtung der tief liegenden (Abend-)Sonne fährt? Oder in einer Wetterküche mit vielen Refexionen? In vielen Situationen, in denen Menschen auch irritiert sind und Fehler machen, mag eine KI auch nicht immer perfekt sein und ihre eigenen Sinnestäuschungen mitbringen, etc.

Gruß,
Dgoe
Der Optimist glaubt, dass wir in der besten aller möglichen Welten leben. Der Pessimist befürchtet, dass der Optimist damit Recht hat.

Benutzeravatar
Frank
Ehrenmitglied
Ehrenmitglied
Beiträge: 3810
Registriert: 12. Dez 2005, 23:22
Wohnort: Odenwald

Re: Algorithmen auf dem Richterstuhl

Beitrag von Frank » 29. Jan 2018, 13:55

Dgoe hat geschrieben:
29. Jan 2018, 13:33
:lol: der war gut. Franks arme Nerven *mitleid*
Jep, wenn Mathematiker das Leben rechnerisch lösen wollen , dann wird es lustig.
Mit freundlichen Grüßen

Frank

Benutzeravatar
Dgoe
wohnt hier!
wohnt hier!
Beiträge: 395
Registriert: 20. Nov 2017, 17:32

Re: Algorithmen auf dem Richterstuhl

Beitrag von Dgoe » 29. Jan 2018, 13:57

ralfkannenberg hat geschrieben:
29. Jan 2018, 13:39
KI bedeutet "künstliche Intelligenz" und nicht wie im YT-Filmchen suggeriert "künstliche Idiotie".
Erst gucken, dann lästern.
ralfkannenberg hat geschrieben:
29. Jan 2018, 13:39
Keine brauchbare Software wird halsbrecherisch fahren oder am äußersten Rand der Spur dahinjagen.
Und sie tuen es doch!

Gruß,
Dgoe
Der Optimist glaubt, dass wir in der besten aller möglichen Welten leben. Der Pessimist befürchtet, dass der Optimist damit Recht hat.

Benutzeravatar
Dgoe
wohnt hier!
wohnt hier!
Beiträge: 395
Registriert: 20. Nov 2017, 17:32

Re: Algorithmen auf dem Richterstuhl

Beitrag von Dgoe » 29. Jan 2018, 14:12

Noch ein Beispiel passend zum Richterstuhl-Thema.

Letztens stand ein Lieferwagen in einem abgelegenen Stadtteil einfach auf der Spur, keiner da. Nur war da auch eine durchgezogene Linie, weil etwas weiter eine leichte Kurve kam.
Ich hatte mich dann davon überzeugen können, dass kein Gegenverkehr kam, weil ich es immernoch weit genug einsehen konnte und bin über die durchgezogene Linie gefahren (strafbar), das Hindernis gefahrlos hinter mich lassend.

Eine KI hätte angehalten und man hätte nebenan einen Kaffee trinken gehen können, bis der Fahrer des Lieferwagens wieder auftaucht.

Mit Ausnahmesituationen umzugehen, kann der Mensch wahrscheinlich immernoch besser...

Gruß,
Dgoe
Der Optimist glaubt, dass wir in der besten aller möglichen Welten leben. Der Pessimist befürchtet, dass der Optimist damit Recht hat.

Benutzeravatar
ralfkannenberg
Ehrenmitglied
Ehrenmitglied
Beiträge: 1644
Registriert: 13. Jan 2017, 10:00

Re: Algorithmen auf dem Richterstuhl

Beitrag von ralfkannenberg » 29. Jan 2018, 15:24

Dgoe hat geschrieben:
29. Jan 2018, 13:53
Das sind ja gerade diese Behauptungen, die ich meinte. Mag das Podium und Tom diese für realistisch halten, ich tue es nicht. Einfach von der bekannten Zahl (die so genau gar nicht bekannt ist, soviel ich weiß) an menschlichem Versagen hochzurechnen bzw. mit einer perfekten idealen KI dagenhaltend, ist eben sehr geschönt, mMn.
Hallo Dgoe,

zu diesem Thema wird es Studien und Sicherheitsprüfungen geben. Wenn diese ergeben, dass die verwendete AI schlechter ist als der Mensch, dann wird diese AI nicht zum Einsatz kommen. So einfach ist das. Da wird auch nichts geschönt, da wird dann ganz banal ausgerechnet.

Heute müssen wir noch im Konjunktiv sprechen, weil es diese Studien nicht gibt, weil die AI noch nicht verfügbar ist.

Das haben wir übrigens auch heute schon: wenn die Prüfung des neuen Bankautomaten ergibt, dass dieser bei der Auszahlung die Banknoten zerreisst, dann wird dieser Bankautomat nicht zugelassen werden.

Dgoe hat geschrieben:
29. Jan 2018, 13:53
Die Fehler und das Versagen der KIs ist ja auch noch da. Wie sieht es beispielsweise damit aus, wenn man Richtung der tief liegenden (Abend-)Sonne fährt? Oder in einer Wetterküche mit vielen Refexionen? In vielen Situationen, in denen Menschen auch irritiert sind und Fehler machen, mag eine KI auch nicht immer perfekt sein und ihre eigenen Sinnestäuschungen mitbringen, etc.
Dieselbe Antwort: zu diesem Thema wird es Studien und Sicherheitsprüfungen geben. Wenn diese ergeben, dass die verwendete AI schlechter ist als der Mensch, dann wird diese AI nicht zum Einsatz kommen. So einfach ist das.


Freundliche Grüsse, Ralf

Benutzeravatar
ralfkannenberg
Ehrenmitglied
Ehrenmitglied
Beiträge: 1644
Registriert: 13. Jan 2017, 10:00

Re: Algorithmen auf dem Richterstuhl

Beitrag von ralfkannenberg » 29. Jan 2018, 15:27

Dgoe hat geschrieben:
29. Jan 2018, 13:57
ralfkannenberg hat geschrieben:
29. Jan 2018, 13:39
KI bedeutet "künstliche Intelligenz" und nicht wie im YT-Filmchen suggeriert "künstliche Idiotie".
Erst gucken, dann lästern.
Hallo Dgoe,

wozu ? Aus dem, was Du schreibst, erkenne ich doch sofort, welcher Unsinn im YT-Filmchen vermittelt wird.

Dgoe hat geschrieben:
29. Jan 2018, 13:57
ralfkannenberg hat geschrieben:
29. Jan 2018, 13:39
Keine brauchbare Software wird halsbrecherisch fahren oder am äußersten Rand der Spur dahinjagen.
Und sie tuen es doch!
Nein: ich habe das Adjektiv "brauchbar" verwendet. Und eine Software, die so wie von Dir beschrieben fährt, ist nicht brauchbar.


Freundliche Grüsse, Ralf

Benutzeravatar
ralfkannenberg
Ehrenmitglied
Ehrenmitglied
Beiträge: 1644
Registriert: 13. Jan 2017, 10:00

Re: Algorithmen auf dem Richterstuhl

Beitrag von ralfkannenberg » 29. Jan 2018, 15:28

Dgoe hat geschrieben:
29. Jan 2018, 14:12
Eine KI hätte angehalten und man hätte nebenan einen Kaffee trinken gehen können, bis der Fahrer des Lieferwagens wieder auftaucht.
Hallo Dgoe,

ist das schlimm, dass die AI-Lösung so vorsichtig fährt ?


Freundliche Grüsse, Ralf

Benutzeravatar
Dgoe
wohnt hier!
wohnt hier!
Beiträge: 395
Registriert: 20. Nov 2017, 17:32

Re: Algorithmen auf dem Richterstuhl

Beitrag von Dgoe » 29. Jan 2018, 16:51

ralfkannenberg hat geschrieben:
29. Jan 2018, 15:24
Heute müssen wir noch im Konjunktiv sprechen, weil es diese Studien nicht gibt, weil die AI noch nicht verfügbar ist.
Hallo Ralf,

siehst Du, es fehlen belastbare Voraussetzungen um etwas zu berechnen. Zumindest habe ich noch nicht nach neueren Quellen recherchiert und ihr habt in diesem Thread auch keine konkreten Quellen genannt.

Dafür habe ich nicht nur ein "Filmchen", sondern über Monate (gar Jahre) hinaus immer wieder welche gesehen, statt Fernzusehen, da mich das Thema u.a. schon lange interessiert. Da will mir auch niemand etwas aufschwatzen oder "vermitteln", das sind meist Erfahrungsberichte, oft auch gar nicht mit dem Thema KI im Vordergrund, sondern beispielsweise über Tesla, von Kunden, die den fahren und man kann mit aus dem Fenster gucken.

Das sind für mich multiple Quellen aus erster Hand und die haben sich nicht alle verschworen KIs fertigzumachen oder so. Deine Kritik finde ich überheblich. Ich traue dem jedenfalls mehr, als irgendwelchen Presseartikeln die ohne Quellen irgendwelche Zahlen nachplappern.

Ich war ja auf keiner Tagung, hab das nur gelesen. Vielleicht eine Frage @tomS, hat auf der Tagung jemand die Zahlen hinterfragt und gibt es echte Studien, die den Vortrag unterlegen?


@Ralf: Und nenne mir eine in Deinem Sinne brauchbare KI in einem Auto!
Oder nenne mir welche, die als nicht brauchbar gekennzeichnet herumfahren.

Gruß,
Dgoe
Der Optimist glaubt, dass wir in der besten aller möglichen Welten leben. Der Pessimist befürchtet, dass der Optimist damit Recht hat.

Benutzeravatar
ralfkannenberg
Ehrenmitglied
Ehrenmitglied
Beiträge: 1644
Registriert: 13. Jan 2017, 10:00

Re: Algorithmen auf dem Richterstuhl

Beitrag von ralfkannenberg » 29. Jan 2018, 17:41

Dgoe hat geschrieben:
29. Jan 2018, 16:51
siehst Du, es fehlen belastbare Voraussetzungen um etwas zu berechnen. Zumindest habe ich noch nicht nach neueren Quellen recherchiert und ihr habt in diesem Thread auch keine konkreten Quellen genannt.
Hallo Dgoe,

auch bei Medikamenten kann man Studien erst machen, nachdem das Medikament verfügbar ist. Ok, man kann versuchen, etwas zu simulieren, und solche Ergebnisse können auch die Forschung dahingehend beeinflussen, wo man detailliertere Forschung ansetzen soll. Aber das reicht bei weitem nicht aus, um ein Medikament am Markt zuzulassen; hierfür braucht es Praxisstudien genügender Zeitdauer.

Dgoe hat geschrieben:
29. Jan 2018, 16:51
Das sind für mich multiple Quellen aus erster Hand und die haben sich nicht alle verschworen KIs fertigzumachen oder so. Deine Kritik finde ich überheblich. Ich traue dem jedenfalls mehr, als irgendwelchen Presseartikeln die ohne Quellen irgendwelche Zahlen nachplappern.
Das hat mit Nachplappern reichlich wenig zu tun: zu einer AI, die es noch nicht gibt, kann man auch keine Studie erstellen.

Dgoe hat geschrieben:
29. Jan 2018, 16:51
Vielleicht eine Frage @tomS, hat auf der Tagung jemand die Zahlen hinterfragt und gibt es echte Studien, die den Vortrag unterlegen?
Wie gesagt, es gibt keine Studien. Somit sind das Beispielszahlen. Und ja - wenn sich die Zahl der Opfer von 30000 auf 300 reduzieren lässt, so ist die Alternative sehr sinnvoll. Dann kann man auch ohne jede Realisierung feststellen.

Selbstverständlich wird nach Fertigstellung der neuen Software eine entsprechende Studie erforderlich sein, um sicherzustellen, dass diese geschätzten Werte auch erreicht werden. Aber davon ist man doch noch meilenweit entfernt !

Dgoe hat geschrieben:
29. Jan 2018, 16:51
@Ralf: Und nenne mir eine in Deinem Sinne brauchbare KI in einem Auto!
Oder nenne mir welche, die als nicht brauchbar gekennzeichnet herumfahren.
Meines Wissens befinden sich die derzeit verfügbaren Autos in einer Testphase, d.h. da ist - bezahltes (!!) - Testpersonal drin, das jederzeit eingreifen kann. Und ja - bei den bisherigen tödlichen Unfällen hat dieses bezahlte Testpersonal mit dem Smartsphone herumgespielt oder war anderweitig unaufmerksam statt auf den Verkehr aufzupassen.

Von der Beurteilung, ob diese AI "brauchbar" ist, ist man also noch weit entfernt, d.h. hier ist noch viel Arbeit erforderlich. Und auch Testpersonal, welches nicht nur das Geld einkassiert, sondern auch seine Aufgaben korrekt wahrnimmt.


Freundliche Grüsse, Ralf

Benutzeravatar
Dgoe
wohnt hier!
wohnt hier!
Beiträge: 395
Registriert: 20. Nov 2017, 17:32

Re: Algorithmen auf dem Richterstuhl

Beitrag von Dgoe » 29. Jan 2018, 18:27

Hallo Ralf,

wie gesagt, ich halte diesen Quotienten für stark übertrieben und habe meine Begründung dargelegt. Immerhin klaffen unsere Meinungen mittlerweile wesentlich weniger weit auseinander.

Eigentlich sollte ich aber der Freak sein, der Technikbegeisterte Laie, der alles Auffindbare in die Waagschale wirft, um den neuesten Stand zu preisen, vor Optimismus strotzend - und Ihr als Physiker und Mathematiker diejenigen, welche mich auf den Boden der Realität zurückholen, das Ganze relativierend usw.

Ich wäre aber bestimmt weniger skeptisch, wenn ich mich weniger damit befasst hätte.
Ich bin aber auch überrascht, wie schnell die Fortschritte voran gehen, Google fuhr "früher" nur Autobahn, jetzt auch Stadt und es gibt viele Mitbewerber.

Amerikanische Städte sind idR. aber auch, hmm, anders! Stichwort Schachbrett. Wenn die den Wagen mal einen Tag in Paris, Südfrankreich, Italien oder gar in Fernost fahren lassen, kann man die Überreste wahrscheinlich schon mittags am örtlichen Schrottplatz wieder abholen.

:mrgreen: :bond:

Übrigens gut, dass hier jeder seine Meinung sagen kann und es noch gesittet zugeht, war zum Mitlesen für mich auch interessant der Thread.

Gruß,
Dgoe
Der Optimist glaubt, dass wir in der besten aller möglichen Welten leben. Der Pessimist befürchtet, dass der Optimist damit Recht hat.

Benutzeravatar
ralfkannenberg
Ehrenmitglied
Ehrenmitglied
Beiträge: 1644
Registriert: 13. Jan 2017, 10:00

Re: Algorithmen auf dem Richterstuhl

Beitrag von ralfkannenberg » 29. Jan 2018, 19:09

Dgoe hat geschrieben:
29. Jan 2018, 18:27
wie gesagt, ich halte diesen Quotienten für stark übertrieben und habe meine Begründung dargelegt.
Hallo Dgoe,

dieser Quotient ist doch nur beispielhaft. Aber wenn er diesen Wert dann eines Tages tatsächlich erreicht - und ich habe keinerlei Zweifel daran, dass das gelingen wird - dann muss die Frage erlaubt sein, ob man solche Technologien für den Verkehr zulassen will oder nicht.


Freundliche Grüsse, Ralf

Benutzeravatar
Dgoe
wohnt hier!
wohnt hier!
Beiträge: 395
Registriert: 20. Nov 2017, 17:32

Re: Algorithmen auf dem Richterstuhl

Beitrag von Dgoe » 29. Jan 2018, 19:31

Hallo Ralf,

wie kannst Du Dir so sicher sein? Und wie begründest Du diese Sicherheit? Du hast woanders schon wochenlange Argumentationen formuliert, wieso man nicht einfach so dahergehen kann und nun machst Du es selber. Oder?

Gruß,
Dgoe
Der Optimist glaubt, dass wir in der besten aller möglichen Welten leben. Der Pessimist befürchtet, dass der Optimist damit Recht hat.

Benutzeravatar
tomS
Administrator
Administrator
Beiträge: 10261
Registriert: 19. Nov 2007, 20:29
Wohnort: Nürnberg

Re: Algorithmen auf dem Richterstuhl

Beitrag von tomS » 29. Jan 2018, 20:37

Wie gesagt, du weichst meiner Meinung nach der Frage aus – siehe unten.
seeker hat geschrieben:
29. Jan 2018, 01:21
Das Google-Auto hat in den USA ich glaube 3 Millionen km zurückgelegt, ohne dass so eine Situation eingetreten wäre.
Die Frage ist, wie sich ein Auto in einer konkreten Situation konkret verhalten soll – nicht, ob diese Situation schon einmal eingetreten ist oder nicht. Sie kann prinzipiell eintreten, daher muss man sich dieser Frage stellen und sie beantworten.
seeker hat geschrieben:
29. Jan 2018, 01:21
Oder denkst du, dass die autonomen Fahrzeuge nicht erlaubt werden, weil wir an der Stelle vor unlösbaren ethischen Problemen stehen?
Auch das ist ein Problem, darauf hatte ich bereits hingewiesen:

Die erste Frage ist, ob wir autonomes Fahren nicht zulassen sollen, solange die Frage der Bewertung von Menschenleben und die entsprechende Implementierung nicht abschließend geklärt sind. Die zweite Frage lautet, ob wir autonomes Fahren dennoch zulassen, weil wir wissen, dass wir so deutlich mehr Menschenleben retten – und damit jedoch zwingend irgendeine Vorgabe zur Bewertung erlassen müssen. Und falls letzteres mit ja beantwortet wird, sind wir wieder bei der Frage nach der konkreten Bewertungsregel.
seeker hat geschrieben:
29. Jan 2018, 01:21
tomS hat geschrieben:
28. Jan 2018, 22:07
Ich habe den Pseudocode oben hingeschrieben. Er besagt, dass bei physikalisch nicht vermeidbarer Kollision ein Ziel gewählt wird. Wie lautet dafür deine Bewertungs- bzw. Sortierfunktion?
Da kommt es zunächst einmal darauf an, was das Auto mit seinen Sensoren überhaupt erkennen und unterscheiden kann und wie gut. Perfekt wird das nie sein.
Nein, das ist nicht die Frage.

Der Punkt ist nicht, dass man evtl. aus der Nummer rauskommt, weil die Präzision (noch) nicht ausreichend ist – die Frage ist vielmehr , wie man vorgeht, wenn die Erkennung präzise genug ist – was heute schon absehbar ist.

Das ist das, was ich meine, wenn ich behaupte, du weichst der Frage aus. Es geht nicht darum, die Fragestellung aufzuweichen oder Möglichkeiten in Abrede zu stellen, die Experten in naher Zukunft als realistisch ansehen, sondern es geht darum, die konkret gestellte Frage konkret zu beantworten.
seeker hat geschrieben:
29. Jan 2018, 01:21
Ich würde das Programm eben nicht so programmieren, dass ein Ziel gewählt wird, sondern dass im Gegenteil Hindernissen und Menschen ausgewichen wird: Die Programmierung sagt dem Auto dann also nicht, wo es hinfahren soll, sondern, wo es nicht hinfahren soll, wo es dann hinfährt ist das was übrigbleibt.
Das ist aber im Sinne eines Algorithmus vollständig äquivalent zu meinem Code.

Potentielle Ziele einschließlich aller Lücken werden erfasst, und es wird das Ziel mit dem geringsten Wert ausgewählt. Es ist egal, wie du das umgangssprachlich formulierst, es können Situationen auftreten, in denen ausschließlich lebende potentielle Ziele existieren, zwischen denen auszuwählen ist.

Und was bitte bedeutet …
seeker hat geschrieben:
29. Jan 2018, 01:21
… die Programmierung sagt dem Auto dann also nicht, wo es hinfahren soll, sondern, wo es nicht hinfahren soll, wo es dann hinfährt ist das was übrigbleibt.
Autonomes Fahren bedeutet nun mal, dass die Programmierung dem Auto explizit sagt, wohin es fahren soll. Wer sonst sollte das tun?
seeker hat geschrieben:
29. Jan 2018, 01:21
Natürlich muss die KI dann manchmal auch entscheiden, wenn sie nicht allen Hindernissen ausweichen kann, welchen Hindernissen bevorzugt auszuweichen ist - falls sie überhaupt leistungsfähig genug ist das einsortieren zu können. Das Ergebnis ist in der Oma-Kind-Situation u.U. dasselbe, aber die Programmierung ist eine andere:

Die Programmierung besagt dann, dass bei physikalisch nicht vermeidbarer Kollision ein Ziel gewählt wird, dem bevorzugt auszuweichen ist, sie besagt dann aber nicht, dass ein Ziel zu wählen ist, das aufs Korn zu nehmen ist. Verstehst du nicht den Unterschied?
Nein, ich sehe den Unterschied nicht, weil es in Bezug auf einen Algorithmus keinen solchen gibt: du kannst aus allen potentiellen Zielen eines auswählen, oder du kannst alle potentiellen Ziele bis auf eines ausschließen.

Wenn du das anders siehst, dann würde ich dich bitten einen präzisen Algorithmus zu skizzieren, der das Problem vermeidet.

Es geht darum, dass die Software präzise, nachvollziehbar und testbar (am besten beweisbar) ihre Aufgabe erfüllt, d.h. wenn möglich Ausweichen und den Schaden minimieren; dazu benötigt sei eine Bewertungs- bzw. Auswahlfunktion für die neue Richtung = das neue Ziel.

Wenn du die Regel „soweit physikalisch möglich: weiche allen lebenden Zielen aus“ implementierst, wie soll die Software sich verhalten, wenn diese Regel keine Lösung zurückgibt? Soll die Software nichts tun? Auch dann „tut sie ja etwas“, z.B. geradeaus weiterfahren. Du kannst das jedenfalls nicht offen lassen.

Sorry, es tut mir leid, aber du weichst der Problemstellung aus, die sich für die Software-Entwicklung ergibt (und du kannst mir glauben, da kenne ich mich aus; mit deinen Vorgaben wird kein Entwicklungsteam die Arbeit aufnehmen).
seeker hat geschrieben:
29. Jan 2018, 01:21
… ein Fahrzeug aber rein dazu zu programmieren bei Gefahr zu bremsen und Menschen und Hindernissen aufzuweichen viel weniger
Wohin ausweichen? Warum gerade dahin ausweichen?
seeker hat geschrieben:
29. Jan 2018, 01:21
Auch da kann man sich dann auch noch Gedanken machen, nach welchen Kriterien eine solche Auswahl erfolgen soll und ganz einfach wird das auch nicht sein, aber es ist so lösbar, dass das im gesellschaftlichen Konsens akzeptabel sein wird.
Wie? Warum behauptest du immer nur, dass ein sehr konkretes Problem schon irgendwie lösbar sein wird? Warum skizzierst du nie (d)eine Lösung, wie das konkret funktionieren soll? Es geht noch nicht mal um einen gesellschaftlichen Konsens, es geht zunächst mal darum, überhaut die Optionen zu kennen.
seeker hat geschrieben:
29. Jan 2018, 01:21
Oder man lässt es einfach und gibt für solche Extremseltenfälle überhaupt keine Auswahlregeln vor (außer bremsen und soweit möglich ausweichen, wenn erkennbar/möglich Menschen bevorzugt, das ist wohl das einfachste/unproblematischste) …
Wie soll denn offen bleiben, was ein Programm konkret tun soll? Wie willst du das implementieren? Wie willst du testen, ob keine Auswahlregel vorliegt und ob das Programm dahingehend korrekt ist?
seeker hat geschrieben:
29. Jan 2018, 01:21
… es ist ja schließlich nicht einmal klar, ob darüber hinausgehendes überhaupt 100% zuverlässig programmierbar sein würde.
In sicherheitskritischen Aspekten ist das heute beweisbar klar (ich hatte entsprechende Links gepostet).

Es gibt dazu eindeutige Vorgaben, es gibt Algorithmen, die beweisbar fehlerfrei sind. Ob diese Algorithmen in unserem Fall zum Einsatz kommen bzw. mit KIs kombiniert werden können ist eine andere Frage.

Der Algorithmus eines neuronalen Netzes ist m.E. trivialerweise beweisbar korrekt. Was absolut unklar ist, wie sich die Auswahl der Trainingssituationen auf die Reaktion auswirkt. Bereits bei einfachen Situationen wie beim Brettspiel Go ist den menschlichen Experten nicht mehr klar, warum die Software so spielt wie sie spielt; lediglich das Ergebnis zählt. Dann müsstest du mit der Situation leben, dass du keine Regel angeben kannst, wie sich das System in einer bestimmten Klasse von Situationen verhält, weil du sie nicht aus dem System extrahieren kannst; du kannst aber weiterhin in jeder konkreten Situation die Entscheidung nachvollziehen. Es ist – aus heutiger Sicht – natürlich rechtlich fragwürdig, wenn ein System prinzipiell nur noch statistischen Kriterien genügt.
seeker hat geschrieben:
29. Jan 2018, 01:21
Es ist unmöglich jede mögliche Situation vorherzusehen, man muss das akzeptieren, beim menschlichen Fahrer akzeptiert man es ja auch.
Aber man kann eine Klassifizierung vornehmen.

Eine mögliche Klassifizierung von Situationen lautet, dass alle physikalisch möglich Manöver ausschließlich belebte Ziele treffen werden. Wie gehst du mit dieser Klasse von Situationen um? Kannst du mathematisch ausschließen, dass sie nie eintreten werden? Würdest du in diesen Situation eine Bewertungsrege vorgeben? Welche? Oder würdest du – wie Ralf – letztlich würfeln? Wenn würfeln: wo ziehst du die Grenze zwischen fester Regel und würfen? Bei eins-zu-eins Situationen wie „Oma vs. Kind“? Oder eins-zu-fünf wie „Oma vs Familie“?

Mir ist klar, solange die Technologie unpräzise ist, stellt sich diese Frage so nicht; aber wenn sie unpräzise ist, möchte ich auch nicht, dass sie zum Einsatz kommt. Wenn sie aber genügend präzise ist, um diese Unterscheidungen grundsätzlich treffen zu können, dann musst du die Regeln für die Entscheidung formulieren, einschließlich würfeln, sowie die Entscheidung bzgl. der Grenze zwischen Algorithmus und würfeln.

Um diesen Punkt abzuschließen: kannst du bitte den von dir o.g. Algorithmus für das Ausweichen skizzieren? Ich würde wirklich gerne verstehen, was du konkret im Sinn hast.

*****
seeker hat geschrieben:
29. Jan 2018, 01:21
Und Schuld ist immer die Gesamtsituation. Als das Google-Auto einen Unfall hatte, war es nicht selbst schuld, sondern ich glaube ein anderer Fahrer, der die Vorfahrt missachtet hatte.
Und wenn dir ein Kind vor dein Auto rennt und du -obwohl nicht zu schnell- nicht mehr bremsen kannst, dann bist du nicht schuld und beim autonomen Auto ist dann sicher auch nicht der Programmierer Schuld.
Es geht noch nicht darum, wer Schuld hat, sondern was der Programmierer implementieren soll. Wenn der Programmierer tatsächlich korrekt die gesetzlich vorgegebene Regel umgesetzt hat, dann trägt er keine persönliche Schuld mehr an einem konkreten Unfall (ob er dann bei einer Pressemeldung oder einer Untersuchung damit klar kommt, dass letztlich er diese Zeilen Programmcode eingetippt hat, ist eine andere Frage)
seeker hat geschrieben:
29. Jan 2018, 01:21
Wie gesagt, was mir bei dieser Geschichte nicht schmeckt, ist dass sich da ellenlang über etwas Gedanken gemacht wird, das vielleicht 1x in 10 Jahren passieren wird, während in derselben Zeitspanne tausende Menschenleben gerettet werden könnten.
Dieser Aussage stimme ich zu.
seeker hat geschrieben:
29. Jan 2018, 01:21
In Anbetracht dessen wird für das obige Problem fast jede Lösung akzeptabel sein, weil es sich im Vergleich um Peanuts handelt, man sollte das nicht größer machen als es ist.
Dieser Aussage stimme ich nicht zu.

Es sind für mich keine Peanuts, dass ein letztlich präziser Algorithmus ein konkretes Lebe ausgelöscht hat.

Warum ist die Entscheidung, tausende von Menschen zu Lasten einiger weniger durch einen Algorithmus zu retten vertretbar, diejenige, tausende von Menschen zu Lasten einiger weniger durch einen Flugzeugabschuss zu retten dagegen verwerflich?
seeker hat geschrieben:
29. Jan 2018, 01:21
Warum reden wir nicht lieber über KI-Kampfroboter und Kampfdrohnen, Börsenkursvorhersehungs- und -manipulations-KIs, KI-Internetbots zur Massenbeeinflussung und politischer Manipulation, usw.?
Weil wir uns bei den vermeintlich einfachen Fragestellungen schon nicht einig sind.

Ich bin übrigens der Meinung, dass die von dir genannten Szenarien ethisch eher unstrittig sind, während andere, vermeintlich harmlose KIs zu viel schwierigeren Probleme führen können. Was ist z.B. mir der Fragestellung der Abhängigkeit von KIs? Was ist beispielsweise mit der Situation, dass immer mehr Entscheidungen in einzelnen Anwendungsbereichen nachweislich besser von KIs übernommen werden, dass jedoch die Summe der Übertragung derartiger Befugnisse auf KIs die Menschheit extrem abhängig macht? Was ist mit der Fragestellung, dass wir zwar theoretisch Herr über die Maschinen sind, weil wir immer irgendwo den Stecker ziehen könnten, dass wir dies jedoch praktisch nicht tu können, weil wir die Auswirkungen des Steckerziehens nicht mehr verstehen und insbs. nicht beherrschen können – weil die Situationen zu komplex sind (siehe Go) oder schlichtweg weil das qualifizierte Personal wegrationalisiert wurde.
Gruß
Tom

Niels Bohr brainwashed a whole generation of theorists into thinking that the job (interpreting quantum theory) was done 50 years ago.

Benutzeravatar
tomS
Administrator
Administrator
Beiträge: 10261
Registriert: 19. Nov 2007, 20:29
Wohnort: Nürnberg

Re: Algorithmen auf dem Richterstuhl

Beitrag von tomS » 29. Jan 2018, 20:53

Dgoe hat geschrieben:
29. Jan 2018, 16:51
Ich war ja auf keiner Tagung, hab das nur gelesen. Vielleicht eine Frage @tomS, hat auf der Tagung jemand die Zahlen hinterfragt und gibt es echte Studien, die den Vortrag unterlegen?
Ich habe die Zahlen hier aus dem Gedächtnis aufgeschrieben, ich bin mit aber bzgl. der 30000 bzw. 300 ziemlich sicher. Es ging dabei um menschliches Versagen und Fehlverhalten, d.h. unvorsichtiges, zu schnelles bzw. nicht angepasstes Fahren, unkonzentriertes, übermüdetes Fahren etc. sowie um Alkohol, Drogen etc. Steuer. Dem wurde gegenübergestellt das rein technische Versagen. D.h. das menschliche Versagen kann durchaus auf einen einzelne Fahren zurückzuführen sein wie z.B. ein Überholmanöver in einer extrem unübersichtlichen Kurve, oder auf kollektives nicht angepasstes Fahren wie z.B. zu geringes Abstandhalten + Spurwechsel in eine zu enge die Lücke hinein + Abbremsen der folgenden Autos + Staubildung sowie letztlich das Auffahren eines LKW auf das Stauende.

Die Zahlen stammten aus den USA. Der Prozentsatz für rein technisches Versagen bzw. anderweitig praktisch unvermeidbare Unfälle lag im unteren einstelligen Prozentbereich. Ich denke nicht, dass es für die prinzipielle Diskussion einen Unterschied macht, ob wir über 1% oder 5% reden.

Es gibt m.W.n. inzwischen auch in Deutschland Gremien, die sich mit genau dieser Frage befassen und die sicher mit fundiertem Zahlenmaterial arbeiten.
Gruß
Tom

Niels Bohr brainwashed a whole generation of theorists into thinking that the job (interpreting quantum theory) was done 50 years ago.

Benutzeravatar
tomS
Administrator
Administrator
Beiträge: 10261
Registriert: 19. Nov 2007, 20:29
Wohnort: Nürnberg

Re: Algorithmen auf dem Richterstuhl

Beitrag von tomS » 29. Jan 2018, 21:02

Siehe hier:

https://www.dekra-roadsafety.com/de/dra ... n-den-usa/

Die Konferenz liegt allerdings schon ein paar Jahre zurück.

EDIT: die Anzahl der Verkehrstoten in den USA ist damit mehr als 10 mal so hoch wie in Deutschland; extrem ist der Anteil der nicht angeschnallten Opfer - die müsste man m.E. herausrechnen
Gruß
Tom

Niels Bohr brainwashed a whole generation of theorists into thinking that the job (interpreting quantum theory) was done 50 years ago.

Benutzeravatar
Dgoe
wohnt hier!
wohnt hier!
Beiträge: 395
Registriert: 20. Nov 2017, 17:32

Re: Algorithmen auf dem Richterstuhl

Beitrag von Dgoe » 29. Jan 2018, 21:21

ralfkannenberg hat geschrieben:
29. Jan 2018, 17:41
Und ja - bei den bisherigen tödlichen Unfällen hat dieses bezahlte Testpersonal mit dem Smartsphone herumgespielt oder war anderweitig unaufmerksam statt auf den Verkehr aufzupassen.
Äh, äh, äh,

das ist meines Wissens nur ein tödlicher Unfall gewesen bisher, kein Plural, und er war ein Kunde Teslas, kein bezahltes Testpersonal.

Ja, ich hatte damals woanders forumsmäßig öffentlich gleich den CEO, Elon Musk dafür verantwortlich gemacht. Was ich zurücknehme (glaube damals schon).

Später wurde klar, oder mir war das da noch nicht klar, dass einerseits die Vorgabe war, das Lenkrad jederzeit wieder zu übernehmen und dies nicht befolgt wurde. Zudem eine damals schon ältere Softwareversion werkelte.

Auch hat er nicht am Smartphone rumgespielt, sondern es hieß anfangs, dass er eingeschlafen wäre. Mein letzter Stand ist, dass er ein Hörspiel gehört hat: Harry Potter, wenn ich mich richtig erinnere.

Technischer Hintergrund war, dass er auf gerader Route (in der Steppe?) genau Richtung niedrigstehender Sonne fuhr, was irgendwie den quer zur Fahrbahn einfuhrenden Track ausgeblendet hatte, so dass er in voller Fahrt in dessen Anhänger crashte. Ich war sehr betroffen damals, ähnlich wie die 3 verstorbenen Astronauten beim Test es für damalige Miteiferer waren vielleicht.


Soviel zu meinen vernomment Details. Jetzt wie ich dazu denke:

Der Gute hatte sicherlich genau so schnell, wie alle anderen erkannt, dass man bei komplexen Strecken besser die Finger davon lässt.
Hier fuhr er aber offenbar über lange Strecken einfach nur geradeaus und hat in diesem Fall dem System die Obrigkeit erlaubt, unerlaubterweise. Aber so schnell geht das, Vertrauen sicher auch dadurch gewonnen, dass damals und heute zig Leute eine Party im Fahrzeug veranstalten - egal welche Strecke - und trotzdem heil ankommen.

Lebensmüde.

Aber hat mMn. das Angebot wohl schon gut einordnen können und für die simplesten Geradeausfahrten über hunderte Kilometer oder so, dem Ding vertraut mal für einige Zeit. Ganz sicher wusste er nichts von Problematiken gen Sonne Fahrten.

Wäre alles transparenter - und ich bin mir sicher Tesla-Kunden lesen viel und gerne zum Thema - wäre der Unfall vielleicht nicht passiert. Es war bestimmt kein **** gewesen, der einfach nur fahrlässig gehandelt hat. Kann mir keiner erzählen, das ist nur Wunschdenken.

Beiderseits, allerseits.

Gruß,
Dgoe
Der Optimist glaubt, dass wir in der besten aller möglichen Welten leben. Der Pessimist befürchtet, dass der Optimist damit Recht hat.

Benutzeravatar
ralfkannenberg
Ehrenmitglied
Ehrenmitglied
Beiträge: 1644
Registriert: 13. Jan 2017, 10:00

Re: Algorithmen auf dem Richterstuhl

Beitrag von ralfkannenberg » 29. Jan 2018, 22:56

tomS hat geschrieben:
29. Jan 2018, 20:37
Auch das ist ein Problem, darauf hatte ich bereits hingewiesen:

Die erste Frage ist, ob wir autonomes Fahren nicht zulassen sollen, solange die Frage der Bewertung von Menschenleben und die entsprechende Implementierung nicht abschließend geklärt sind. Die zweite Frage lautet, ob wir autonomes Fahren dennoch zulassen, weil wir wissen, dass wir so deutlich mehr Menschenleben retten – und damit jedoch zwingend irgendeine Vorgabe zur Bewertung erlassen müssen. Und falls letzteres mit ja beantwortet wird, sind wir wieder bei der Frage nach der konkreten Bewertungsregel.
Hallo Tom,

auch wenn das eine andere Lösung ist als Deine Frage, so kann sie auch Menschenleben retten, und zwar viele. Und das geht sogar ohne autonomes Fahren, man muss nur mit der Geschwindigkeit runter.

Und wer das nicht tut, ist - so hart das tönen mag und so sehr sich mancher in seiner individuellen Entfaltung eingeschränkt fühlen mag - letztlich mitschuld an den vielen Verkehrstoten. Hierfür braucht es nicht einmal gesetzliche Vorlagen:


- Jeder Autofahrer ist in der Lage, langsamer zu fahren.

Dazu kommt:

- Jeder Autofahrer ist auch in der Lage, ohne Alkohol zu fahren.
- Jeder Autofahrer ist auch in der Lage, während der Fahrt nicht das Smartphone zu nutzen.
- Jeder Autofahrer ist auch in der Lage, nach 45 Minuten Fahrt eine Pause von 15 Minuten einzulegen.
- Jeder Autofahrer ist auch in der Lage, nach 8 Stunden Fahrt eine Übernachtung zu tätigen.

Wer das beherzigt, hat sehr gute Chancen, sein Unfallrisiko massiv zu reduzieren. Man muss nur wollen.


Freundliche Grüsse, Ralf

Benutzeravatar
ralfkannenberg
Ehrenmitglied
Ehrenmitglied
Beiträge: 1644
Registriert: 13. Jan 2017, 10:00

Re: Algorithmen auf dem Richterstuhl

Beitrag von ralfkannenberg » 29. Jan 2018, 22:59

Dgoe hat geschrieben:
29. Jan 2018, 19:31
wie kannst Du Dir so sicher sein? Und wie begründest Du diese Sicherheit? Du hast woanders schon wochenlange Argumentationen formuliert, wieso man nicht einfach so dahergehen kann und nun machst Du es selber. Oder?
Hallo Dgoe,

ich bin mir deswegen so sicher, weil es viele sehr unnötige Unfälle gibt, die nicht einfach nur dem "Pech" geschuldet sind.


Freundliche Grüsse, Ralf

Benutzeravatar
tomS
Administrator
Administrator
Beiträge: 10261
Registriert: 19. Nov 2007, 20:29
Wohnort: Nürnberg

Re: Algorithmen auf dem Richterstuhl

Beitrag von tomS » 29. Jan 2018, 23:21

Ralf hat natürlich recht, aber das macht es irgendwie nicht einfacher, es wäre einfach, effizient und sofort umsetzbar: wir fahren ab sofort vernünftiger und defensiver. Warum wollen wir das nicht? Oder warum können wir das nicht wollen? Fakt ist jedenfalls, dass wir es nicht tun. Wollen wir dann eine KI, die für uns umsetzt, was wir selbst nicht wollen?
Gruß
Tom

Niels Bohr brainwashed a whole generation of theorists into thinking that the job (interpreting quantum theory) was done 50 years ago.

Benutzeravatar
ralfkannenberg
Ehrenmitglied
Ehrenmitglied
Beiträge: 1644
Registriert: 13. Jan 2017, 10:00

Re: Algorithmen auf dem Richterstuhl

Beitrag von ralfkannenberg » 29. Jan 2018, 23:54

tomS hat geschrieben:
29. Jan 2018, 23:21
Fakt ist jedenfalls, dass wir es nicht tun. Wollen wir dann eine KI, die für uns umsetzt, was wir selbst nicht wollen?
Hallo Tom,

ich denke, hier muss man noch etwas differenzieren. Es ist ja nicht so, dass wir das aus Boshaftigkeit nicht tun. Es ist vielmehr so, dass wir das aus Sorglosigkeit nicht tun, so nach dem Motto, dass die Unfälle immer nur den anderen passieren, wir aber "besser"sind, geschickter oder reaktionsschneller, so dass wir dem Unfall doch noch ausweichen können.

Die AI hilft uns nun, aus dieser Sorglosigkeit herauszukommen, weil sie eine Dienstleistung anbietet, von der - wenn sie soweit ausgereift sein wird - wir wissen, dass sie besser ist als wir. Natürlich können wir uns einreden, dass wir als Gesamt-Mensch immer noch viel besser als die AI sind, und das wird auch noch einige Zeit so bleiben. Aber spezialisiert auf das Autofahren wird sie uns überlegen sein. So wie ein ganz banaler Schraubenzieher uns überlegen ist, eine Schraube zu lösen, die wir sonst irgendwie quer mit dem Fingernagel lösen müssten und dabei vermutlich nur den Fingernagel abbrechen würden. Trotzdem wird niemand in seiner Eitelkeit gekränkt sein, weil der Schraubenzieher das besser kann als wir, ja im Gegenteil - wir würden vermutlich umgehend einen neuen Schraubenzieher kaufen, wenn wir Schrauben mit dem Fingernagel besser als mit dem bisherigen Schraubenzieher lösen könnten.

Oder ein Hammer, der einen Nagel in die Wand schlägt - der kann das auch besser, als wenn wir das mit der blanken Faust machen müssten. Auch hier wird der Hammer als Hilfe wahrgenommen und nicht als "Konkurrent", der uns irgendwie in unserer Eitelkeit kränken könnte.


Freundliche Grüsse, Ralf

Benutzeravatar
Dgoe
wohnt hier!
wohnt hier!
Beiträge: 395
Registriert: 20. Nov 2017, 17:32

Re: Algorithmen auf dem Richterstuhl

Beitrag von Dgoe » 30. Jan 2018, 00:39

Hey Tom,

so nicht
tomS hat geschrieben:
29. Jan 2018, 20:53
. Es ging dabei um menschliches Versagen und Fehlverhalten, d.h. unvorsichtiges, zu schnelles bzw. nicht angepasstes Fahren, unkonzentriertes, übermüdetes Fahren etc. sowie um Alkohol, Drogen etc. Steuer.
Wozu Du keine belastbare Quelle geliefert hast, also nur HörenSagen. Blabla. Keine Demographie, nix.
tomS hat geschrieben:
29. Jan 2018, 20:53
Dem wurde gegenübergestellt das rein technische Versagen.
Wie jetzt, das der KIs?
tomS hat geschrieben:
29. Jan 2018, 20:53
D.h. das menschliche Versagen kann durchaus auf einen einzelne Fahren zurückzuführen sein wie z.B. ein Überholmanöver in einer extrem unübersichtlichen Kurve, oder auf kollektives nicht angepasstes Fahren wie z.B. zu geringes Abstandhalten + Spurwechsel in eine zu enge die Lücke hinein + Abbremsen der folgenden Autos + Staubildung sowie letztlich das Auffahren eines LKW auf das Stauende.
Ja, kann, dazu brauch ich das nicht lesen, bin ja kein Pantoffeltierchen. Frage ist ob und wie das genau mit welchen Erhebungen genau, in die Behauptungen einfließ, mit Quellenangaben.
tomS hat geschrieben:
29. Jan 2018, 20:53
Die Zahlen stammten aus den USA.
Immerhin glaubwürdiger heutzutage, siehe Diesel-Affäre.



tomS hat geschrieben:
29. Jan 2018, 20:53
Der Prozentsatz für rein technisches Versagen bzw. anderweitig praktisch unvermeidbare Unfälle lag im unteren einstelligen Prozentbereich. Ich denke nicht, dass es für die prinzipielle Diskussion einen Unterschied macht, ob wir über 1% oder 5% reden.
Aber es macht einen Unterschied wovon wir überhaupt reden, belege mal 1 oder 5 Prozent, dann wäre auch sichtbar welches System gemeint ist, wo diese abenteurlichen Zahlen genau herkommen. Aus dem Nichts, einer Träumerei? Da sicherlich auch geschönt worden, Fakten bitte. Nicht Bla.

tomS hat geschrieben:
29. Jan 2018, 20:53
Es gibt m.W.n. inzwischen auch in Deutschland Gremien, die sich mit genau dieser Frage befassen und die sicher mit fundiertem Zahlenmaterial arbeiten.
Du saugst Dir doch alles aus den Fingern, weißt gar nichts. Natürlich ist das in Deutschland auch Thema, aber dies bestätigt nichts Vorgenanntes. Veräppeln kann ich mich selber noch viel besser.

Schustern, bleibt bei euren Leisten. Die Maßstäbe, die ihr im euren Fach setzt, gelten woanders nicht weniger eigentlich. Ich halte persönlich große Stücke auf euch und sicher viele Mitleser auch, verscherzt es euch nicht mit fachfremden Themen. Für diese habt ihr keinen Freibrief ala Crank, sondern müsst kristallklar mit Quellen hantieren, wie sonst auch.

Oder macht, was ihr wollt, mein Respekt hat sich gemindert etwas, jedenfalls.


Gruß,
Dgoe

P.S.: auf die letztgenannte Quelle von Dir Tom, hülle ich mal den Mantel des Schweigens, echt.
Der Optimist glaubt, dass wir in der besten aller möglichen Welten leben. Der Pessimist befürchtet, dass der Optimist damit Recht hat.

Antworten