Hinweis auf die DSGVO: Auf unserer Seite werden keine Dritt-Anbieter-Cookies verwendet und nur Daten erfasst, welche für das Minimum an Board-Funktionalität notwendig sind.
Bevor Sie sich registrieren oder das Board verwenden, lesen Sie bitte zusätzlich die DSGVO-Erklärung, welche in der Navigationsleiste verlinkt ist.

Kurzfassung der unserer Meinung nach wichtigsten DSGVO-Punkte:
Es kann vorkommen, dass Benutzer eigenverantwortlich Videos oder sonstige Medien in ihren Beiträgen verlinken, welche beim Aufruf der Forenseite als Teil der Seite samt zugehörigem Material mitgeladen werden. Sollten Sie dies nicht wünschen, verwenden Sie beim Benutzen des Forums einen Blocker wie z.B. uMatrix, welcher das Laden von Inhaltsblöcken von Fremd-URLs effektiv unterbinden kann.
Wir blenden keine Werbung ein und schränken die Inhalte in keinster Weise bei Benutzung von Addblockern ein. Dadurch ist die Grundfunktionalität des Forums auch bei vollständigem Blockieren von Drittanbieter-Inhalten stets gegeben.

Cookies werden unsererseits nur verwendet um das Einloggen des Benutzers für die Dauer der Forenbenutzung zu speichern. Es steht dem Benutzer frei die Option 'Angemeldet bleiben' zu verwenden, damit der Cookie dauerhaft gespeichert bleibt und beim nächsten Besuch kein erneutes Einloggen mehr notwendig ist.
EMail-Adressen werden für Kontakt bei wichtigen Mitteilungen und zur Widerherstellung des Passwortes verwendet. Die verwendeten IPs können von uns ohne externe Hilfsmittel mit keiner realen Person in Verbindung gebracht werden und werden nach spätestens 7 Tagen gelöscht. Diese IPs werden höchstens verwendet um Neuanmeldungen unerwünschter oder gesperrter Nutzer zu identfizieren und zu unterbinden. Wir behalten uns daher vor bei Verdacht, die Frist für die IP-Löschung auf maximal 14 Tage zu verlängern.
Unsere Webseite läuft auf einem virtuellen Linux-Server, welcher von einem externen Anbieter gehostet wird. Etwaige Verstöße der DSGVO-Auflagen seitens dieses deutschen Hosters können wir nicht feststellen und somit auch nicht verfolgen.
Wir halten Backups unserer Datenbanken, welche in regelmäßigen Abständen als Schutz vor Katastrophen, Hackerangriffen und sonstigen Ausfällen erstellt werden. Sollte ein Nutzer die Löschung seiner Daten wünschen, betrachten wir es als Unzumutbar die Backups auch von den Daten zu befreien, da es sich hierbei um eine mehrtägiges Unterfangen handelt - dies ist für eine Einzelperson beim Betrieb eines privaten Forums nicht zumutbar möglich ohne das Backup komplett zu löschen.
Sollten Sie etwas gegen die dauerhafte anonyme Speicherung ihrer EMail-Adresse, ihres Pseudonyms und ihrer Beiträge in einem Backup haben, sehen Sie von der Registrierung in diesem Forum ab. Für Mitglieder, welche vor dem 25.05.2018 registriert waren steht jedoch das Recht im Raum, eine Löschung der Datenbank-Backups zu beantragen.



Wenn dies Ihr erster Besuch hier ist, lesen Sie bitte zunächst die FAQs sowie die wesentlichen Regeln zur Benutzung des Forums.
Um an den Diskussionen teilnehmen zu können, müssen Sie sich zunächst registrieren.

Algorithmen auf dem Richterstuhl

Wissenschaftsgeschichte, Wissenschaftstheorie bzw. -philosophie, Technik
Benutzeravatar
seeker
Ehrenadmin
Ehrenadmin
Beiträge: 8098
Registriert: 26. Dez 2009, 10:29

Re: Algorithmen auf dem Richterstuhl

Beitrag von seeker » 29. Mai 2018, 00:22

tomS hat geschrieben:
23. Mai 2018, 12:34
Es geht nicht darum, dass der Algorithmus das tun soll, sondern darum, dass es nicht alleine die Entscheidung des Fahrers sein kann, welchen Algorithmus er kauft oder verwendet, weil er nicht der alleinig Betroffene ist.
Das sicher nicht. Die Frage lautet umgekehrt, ob es die alleinige Entscheidung der Gesellschaft sein soll, welchen Algorithmus der Fahrer zu verwenden hat und wie dieser exakt eingestellt zu sein hat. Der Faher ist zwar nicht alleinig betroffen, aber er ist mit-betroffen, sogar zuerst-betroffen, da beim Einsteigen schon eindeutig identifzierbar, alle anderen Verkehrteilnehmer/-Begegnungen sind in diesem Moment noch annonym, unvorhersehbar. Ich denke es wären Graustufen zwischen beiden Extremen denkbar - und man sollte sie auch bedenken.
tomS hat geschrieben:
23. Mai 2018, 12:34
Meine Vorgehensweise entspräche letztlich einem beschleunigten evolutionären und selbstlernender Prozess; sowas wie alphaCar. Der Vorteil wäre, dass man nicht nur die Entwicklung der SW sondern auch die Entwicklung und Verantwortung des Bewertungsmaßstabes vor dessen Einführung veröffentlicht und in Teilen an die Gesellschaft überträgt.
Selbst dann scheint mir, wäre das was herauskommt mindestens zu einem erheblichen Teil annonym, damit auch die Verantwortung. Darin sehe ich ein Probem, zu dem man mindestens Stellung beziehen müsste und wo eine gesellschaftliche Entscheidung notwendig wäre.
Ich finde die Idee dabei nicht schlecht, aber sie allein wird meinem Gefühl nach nicht ausreichen.
Ich glaube wir werden als idividualistisch-demokratisch geprägte Gesellschaft letztlich einen konkreten, greifbaren, Mit-Verantwortlichen fordern, um wenigstens einen kleinen Teil an Nicht-Annonymität bei der Verantwortung zu wahren. Wer wäre dafür besser geeignet als der Fahrer/Nutzer? Konzernbosse, Politiker, die KI-Programmierer?
Skeltek hat geschrieben:Die Sache ist doch auch die, dass es zu viele Verantwortungs-lose Fahrer gibt. Setzt man jemanden in ein autonomes Fahrzeug, würde sicherlich ein hoher Prozentsatz die gefahrere Geschwindigkeit bereits vor Fahrtbegin auf 20-30% schneller als erlaubt setzen... wenn er könnte.
Bei solchen Fahrern würde ich mir sogar eher wünschen ihn in ein autonomes Auto zu setzen... wobei der Nacteil wäre, dass man ihn dann unter Umständen für mögliche Vergehen irgendeiner Art nicht mehr zur Rechenschaft ziehen könnte.
Ja. Ich stelle mir den Spielraum des Fahrers im autonomen Fahrzeug auch nicht zu groß vor, alle grundsätzlichen Dinge muss die Gesellschaft entscheiden, angefangen bei der Straßenverkehrsordnung, weiter mit den grundsätzlich einzuhaltenden ethischen Richtlinien.
Nur gewisse Spielräume innerhalb dessen soll er noch behalten: Etwas schneller, etwas langsamer fahren: zwischen supersicherer und nur sehr sicherer Fahrweise wählen, die Route festlegen, die Insassensicherheit vs die Sicherheit der anderen Verkehrsteilnehmer etwas gewichten, für den Notfall Ausweichen vs. Bremsen gewichten, den Energie/Spritverbrauch gewichten, ein Notfallprogramm, wenn begründeterweise Eile geboten ist (Frau fährt in den Wehen mit, jemand ist verletzt, ...), zunächst solche Dinge, man kann da lange darüber nachdenken, was noch für ihn optional sein soll, was nicht mehr. Wenn er gar nichts entscheiden kann, dann ist er der Maschine völlig ausgeliefert und dann ist er im Schadensfall auch völlig ohne Schuld, er trägt dann keinerlei Verantwortung, dann ist die Verantwortung vollständig annonymisiert.
Grüße
seeker


Wissenschaft ... ist die Methode, kühne Hypothesen aufstellen und sie der schärfsten Kritik auszusetzen, um herauszufinden, wo wir uns geirrt haben.
Karl Popper

Benutzeravatar
tomS
Ehrenmitglied
Ehrenmitglied
Beiträge: 10670
Registriert: 19. Nov 2007, 20:29

Re: Algorithmen auf dem Richterstuhl

Beitrag von tomS » 29. Mai 2018, 12:29

seeker hat geschrieben:
29. Mai 2018, 00:22
tomS hat geschrieben:
23. Mai 2018, 12:34
Es geht nicht darum, dass der Algorithmus das tun soll, sondern darum, dass es nicht alleine die Entscheidung des Fahrers sein kann, welchen Algorithmus er kauft oder verwendet, weil er nicht der alleinig Betroffene ist.
Das sicher nicht. Die Frage lautet umgekehrt, ob es die alleinige Entscheidung der Gesellschaft sein soll, welchen Algorithmus der Fahrer zu verwenden hat und wie dieser exakt eingestellt zu sein hat. Der Fahrer ist zwar nicht alleinig betroffen, aber er ist mit-betroffen, sogar zuerst-betroffen, da beim Einsteigen schon eindeutig identifzierbar, alle anderen Verkehrteilnehmer/-Begegnungen sind in diesem Moment noch annonym, unvorhersehbar. Ich denke es wären Graustufen zwischen beiden Extremen denkbar - und man sollte sie auch bedenken.
Ja, man muss natürlich Abstufungen zulassen.

Ich denke, das wichtigste - und zugleich schwierigste - ist die Festlegung der Perspektive und der Gefährdung. Ich denke, dass in Situationen mit Gefährdung unbeteiligter Dritter der Algorithmus eher zugunsten dieser bewerten sollte.

seeker hat geschrieben:
29. Mai 2018, 00:22
tomS hat geschrieben:
23. Mai 2018, 12:34
Meine Vorgehensweise entspräche letztlich einem beschleunigten evolutionären und selbstlernender Prozess; sowas wie alphaCar. Der Vorteil wäre, dass man nicht nur die Entwicklung der SW sondern auch die Entwicklung und Verantwortung des Bewertungsmaßstabes vor dessen Einführung veröffentlicht und in Teilen an die Gesellschaft überträgt.
Selbst dann scheint mir, wäre das was herauskommt mindestens zu einem erheblichen Teil annonym, damit auch die Verantwortung. Darin sehe ich ein Probem, zu dem man mindestens Stellung beziehen müsste und wo eine gesellschaftliche Entscheidung notwendig wäre.
Ich finde die Idee dabei nicht schlecht, aber sie allein wird meinem Gefühl nach nicht ausreichen.
Ich glaube wir werden als idividualistisch-demokratisch geprägte Gesellschaft letztlich einen konkreten, greifbaren, Mit-Verantwortlichen fordern, um wenigstens einen kleinen Teil an Nicht-Annonymität bei der Verantwortung zu wahren. Wer wäre dafür besser geeignet als der Fahrer/Nutzer? Konzernbosse, Politiker, die KI-Programmierer?
Ich würde nicht der Verantwortung für die Gefährdung sondern deren Vermeidung Priorität einräumen. Wenn ein anonymer Algorithmus zu einer deutlich reduzierten Gefährdungslage führt, dann wird die Gesellschaft gut damit klarkommen.

Die Verantwortung für echt autonomes Fahren beim Fahrer zu lassen erscheint ohnehin etwas widersinnig.
Gruß
Tom

Der Wert eines Dialogs hängt vor allem von der Vielfalt der konkurrierenden Meinungen ab.
Sir Karl R. Popper

Benutzeravatar
Hansen
hat sich hier eingelebt
hat sich hier eingelebt
Beiträge: 281
Registriert: 13. Dez 2017, 23:22

Re: Algorithmen auf dem Richterstuhl

Beitrag von Hansen » 19. Jul 2018, 02:02

Dabei ist der Individuale Personenverkehr eh eine Totgeburt. E Autos oder Selbstfahrende Autos sind reine Verzögerungen.
Der Drang ein Auto sein eigen zu nennen ist groß und das Weltweit. Die Erde wird sich zu einem nicht mehr für Säugetiere geeigneten Planeten verwandeln.

Dabei sind Autos auch Waffen sieht man ja immer häufiger. Leider sind Autos aber nicht als Waffe deklariert.
Wer sich über Waffensachkunde informieren möchte tut das am besten bei https://waffensachkunde-test.com
Ich mache einen Waffensachkundetest mit, ist intellektuell und äußerst interessant.
Zuletzt geändert von Hansen am 27. Jul 2018, 20:17, insgesamt 2-mal geändert.

Benutzeravatar
tomS
Ehrenmitglied
Ehrenmitglied
Beiträge: 10670
Registriert: 19. Nov 2007, 20:29

Re: Algorithmen auf dem Richterstuhl

Beitrag von tomS » 19. Jul 2018, 06:52

Hansen hat geschrieben:
19. Jul 2018, 02:02
Der Drang ein Auto sein eigen zu nennen ist groß und das Weltweit.
Das ist sicher in einigen Ländern und Bevölkerungsgruppen der Fall, es sind jedoch auc Gegenbewegungen erkennbar.

In Ländern wie Indien und China gibt es sicher deutlich stärker regulierende Einfriffe seitens des Staates, zukünftig wohl auch hin zur Elektromobilität. Man muss bedenken, dass in diesen Ländern keine Autoindustrie existiert, auf die der Staat Rücksicht nehmen müsste.

Bei unserer jungen Generation tritt Besitz bzw. Eigentum zugunsten von Nutzung zunehmend in den Hintergrund. Heute braucht kein Jugendlicher mehr eine Plattensammlung, wichtig ist die Verfügbarkeit der Musik.
Gruß
Tom

Der Wert eines Dialogs hängt vor allem von der Vielfalt der konkurrierenden Meinungen ab.
Sir Karl R. Popper

Benutzeravatar
seeker
Ehrenadmin
Ehrenadmin
Beiträge: 8098
Registriert: 26. Dez 2009, 10:29

Re: Algorithmen auf dem Richterstuhl

Beitrag von seeker » 19. Jul 2018, 07:53

tomS hat geschrieben:
29. Mai 2018, 12:29
Ich denke, das wichtigste - und zugleich schwierigste - ist die Festlegung der Perspektive und der Gefährdung. Ich denke, dass in Situationen mit Gefährdung unbeteiligter Dritter der Algorithmus eher zugunsten dieser bewerten sollte.
Das denke ich auch. Es kommt auf die konkreten Situationen an, aber ethisch gesehen ist es im Allgemeinen m. E. so, dass jede Bewegung eines Individuums im Straßenverkehr bzw. öffentlichen Raum (gleich ob autonom oder manuell), insbesondere aus nicht-zwingendem Grund, für den Benefit der persönlichen Mobilität eine absichtlich in Kauf genommene Gefährdung der anderen Menschen darstellt - das ist der Preis, der von der Gesellschaft für die Freiheit des Einzelnen zu zahlen ist. Er sollte möglichst gering ausfallen; daher sind die anderen als "Unschuldige" zunächst vorzugsweise zu schützen.
tomS hat geschrieben:
29. Mai 2018, 12:29
Ich würde nicht der Verantwortung für die Gefährdung sondern deren Vermeidung Priorität einräumen
Sicher. Ich auch. Die Sicherheit muss durch diese Technik zwingend zunehmen, das ist eines der Hauptargumente für die Einführung solcher Technik, allein über Effizienzsteigerungen und Kostenersparnisse wird man das schwerlich durchsetzen können.
tomS hat geschrieben:
29. Mai 2018, 12:29
Die Verantwortung für echt autonomes Fahren beim Fahrer zu lassen erscheint ohnehin etwas widersinnig.
Die volle Verantwortung sicher nicht. Jedoch einen Teil der Verantwortung wird er schon tragen müssen, alles andere wäre m. E. auch widersinnig, wie groß dieser sein wird, wird sich zeigen. Er könnte klein ausfallen, aber Null wird es nicht sein, das wäre nicht in unserem Interesse:
Allein schon durch die Entscheidung am Straßenverkehr teilzunehmen nimmt der Nutzer zum eigenen Vorteil willentlich eine Gefährdung anderer Menschen in Kauf, gleich wie gering diese auch sein mag (s.o.). Wenn das so ist, muss er auch eine gewisse Verantwortung dafür tragen. Man darf menschliche Verantwortlichkeit nicht vollständig auf Maschinen, annonyme Algorithmen auslagern, das würde zu nichts Gutem führen.
Grüße
seeker


Wissenschaft ... ist die Methode, kühne Hypothesen aufstellen und sie der schärfsten Kritik auszusetzen, um herauszufinden, wo wir uns geirrt haben.
Karl Popper

Benutzeravatar
Hansen
hat sich hier eingelebt
hat sich hier eingelebt
Beiträge: 281
Registriert: 13. Dez 2017, 23:22

Re: Algorithmen auf dem Richterstuhl

Beitrag von Hansen » 22. Jul 2018, 01:58

tomS hat geschrieben:
19. Jul 2018, 06:52
In Ländern wie Indien und China gibt es sicher deutlich stärker regulierende Einfriffe seitens des Staates, zukünftig wohl auch hin zur Elektromobilität. Man muss bedenken, dass in diesen Ländern keine Autoindustrie existiert, auf die der Staat Rücksicht nehmen müsste.
keine Autoindustry in China und Indien? Äh ist das dein Ernst?

https://en.wikipedia.org/wiki/Automotiv ... y_in_China >
2014, total vehicle production in China reached 23.720 million, accounting for 26% of global automotive production
https://en.wikipedia.org/wiki/Automotiv ... y_in_India > India produced 23.96 million vehicles in 2016

Dagegen D: https://en.wikipedia.org/wiki/Automotiv ... in_Germany
Nearly six million vehicles are produced in Germany each year.

Benutzeravatar
Frank
Ehrenmitglied
Ehrenmitglied
Beiträge: 6164
Registriert: 12. Dez 2005, 23:22
Wohnort: Odenwald

Re: Algorithmen auf dem Richterstuhl

Beitrag von Frank » 23. Aug 2018, 09:39

Hier mal ein interessanter Artikel meiner Branche zum Thema Haftung bei autonomen Fahren.

https://www.versicherungsmagazin.de/rub ... 04391.html
Mit freundlichen Grüßen

Frank

Benutzeravatar
seeker
Ehrenadmin
Ehrenadmin
Beiträge: 8098
Registriert: 26. Dez 2009, 10:29

Re: Algorithmen auf dem Richterstuhl

Beitrag von seeker » 23. Aug 2018, 13:02

Ja. Da sieht man wieder, dass die Sache komplex ist.
Grüße
seeker


Wissenschaft ... ist die Methode, kühne Hypothesen aufstellen und sie der schärfsten Kritik auszusetzen, um herauszufinden, wo wir uns geirrt haben.
Karl Popper

Benutzeravatar
tomS
Ehrenmitglied
Ehrenmitglied
Beiträge: 10670
Registriert: 19. Nov 2007, 20:29

Re: Algorithmen auf dem Richterstuhl

Beitrag von tomS » 26. Aug 2018, 11:18

Ich halte den Artikel für wenig spannend. Man muss halt einige rechtliche Details überdenken, an denen die Gesetze heute nicht passen.

Einiges ist weltfremd, z.B. dass sich das Produkt bzw. die SW ständig (und unkontrolliert) ändert. Wenn die SW Gegenstand der Typzulassung ist, tut sie das natürlich nicht. Ist heute schon bei Safety-Anwendungen der Fall.
Gruß
Tom

Der Wert eines Dialogs hängt vor allem von der Vielfalt der konkurrierenden Meinungen ab.
Sir Karl R. Popper

Benutzeravatar
tomS
Ehrenmitglied
Ehrenmitglied
Beiträge: 10670
Registriert: 19. Nov 2007, 20:29

Re: Algorithmen auf dem Richterstuhl

Beitrag von tomS » 26. Aug 2018, 17:00

http://www.spiegel.de/wissenschaft/tech ... 24977.html

Tödliche autonome Waffen: Diplomaten streiten über Ächtung von Killerrobotern - SPIEGEL ONLINE

Kriegsmaschinen, die eigenständig Ziele wählen und töten - was nach Science-Fiction-Film klingt, ist vielerorts in der Entwicklung. In Genf wollen nun Vertreter aus mehr als 75 Ländern über ein Verbot diskutieren.
Gruß
Tom

Der Wert eines Dialogs hängt vor allem von der Vielfalt der konkurrierenden Meinungen ab.
Sir Karl R. Popper

Benutzeravatar
Frank
Ehrenmitglied
Ehrenmitglied
Beiträge: 6164
Registriert: 12. Dez 2005, 23:22
Wohnort: Odenwald

Re: Algorithmen auf dem Richterstuhl

Beitrag von Frank » 27. Aug 2018, 09:29

tomS hat geschrieben:
26. Aug 2018, 11:18
Ich halte den Artikel für wenig spannend. Man muss halt einige rechtliche Details überdenken, an denen die Gesetze heute nicht passen.
Ach, man muss nur ein wenig die Gesetze überdenken, wobei noch nicht mal klar ist was, wenn und in welchem Umfang in Haftung nehmen soll´... :roll:
Hier geht es um die größten Gesetzesänderungen, moralisch und ethisch, seit der magna carta, weil es Bereiche streift, die man erstmal definieren muss.
tomS hat geschrieben:
26. Aug 2018, 11:18
Einiges ist weltfremd, z.B. dass sich das Produkt bzw. die SW ständig (und unkontrolliert) ändert. Wenn die SW Gegenstand der Typzulassung ist, tut sie das natürlich nicht. Ist heute schon bei Safety-Anwendungen der Fall.
Weltfremd sind Aussagen, die sich alleine auf den technischen Aspekt berufen und alles andere ausser Acht lassen(Frei nach dem Motto:"Mein Bereich ist der Wichtigste"!)
Wenn bei einem Auto heutzutage eine andere Software aufgespielt wird, die das Fahrzeug soweit verändern , dass sie der Zulassung nicht mehr entsprechen, dann erlischt auch die Haftung daraus.

Die Kraft Haftpflicht, weil eine gesetzliche Versicherung , in deren der Geschädigte zuerst im Vodergrund steht, muss heute immer zahlen(Es können max. 5.000 € Regress genommen werden).
Dadurch bekommt der Geschädigte auf jedenfall sein Geld und ist nicht von der wirtschaftlichen Situation des Schädigers abhängig.
Allerdings sind im heutigen Fall auch immer Personen gemeint und keine Software , oder Maschinen.

Also bitte tu diese Sache nicht ab, als wäre das eine Lapalie.......
Mit freundlichen Grüßen

Frank

Benutzeravatar
tomS
Ehrenmitglied
Ehrenmitglied
Beiträge: 10670
Registriert: 19. Nov 2007, 20:29

Re: Algorithmen auf dem Richterstuhl

Beitrag von tomS » 27. Aug 2018, 11:06

Frank hat geschrieben:
27. Aug 2018, 09:29
tomS hat geschrieben:
26. Aug 2018, 11:18
Ich halte den Artikel für wenig spannend. Man muss halt einige rechtliche Details überdenken, an denen die Gesetze heute nicht passen.
Ach, man muss nur ein wenig die Gesetze überdenken, wobei noch nicht mal klar ist was, wenn und in welchem Umfang in Haftung nehmen soll´... :roll:
Hier geht es um die größten Gesetzesänderungen, moralisch und ethisch, seit der magna carta, weil es Bereiche streift, die man erstmal definieren muss.
Das kommt in dem Artikel so aber nicht raus - das ist mein Punkt!
Frank hat geschrieben:
27. Aug 2018, 09:29
tomS hat geschrieben:
26. Aug 2018, 11:18
Einiges ist weltfremd, z.B. dass sich das Produkt bzw. die SW ständig (und unkontrolliert) ändert. Wenn die SW Gegenstand der Typzulassung ist, tut sie das natürlich nicht. Ist heute schon bei Safety-Anwendungen der Fall.
Weltfremd sind Aussagen, die sich alleine auf den technischen Aspekt berufen und alles andere ausser Acht lassen(Frei nach dem Motto:"Mein Bereich ist der Wichtigste"!)
Wenn bei einem Auto heutzutage eine andere Software aufgespielt wird, die das Fahrzeug soweit verändern , dass sie der Zulassung nicht mehr entsprechen, dann erlischt auch die Haftung daraus.

Die Kraft Haftpflicht, weil eine gesetzliche Versicherung , in deren der Geschädigte zuerst im Vodergrund steht, muss heute immer zahlen(Es können max. 5.000 € Regress genommen werden).
Dadurch bekommt der Geschädigte auf jedenfall sein Geld und ist nicht von der wirtschaftlichen Situation des Schädigers abhängig.
Allerdings sind im heutigen Fall auch immer Personen gemeint und keine Software , oder Maschinen.

Also bitte tu diese Sache nicht ab, als wäre das eine Lapalie.......
Es wird in dem Artikel einfach völlig blödsinnig dargestellt.

In der industriellen SW-Entwicklung existieren strikte Qualitätskontrollen sowie Versionierung etc. Freigabe, Zulassung und Roll-Out / Deployment sind klar geregelt. TÜV-Zulassung von Automatisierungstechnik inkl. SW mit Safety-Funktionen sind Stand der Technik. Da wird nicht einfach an der SW gebastelt, diese modifiziert und irgendwo ein Update eingespielt, ohne dass dies klar geregelt wäre.

Das ist bereits heute weltweit, teilweise mit nationalen Anpassungen geregelt. In der Pharma-Industrie orientiert sich die Zulassung z.B. an der FDA der USA; Produktionsanlagen inkl. SW werden bzgl. der FDA-Regeln zugelassen; für nachträgliche Änderungen inkl. SW existiert ein strikter Prozess; Änderungen an Rezepten durchlaufen eine Hersteller-interne Qualitätskontrolle plus Freigabe. Für sicherheitsrelevante SW im Verkehrswesen (Zugsteuerungen, ABS, ...) gelten noch wesentlich striktere Regelungen.

Ich gebe dir absolut recht, in Summe ist das weitgehend Neuland. Im Artikel werden jedoch eher die Trivialitäten herausgepickt. Du kannst dir jedenfalls heute schon sicher sein, dass das Update deiner ABS-SW klar geregelt ist, und dass die entsprechenden Prozesse auch für autonomes Fahren angepasst werden können.
Gruß
Tom

Der Wert eines Dialogs hängt vor allem von der Vielfalt der konkurrierenden Meinungen ab.
Sir Karl R. Popper

Benutzeravatar
seeker
Ehrenadmin
Ehrenadmin
Beiträge: 8098
Registriert: 26. Dez 2009, 10:29

Re: Algorithmen auf dem Richterstuhl

Beitrag von seeker » 27. Aug 2018, 12:51

tomS hat geschrieben:
26. Aug 2018, 17:00
http://www.spiegel.de/wissenschaft/tech ... 24977.html

Tödliche autonome Waffen: Diplomaten streiten über Ächtung von Killerrobotern - SPIEGEL ONLINE

Kriegsmaschinen, die eigenständig Ziele wählen und töten - was nach Science-Fiction-Film klingt, ist vielerorts in der Entwicklung. In Genf wollen nun Vertreter aus mehr als 75 Ländern über ein Verbot diskutieren.
Ja, hab ich heute auch gelesen.

Dazu noch (ein Bericht aus 2017):


Autonome Waffen : Wenn Maschinen Krieg führen
http://www.faz.net/aktuell/politik/inla ... ageIndex_0

Wichtig dort:
Deshalb hat das Pentagon in einer Direktive festgelegt, dass autonome Waffen nur dann einen Angriff führen dürfen, wenn ein Soldat die letzte Entscheidung hat. Das geht nur, wenn sie so langsam handeln, dass der Mensch noch mitkommt. Aber ist das überhaupt realistisch? Der Vorteil autonomer Waffen ist ihre Schnelligkeit.

Ein Drohnenschwarm kann seine Überlegenheit erst dann voll ausspielen, wenn er sich in Sekundenbruchteilen zum Angriff entscheidet. Muss erst ein Mensch zustimmen, hat die Waffe ihren wichtigsten Vorsprung verspielt. Das mag nicht ins Gewicht fallen, solange nur eine Armee autonome Waffen einsetzt. Kämpfen aber zwei autonome Waffensysteme gegeneinander, wird dasjenige im Vorteil sein, das eigenmächtig entscheidet. In einer solchen Lage könnten Militärs dazu verleitet sein, ihre Befehlsgewalt freiwillig aufzugeben.
Diese Versuchung wächst, je mehr Waffensysteme miteinander verschaltet sind. Ein Zentralrechner, der eine ganze Armee übersieht, kann schneller ausrechnen, wann sich ein Krieg lohnt, als jeder General. Es sind also Zweifel angebracht, ob der Mensch die Hoheit über autonome Waffensysteme behalten wird. Das geben Militärs selbst zu. Im März 2016 stellte der damalige amerikanische Vize-Verteidigungsminister, Robert Orton Work, zwar klar: „Wir werden einer Maschine die Entscheidung über tödliche Gewalt nicht überlassen.“ Doch Orton fügte hinzu, dass es Gegner der Amerikaner tun könnten. In einem solchen Fall, „werden wir Entscheidungen treffen müssen, um mitzuhalten“. Es sei daher „unaufhaltsam“, dass Computergehirne selbst entschieden, tödliche Gewalt anzuwenden. „Das wird passieren.“
Schöne neue Welt...

Und zu den Verhandlungen in Genf, ich erwarte folgendes:

Weil die Vorteile geradezu zwingend sind, wird man, falls es überhaupt zu einer gemeinsamen Ächtung kommt, diese in einem faulen Kompromiss so aushöhlen bzw. verwässern, dass sie wenig wert sein wird, vornehmlich Fake und Lip­pen­be­kennt­nis zur Volksberuhigung (das mit dem Aushöhlen ist heutzutage ja vielerorts leider schon Standardstrategie, wir finden es überall).
Dabei wird man sich u.a. die Grauzone zwischen vollautonomen und ferngesteuerten Waffensystemen zunutze machen: Ferngesteuerte Drohnen haben wir ja schon, auch halbautonome, das lässt sich beliebig ausweiten zu "fast-fast-vollautonomen Waffensystemen" mit auf dem Papier einem Unterschied aber faktisch keinem relevanten Unterschied mehr zu echten vollautonomen Systemen - das wird man (wie sonst auch) durch geschickte Definition und Wortwahl in einem für alle Nicht-Experten unüberschaubar-komplexen Vertragstext alles hinbekommen, da habe ich keine Zweifel.

Diese Geschichte ist sehr viel besorgniserregender und hat eine sehr viel größere Tragweite als alles was mit autonomen Fahren zu tun hat.

https://www.cse.unsw.edu.au/~tw/ciair/open.pdf
Grüße
seeker


Wissenschaft ... ist die Methode, kühne Hypothesen aufstellen und sie der schärfsten Kritik auszusetzen, um herauszufinden, wo wir uns geirrt haben.
Karl Popper

Benutzeravatar
tomS
Ehrenmitglied
Ehrenmitglied
Beiträge: 10670
Registriert: 19. Nov 2007, 20:29

Re: Algorithmen auf dem Richterstuhl

Beitrag von tomS » 27. Aug 2018, 14:22

Fangen wir mal von hinten an.

Ja, du hast natürlich völlig recht, dass diese Entwicklungen ein erheblich größeres Gefährdungspotential aufweist. Autonomes Fahren ist - wenn man‘s richtig macht - ein ausschließlich ethisches Problem! Wenn man voll-autonomes Fahren erst dann zulässt, wenn es nachweislich deutlich sicherer ist als nicht- oder teil-autonomes Fahren, wird die Zahl und die Schwere der Unfälle deutlich reduziert; das verbleibende ethische Problem besteht lediglich darin, ob man durch etwas frühere oder spätere Zulassung dies im positiven Sinne hätte beeinflussen können, und natürlich, wie man mit den verbleiben Opfern umgeht.

Voll-autonome Waffensysteme könnten natürlich außer Kontrolle oder unter den Einfluss von Hackern geraten - wobei voll-autonom m.E. nicht die Exietenz eines Not-Aus ausschließen muss.

Der Vorteil voll-autonomer Waffen ist auch - jedoch nicht ausschließlich - die Geschwindigkeit der Entscheidungsfindung. Ein essentieller Vorteil ist die Vollautonomie an sich, da sie den ganz- oder teilweisen sowie vollständig oder zeitweisen Verzicht auf eine Entscheidungskette ermöglicht. Z.B. kann man ein Drohnenschwarm mit einem bestimmten Auftrag aussenden, der vollständig autonom durchführbar ist. Man benötigt keine Rücksprache mit einer Zentrale, die z.B. gestört sein kann, überlastet ist usw.

Man stelle sich vor, dass nicht der Taliban-Chef sondern zig Taliban-Kämpfer ausgeschaltet werden sollen: Zur Überwachung würden Dutzende von Spezialisten benötigt; die Kommunikation wäre anfällig; Absprachen in der Leitstelle wären kompliziert, ... Stattdessen erhält jede Drohne eine SW zur Gesichts- und Bewegungsmustererkennung, Photos der Zielpersonen sowie einen groben Einsatzplan sowie -bereich. Die Drohnen können autark oder ggf. vernetzt operieren, sie können das Waffensytestem selbst wählen, sie können töten oder lähmen. Der Drohnenschwarm muss nicht aus der Nähe von einem Flugzeugträger gestartet und koordniert werden, sondern kann von einem unbemannten Spezialflugzeug in großer Höhe freigesetzt werden. Durch den Schwarm erhält man eine hohe Redundanz.

Die notwendige Technik und Infrastruktur sind evtl. schlichtweg billiger bereitzustellen und zu betreiben; das ist sogar für amerikanische Militärs ein entscheidender Punkt.
Gruß
Tom

Der Wert eines Dialogs hängt vor allem von der Vielfalt der konkurrierenden Meinungen ab.
Sir Karl R. Popper

Benutzeravatar
seeker
Ehrenadmin
Ehrenadmin
Beiträge: 8098
Registriert: 26. Dez 2009, 10:29

Re: Algorithmen auf dem Richterstuhl

Beitrag von seeker » 28. Aug 2018, 08:40

tomS hat geschrieben:
27. Aug 2018, 14:22
Autonomes Fahren ist - wenn man‘s richtig macht - ein ausschließlich ethisches Problem!
Besser formuliert: "Ist im Kern zunächst ein ethisches Problem." Hinzu kommen hier rechtliche, verwaltungtechnische, versicherungetechnische, technische, gesellschaftliche, infrastrukturtechnische, ... Probleme. Der Punkt ist hier: Das scheint alles irgendwie lösbar zu sein, damit wird man leben können, man wird mit dieser Technik voraussichtlich sogar besser leben können.
tomS hat geschrieben:
27. Aug 2018, 14:22
Der Vorteil voll-autonomer Waffen ist auch - jedoch nicht ausschließlich - die Geschwindigkeit der Entscheidungsfindung. Ein essentieller Vorteil ist die Vollautonomie an sich, da sie den ganz- oder teilweisen sowie vollständig oder zeitweisen Verzicht auf eine Entscheidungskette ermöglicht. Z.B. kann man ein Drohnenschwarm mit einem bestimmten Auftrag aussenden, der vollständig autonom durchführbar ist. Man benötigt keine Rücksprache mit einer Zentrale, die z.B. gestört sein kann, überlastet ist usw.
Genau.
tomS hat geschrieben:
27. Aug 2018, 14:22
Voll-autonome Waffensysteme könnten natürlich außer Kontrolle oder unter den Einfluss von Hackern geraten - wobei voll-autonom m.E. nicht die Exietenz eines Not-Aus ausschließen muss.
Ja. Darin sehe ich aber nicht einmal das Hauptproblem.
Ein Hauptproblem liegt m.E. darin, dass Kriege oder gezielte Eliminierungen von Personen oder Objekten damit eine geringere Hemmschwelle bekommen: sie werden leichter durchführbar, weil mit direkten eigenen Verlusten an Menschenleben nicht zu rechnen ist (die man vor der eigenen Bevölkerung immer irgendwie rechtfertigen muss und wo man aufwändige gesellschaftliche Mechanismen auffahren muss: Heldenverehrung, Gedenkfeiern, Propaganda, Erklärungen, Entschädigungen, Ehre, "Für das Vaterland", usw.).
Außerdem wird damit u.U. viel unklarer, wer welchen Angriff überhaupt durchgeführt hat: Einen feindlichen Soldaten kann man meist leicht identifizieren, eine feindliche Maschine nicht immer, deren Herkunft lässt sich leichter verschleiern. Das haben wir bei ferngesteuerten Drohnen zwar auch schon, aber mit autonomen Maschinen wäre es u.a. wegen der unkontrollierbaren Geschwindigkeit nochmals ein deutlich anderes Spiel.

Dass man die Herkunft von Angriffen zunehmend gerne verschleiert, weil der Informations- und Wissenfluss in der Öffentlichkeit immer wichtiger wird, haben wir kürzlich in Fall Ukraine/Russland deutlich sehen können.
tomS hat geschrieben:
27. Aug 2018, 14:22
Die notwendige Technik und Infrastruktur sind evtl. schlichtweg billiger bereitzustellen und zu betreiben
Das ist ein weiterer entscheidender Punkt. Denn: Wenn eine sehr effektive Technik billig und allgemein verfügbar ist, dann kann und wird und muss sie jeder anwenden - die großen Akteure dabei sehr massiv.
Damit wird die Welt deutlich unsicherer, d.h. die Konflikte nehmen zu, die Hemmschwelle nimmt ab.
Fängt man mit dieser Technik erst einmal an, so führt das zu einem erzwungenem neuen Wettrüsten (wegen der erforderlichen schnellen Entscheidungsfindung insbesondere auch in Richtung autonom entscheidender Algorithmen), das schnell außer Kontrolle geraten wird.
Und dann hat man schnell einen Krieg Maschinen gegen Maschinen, den keiner befohlen hat, den vornehmlich Algorithmen ausgelöst haben, vielleicht nur noch mit einem Miniumum an menschlichem Zutun. Bei solchen Kriegen besteht -wie immer- die Gefahr, dass sie sich unkontrolliert ausbreiten, im schlimmsten Fall bis hin zu einem Weltkrieg.

Weiterhin:
Wäre so etwas erst einmal im militärischen Bereich etabliert, ist es nur noch ein kleiner und logischer Schritt, sie auch im polizeilichen Bereich gegen die eigene Bevölkerung einzusetzen.
Grüße
seeker


Wissenschaft ... ist die Methode, kühne Hypothesen aufstellen und sie der schärfsten Kritik auszusetzen, um herauszufinden, wo wir uns geirrt haben.
Karl Popper

Benutzeravatar
tomS
Ehrenmitglied
Ehrenmitglied
Beiträge: 10670
Registriert: 19. Nov 2007, 20:29

Re: Algorithmen auf dem Richterstuhl

Beitrag von tomS » 28. Aug 2018, 09:28

Zustimmung.

Außer bei
seeker hat geschrieben:
28. Aug 2018, 08:40
... wäre so etwas erst einmal im militärischen Bereich etabliert, ist es nur noch ein kleiner und logischer Schritt, sie auch im polizeilichen Bereich gegen die eigene Bevölkerung einzusetzen.
Ich denke, rein praktisch - nicht rechtlich - gesehen wäre das eher eine Vorstufe.

Autonome Drohnen wären bei Beschattung, Verfolgung und Festnahmen klar im Vorteil. Dabei ist Tötung natürlich nie das primäre Ziel, müsste jedoch in die SW integriert werden. Bei einer Festnahme wird die Drohne die Zielperson möglichst nicht verletzen, allenfalls lähmen; der Selbstschutz der Drohne könnte im Gegensatz zum menschlichen Polizeibeamten dabei deutlich niedrigere Priorität haben. Allerdings kann ein flüchtiger Verbrecher natürlich nach wie vor zu Mitteln wie Geiselnahmen greifen, und dann muss die Drohne alle Maßnahmen ergreifen können, bis hin zum finalen Rettungsschuss. Ziel wäre es ja, dass der Drohneneinsatz die Sicherheit Unbeteiligter oder potentieller Opfer besser gewährleisten kann.

Das wäre auch für private Sicherheitsdienste interessant, z.B. in Banken, Juwelierläden, bei Großveranstaltungen wie Fußballspielen etc. Wenn ich Überwachung per Video plus Mechanismus zur Festnahme eines Hooligans in ein Gerät integrieren kann, bin ich klar im Vorteil.

Schwieriger als bei militärischen Drohnen ist die Mustererkennung, da es keine klare Frontlinie gibt. Allerdings kennen wir das bereits heute von asymmetrischen Konflikten mit Zivilisten als menschlichen Schutzschilden.

Das Problem ist - wie immer - das Wettrüsten sowie die illegale Beschaffung von Waffen durch Kriminelle, Terroristen oder Schurkenstaaten. Wäre das nicht gegeben, dann wäre rein praktisch - nicht ethisch - der Drohneneinsatz tatsächlich vorteilhaft. Warum soll ich als Politiker Soldaten oder Polizisten gefährden müssen, um Kriminelle oder Terroristen zu fassen, insbs. wenn Selbstmordattentäter sich selbst bewusst opfern wollen? Isoliert betrachtet wäre der Einsatz autonomer Drohnen hier kein ethisches Problem. Das Problem resultiert - wie du schon richtig sagst - aus der prinzipiell niedrigeren Hemmschwelle, des Rüstungswettlaufes etc.
Gruß
Tom

Der Wert eines Dialogs hängt vor allem von der Vielfalt der konkurrierenden Meinungen ab.
Sir Karl R. Popper

Benutzeravatar
Frank
Ehrenmitglied
Ehrenmitglied
Beiträge: 6164
Registriert: 12. Dez 2005, 23:22
Wohnort: Odenwald

Re: Algorithmen auf dem Richterstuhl

Beitrag von Frank » 28. Aug 2018, 10:47

tomS hat geschrieben:
27. Aug 2018, 14:22


Ja, du hast natürlich völlig recht, dass diese Entwicklungen ein erheblich größeres Gefährdungspotential aufweist. Autonomes Fahren ist - wenn man‘s richtig macht - ein ausschließlich ethisches Problem!
Nö, ist es nicht. Hier hängen soviele Dinge dran, wie Manipulationen, technische Probleme , Materialbversagen und den daraus entstehenden Haftungen z.B. ( und es gibt noch zig andere nicht ethische Gründe)

tomS hat geschrieben:
27. Aug 2018, 14:22
Voll-autonome Waffensysteme könnten natürlich außer Kontrolle oder unter den Einfluss von Hackern geraten - wobei voll-autonom m.E. nicht die Exietenz eines Not-Aus ausschließen muss.

Der Vorteil voll-autonomer Waffen ist auch - jedoch nicht ausschließlich - die Geschwindigkeit der Entscheidungsfindung. Ein essentieller Vorteil ist die Vollautonomie an sich, da sie den ganz- oder teilweisen sowie vollständig oder zeitweisen Verzicht auf eine Entscheidungskette ermöglicht. Z.B. kann man ein Drohnenschwarm mit einem bestimmten Auftrag aussenden, der vollständig autonom durchführbar ist. Man benötigt keine Rücksprache mit einer Zentrale, die z.B. gestört sein kann, überlastet ist usw.

Man stelle sich vor, dass nicht der Taliban-Chef sondern zig Taliban-Kämpfer ausgeschaltet werden sollen: Zur Überwachung würden Dutzende von Spezialisten benötigt; die Kommunikation wäre anfällig; Absprachen in der Leitstelle wären kompliziert, ... Stattdessen erhält jede Drohne eine SW zur Gesichts- und Bewegungsmustererkennung, Photos der Zielpersonen sowie einen groben Einsatzplan sowie -bereich. Die Drohnen können autark oder ggf. vernetzt operieren, sie können das Waffensytestem selbst wählen, sie können töten oder lähmen. Der Drohnenschwarm muss nicht aus der Nähe von einem Flugzeugträger gestartet und koordniert werden, sondern kann von einem unbemannten Spezialflugzeug in großer Höhe freigesetzt werden. Durch den Schwarm erhält man eine hohe Redundanz.

Die notwendige Technik und Infrastruktur sind evtl. schlichtweg billiger bereitzustellen und zu betreiben; das ist sogar für amerikanische Militärs ein entscheidender Punkt.
Der größte Vorteil von autonomen Waffen ist der praktisch nicht vorhandene Verlust von Menschenleben, der in jeder aufgeklärten Zivilisattion immer schwerer vermittenbar ist.
Und zu deiner Gesichts und Personenerekennung:
Wieviele Doppelgänger hatte z.B. Bin Laden nochmal?
Willst du mir jetzt ernsthaft erzählen, deine KI könnte gezielt eine Person in einer Menschenansammlung treffen, ohne Kollateralschäden?

Das Bauchgefühl des Menschen, was deine KI nie haben wird, was zwar nicht vor Fehlentscheidungen bewahrt,aber zumindest noch Skrupel aufkommen lässt, hat schon so manche Katastrophe in der Vergangenheit verhindert.

Man überlege sich die Kuba Krise damals in Händen von KI........ nicht auszudenken.... :? :shock:
Mit freundlichen Grüßen

Frank

Benutzeravatar
tomS
Ehrenmitglied
Ehrenmitglied
Beiträge: 10670
Registriert: 19. Nov 2007, 20:29

Re: Algorithmen auf dem Richterstuhl

Beitrag von tomS » 28. Aug 2018, 11:04

Frank hat geschrieben:
28. Aug 2018, 10:47
tomS hat geschrieben:
27. Aug 2018, 14:22


Ja, du hast natürlich völlig recht, dass diese Entwicklungen ein erheblich größeres Gefährdungspotential aufweist. Autonomes Fahren ist - wenn man‘s richtig macht - ein ausschließlich ethisches Problem!
Nö, ist es nicht. Hier hängen soviele Dinge dran, wie Manipulationen, technische Probleme , Materialbversagen und den daraus entstehenden Haftungen z.B. ( und es gibt noch zig andere nicht ethische Gründe)
Wenn man es richtig macht, ich das alles kein Thema.

Heute kommen in den USA ca. 30000 Menschen überwiegend durch menschliches Versagen im Straßenverkehr zu tode. Wenn man diese Zahl auf 1/10 oder weniger reduziert, dann sind andere Themen vernachlässigbar, 100 Tote durch technische Fehlfunktion irrelevant - mit Ausnahme der ethischen Frage.

Letztere muss man zuerst klären, bevor man daraus Rechtsnormen etc. ableiten kann. Das Umsetzen in Gesetze ist lediglich Fleißarbeit, wenn man die ethische Debatte geführt hat.
Gruß
Tom

Der Wert eines Dialogs hängt vor allem von der Vielfalt der konkurrierenden Meinungen ab.
Sir Karl R. Popper

Benutzeravatar
tomS
Ehrenmitglied
Ehrenmitglied
Beiträge: 10670
Registriert: 19. Nov 2007, 20:29

Re: Algorithmen auf dem Richterstuhl

Beitrag von tomS » 28. Aug 2018, 11:13

Frank hat geschrieben:
28. Aug 2018, 10:47
Und zu deiner Gesichts und Personenerekennung:
Wieviele Doppelgänger hatte z.B. Bin Laden nochmal?
Willst du mir jetzt ernsthaft erzählen, deine KI könnte gezielt eine Person in einer Menschenansammlung treffen, ohne Kollateralschäden?
Dann lähmt man die Gruppe und analysiert anschließend in Ruhe :-) Es geht nicht um eine sofortige Tötung.

Bei einen Doppelgänger wird ein Mensch genau die selben Probleme haben wie eine KI; letztere wird auf absehbare Zeit sicher besser sein als wir.

Zu den Skrupeln: da hast du absolut recht; ich habe auch nur gesagt, dass ich die nicht hätte oder dass sie irrelevant wären.

Anderes Beispiel: man stelle sich vor, wir hätten bereits heute vollautonome Drohnenschwärme; rein militärisch wäre das ganze IS-Grauen sehr einfach und ohne Gefährdung eigener Soldaten vermeidbar gewesen (gleiches gilt für Stebrenica, Ruanda, ...). Wiederum bleiben „nur“ ethische und natürlich politische Fragen.
Gruß
Tom

Der Wert eines Dialogs hängt vor allem von der Vielfalt der konkurrierenden Meinungen ab.
Sir Karl R. Popper

Antworten