Hinweis auf die DSGVO: Auf unserer Seite werden keine Dritt-Anbieter-Cookies verwendet und nur Daten erfasst, welche für das Minimum an Board-Funktionalität notwendig sind.
Bevor Sie sich registrieren oder das Board verwenden, lesen Sie bitte zusätzlich die DSGVO-Erklärung, welche in der Navigationsleiste verlinkt ist.

Kurzfassung der unserer Meinung nach wichtigsten DSGVO-Punkte:
Es kann vorkommen, dass Benutzer eigenverantwortlich Videos oder sonstige Medien in ihren Beiträgen verlinken, welche beim Aufruf der Forenseite als Teil der Seite samt zugehörigem Material mitgeladen werden. Sollten Sie dies nicht wünschen, verwenden Sie beim Benutzen des Forums einen Blocker wie z.B. uMatrix, welcher das Laden von Inhaltsblöcken von Fremd-URLs effektiv unterbinden kann.
Wir blenden keine Werbung ein und schränken die Inhalte in keinster Weise bei Benutzung von Addblockern ein. Dadurch ist die Grundfunktionalität des Forums auch bei vollständigem Blockieren von Drittanbieter-Inhalten stets gegeben.

Cookies werden unsererseits nur verwendet um das Einloggen des Benutzers für die Dauer der Forenbenutzung zu speichern. Es steht dem Benutzer frei die Option 'Angemeldet bleiben' zu verwenden, damit der Cookie dauerhaft gespeichert bleibt und beim nächsten Besuch kein erneutes Einloggen mehr notwendig ist.
EMail-Adressen werden für Kontakt bei wichtigen Mitteilungen und zur Widerherstellung des Passwortes verwendet. Die verwendeten IPs können von uns ohne externe Hilfsmittel mit keiner realen Person in Verbindung gebracht werden und werden nach spätestens 7 Tagen gelöscht. Diese IPs werden höchstens verwendet um Neuanmeldungen unerwünschter oder gesperrter Nutzer zu identfizieren und zu unterbinden. Wir behalten uns daher vor bei Verdacht, die Frist für die IP-Löschung auf maximal 14 Tage zu verlängern.
Unsere Webseite läuft auf einem virtuellen Linux-Server, welcher von einem externen Anbieter gehostet wird. Etwaige Verstöße der DSGVO-Auflagen seitens dieses deutschen Hosters können wir nicht feststellen und somit auch nicht verfolgen.
Wir halten Backups unserer Datenbanken, welche in regelmäßigen Abständen als Schutz vor Katastrophen, Hackerangriffen und sonstigen Ausfällen erstellt werden. Sollte ein Nutzer die Löschung seiner Daten wünschen, betrachten wir es als Unzumutbar die Backups auch von den Daten zu befreien, da es sich hierbei um eine mehrtägiges Unterfangen handelt - dies ist für eine Einzelperson beim Betrieb eines privaten Forums nicht zumutbar möglich ohne das Backup komplett zu löschen.
Sollten Sie etwas gegen die dauerhafte anonyme Speicherung ihrer EMail-Adresse, ihres Pseudonyms und ihrer Beiträge in einem Backup haben, sehen Sie von der Registrierung in diesem Forum ab. Für Mitglieder, welche vor dem 25.05.2018 registriert waren steht jedoch das Recht im Raum, eine Löschung der Datenbank-Backups zu beantragen.



Wenn dies Ihr erster Besuch hier ist, lesen Sie bitte zunächst die FAQs sowie die wesentlichen Regeln zur Benutzung des Forums.
Um an den Diskussionen teilnehmen zu können, müssen Sie sich zunächst registrieren.

Darf künstliche Intelligenz Tötungen billigend in Kauf nehmen ?

Wissenschaftsgeschichte, Wissenschaftstheorie bzw. -philosophie, Technik
Benutzeravatar
ralfkannenberg
Ehrenmitglied
Ehrenmitglied
Beiträge: 1511
Registriert: 13. Jan 2017, 10:00

Re: Darf künstliche Intelligenz Tötungen billigend in Kauf nehmen ?

Beitrag von ralfkannenberg » 3. Feb 2018, 16:01

Hallo zusammen,

ich möchte mir einmal Toms Algorithmus vom Nachbarthread "Algorithmen auf dem Richterstuhl" aus Sicht dieses Threads anschauen.

Vorbemerkung: da Tom mehrere Formattierungen verwendet hat, besteht die Möglichkeit, dass ich diese bei meinen Zitaten, bei denen ich diese Formattierungen von Hand eingefügt habe, versehentlich nicht immer richtig übernommen habe. Ich bitte diesbezüglich um Korrektur und um Nachsicht.


Nun also zu Toms Gedanken und seinem Algorithmus:

tomS hat geschrieben:
1. Feb 2018, 23:10
Die Software minimiert den Schaden nach einen vorgegebenen Bewertungsvorschrift.

Hier mal eine textuelle Beschreibung meines Algorithmus:


// ein unmittelbar drohender Crash wird erkannt: z.B. springt eine vorher unsichtbare Person
// plötzlich sehr nahe vor dem Auto auf die Straße

OnImminentCrash() //
Hier haben wir also die von mir kritisierte stillschweigende Voraussetzung des Nachbarthreads, in dem der Algorithmus vorgestellt wurde.

tomS hat geschrieben:
1. Feb 2018, 23:10
in diesem Falle wird der folgende Algorithmus ausgeführt:
{
...

// die durch Lenkbewegung erreichbare Umgebung wird in endlich viele Teile zerlegt:
// unter diesen Objekten der Breite des Autos befinden sich i.a. hindernisfreie Lücken,
An dieser Stelle kommt mein Argument der angepassten Infrastruktur, in diesem Fall konkret der breiteren Strassen, damit mehr Platz zum Ausweichen besteht, zur Anwendung.

tomS hat geschrieben:
1. Feb 2018, 23:10

// das Objekte mit dem eigtl. Hindernis sowie andere Objekte mit anderen Personen etc.


allObjects.sort( value ); // alle Objekte werden nach ihren jeweiligen Wert sortiert
target = allObjects.front(); // das Objekt mit dem niedrigsten Wert wird zum Ziel erklärt
setDirection( target ); // die neue Richtung des Autis wird auf dieses Ziel ausgerichtet

...
}


Der Algorithmus ist sehr allgemein. Objekte können z.B. beliebigen Inhalt haben, d.h. der Algorithmus funktioniert sogar für den Normalfall, in dem nichts zu tun ist, oder bei dem Ausweichen problemlos möglich ist, oder bei dem z.B. recht gefahrlos in den Straßengraben gesteuert werden kann.
Und in diesem Fall kommt mein Argument mit verbesserter Infrastruktur innerhalb der Autos, damit den eigenen Insassen im Falle eines Zusammenstosses oder im Fall eines Steuerns in den Strassengraben nichts passiert, zur Anwendung.

tomS hat geschrieben:
1. Feb 2018, 23:10
Der Knackpunkt steckt einzig und allein in der Bewertungsfunktion value(), die jedem Objekt einen Wert zuweist.

Eine Lücke hat z.B. den Wert 0; die geradeaus erreichbare Lücke sogar den Wert -1, so dass bei freier Fahrt immer "geradeaus" gewählt wird. Der Straßengraben erhält +1 (ganz ohne Gefahr ist das nicht für den Insassen), ein Hund erhält +10 (lieber doch in den Straßengraben fahren). Eine Maus erhält 0 (unnötigerweise Ausweichen bedeutet eine Gefahr für die Insassen). usw.


Interessant wird's erst, wenn keine Objekte ohne Menschen, ohne andere Autos und ohne weitere Hindernisse vorhanden sind. Nehmen wir an, der Algorithmus erkennt neben dem ursprünglichen Hindernis - einem Kind - noch ein entgegenkommendes Fahrzeug. Das Kind erhält den Wert +1000 (entspr. 100 Hunde). Das Fahrzeug erhält den Wert +1500, weil im Schnitt 1.5 Personen in einem Fahrzeug sitzen. In diesem Fall würde der Algorithmus nicht ausweichen und das Kind überfahren.

Die Techniker weisen darauf hin, dass das entgegenkommende Fahrzeug eine Knautschzone hat und die Insassen schützt. Der Programmierer ändert daraufhin nach Anweisung den Wert auf +750. Nun würde der Algorithmus ausweichen und das entgegenkommende Fahrzeug rammen.

Ein Jahr später ist eine präzisere Bilderkennung auf dem Markt. Sie erkennt in dieser Situation, dass das entgegenkommende Fahrzeug ein Smart mit praktisch Null Knautschzone ist mit genau einem Insassen ist. Der Wert wird konsequenterweise auf +1000 geändert, also dem selben Wert wie für das Kind.

Im Test stellt sich dann heraus, dass die Sortierfunktion nicht eindeutig ist, wenn zwei identische Bewertungen vorliegen. In diesem Fall spielt die Reihenfolge der Erkennung der Objekte eine maßgebliche Rolle. Z.B. werden Objekte von rechts nach links sortiert: ein von rechts auf die Straße springendes Kind wird ausgewählt und überfahren, bei ein von links kommendes Kind wird stattdessen der Smart gewählt. Die Software erhält zunächst keine Zulassung.

Gutachter stellen dann jedoch fest, dass die neue Software zwar ein unklares Verhalten aufweist, jedoch statistisch gesehen dennoch korrekt funktioniert. Die Software erhält für diesen Fall einen Zufallsgenerator und wird zugelassen.
Das sind nun Vorschläge, wie man die Bewertungsfunktion implemetieren soll. Im Zusammenhang dieses Threads ist die Frage nicht, wie man so eine Bewertungsfunktion implementieren soll, sondern lediglich, ob man eine solche Bewertungsfunktion implemetieren soll.

tomS hat geschrieben:
1. Feb 2018, 23:10
Nach mehreren Unfällen klagen Hinterbliebene bis vor das Bundesverfassungsgericht. Dieses verbietet grundsätzlich die Abzählung und Aufrechnung von Menschenleben, in verschiedenen Varianten, und verweist die Detailklärung an das Parlament.
Im Rahmen dieses Threads verlagert sich diese Klage darauf, dass dieser Algorithmus überhaupt angewandt wurde.

tomS hat geschrieben:
1. Feb 2018, 23:10
Aufgrund der Rechtsunsicherheit nimmt der Hersteller die Software vom Markt; in der Folge sterben wieder deutlich mehr Fußgänger im Straßenverkehr.
Und an dieser Stelle kommen nun weitere Massnahmen zur Verbesserung der Infrastruktur zum Zuge: grössere Abstände zwischen den Hindernissen am Rand, hinter denen sich eine vom Auto nicht sichtbare Person befinden könnte, so dass die Sensoren diese Person dank der grösseren Abstände erkennen können, zudem wird die Fahrgeschwindigkeit genügend niedirg gehalten, dass stets eine Schnellbremsung ohne Gefahr für die hinter dem Hindernis hervorkommende Person besteht. Grundsätzlich könnte diese Person vor das vorausfahrende Auto springen, welches aber gefahrlos ausweichen kann, so dass unser Auto mit der Person zusammenstösst; aus diesem Grunde muss der Abstand zum vorausfahrenden Auto ebenfalls gross genug gehalten werden, so dass im Fall, dass dieses einem Auto ausweicht, eine gefahrlose Schnellbremsung möglich ist.

Mit diesen Massnahmen bleibt die Zahl der Todesopfer im Strassenverkehr auf dem tieferen Niveau.

tomS hat geschrieben:
1. Feb 2018, 23:10
Man kann sich beliebige Stories ausdenken. Die zentrale Flage lautet immer: wer legt wie die Bewertungsfunktion value() fest, und nach welchen übergeordneten rechtsstaatlichen Kriterien oder ethischen Grundsätzen?
Eine solche Frage ist dann ausschliesslich von akademischem Interesse. Tatsächlich muss eine Sicherheitskomponete der AI, die selbstverstädnlich redundant ausgelegt ist, eine solche Software erkennen und als "schädlich" deaktivieren.

tomS hat geschrieben:
1. Feb 2018, 23:10
Softwaretechnisch ist das einfach; und auch wenn man deutlich kompliziertere Analysen der Situation der durchführen kann und muss, ist das beherrschbar. Letztlich läuft es darauf hinaus, in einem Gesetz Rahmenbedingungen festzulegen, entsprechend derer die Hersteller die Werte vergeben - dann gäbe es konkurrierende Bewertungsfunktionen - oder im Gesetz die konkreten Zahlenwerte aufzuschreiben - dann wäre die Bewertungsfunktion eindeutig.
Im Rahmen dieses Threads wird das dann nicht mehr erforderlich sein. Allerdings besteht nach wie vor die Möglichkeit, dass man nicht AI-Software, die diese gefährlich Bewertungsfunktion nicht erkennen und deaktivieren können, mit solchen Bewertungsfunktionen versieht.

Ich will nicht verschweigen, dass die von mir genannten Massnahmen eine Anfangsinvestition erfordern, also Geld kosten. Allerdings kostet auch die Entwicklung solcher autonom fahrender Autos Geld. Um einen ersten Eindruck über die Zusatzkosten zu erhalten schlage ich vor, dass man diese beiden Kosten miteinander vergleicht.


Freundliche Grüsse, Ralf

Benutzeravatar
tomS
Administrator
Administrator
Beiträge: 10114
Registriert: 19. Nov 2007, 20:29
Wohnort: Nürnberg

Re: Darf künstliche Intelligenz Tötungen billigend in Kauf nehmen ?

Beitrag von tomS » 3. Feb 2018, 16:31

Sorry, ich versteh's leider nicht.

Was ist die stillschweigende Voraussetzung aus dem Nachbarthread?

Was bedeutet die Frage, ob man eine derartige Bewertungsfunktion implementieren soll? Ja, natürlich, wenn man sie benötigt. Bist du der Meinung, dass man diese Szenarien, wo sie relevant wäre, vollständig vermeiden kann?

Die Frage wer diese Bewertungsfunktion wi festlegt ist nur, dann von ausschliesslich akademischem Interesse, wenn du diese Szenarien sicher (beweisbar) ausschließen kannst. Kannst du das? Wie?
Gruß
Tom

«while I subscribe to the "Many Worlds" theory which posits the existence of an infinite number of Toms in an infinite number of universes, I assure you that in none of them am I dancing»

positronium
Ehrenmitglied
Ehrenmitglied
Beiträge: 2832
Registriert: 2. Feb 2011, 20:13

Re: Darf künstliche Intelligenz Tötungen billigend in Kauf nehmen ?

Beitrag von positronium » 3. Feb 2018, 16:31

ralfkannenberg hat geschrieben:
3. Feb 2018, 16:01
Ich will nicht verschweigen, dass die von mir genannten Massnahmen eine Anfangsinvestition erfordern, also Geld kosten.
Das ist doch der wesentliche Punkt.
Natürlich kann man im Extremfall alle Straßen auf Stützpfeilern neu bauen, so dass kein Fußgänger, kein Fahrradfahrer, kein Tier auf die Fahrbahn gelangen kann. Dann kann man auch hingehen, und diese ganze neue Infrastruktur zentral steuern. Ich glaube, in einem solchen Fall wären wir uns alle einig, dass die Zahl der Verkehrstoten, vielleicht abgesehen von Bränden, Katastrophenfällen u.a., nahe oder gleich Null wäre. Und die technische Umsetzung wäre relativ einfach.
Aber die Kosten wären doch untragbar.
Von daher kann man durchaus sagen, dass man Menschenleben und finanziellen Aufwand gegeneinander abwägt - und das macht man auch heute schon an sehr vielen Stellen.

Ich denke aber, dass so etwas nicht die Lösung sein kann.
Vielleicht wird es ja doch eines Tages etwas mit (zentral gesteuerten) Flugautos. Drohnentaxis gibt es ja schon die ersten. Wenn das kommt, erschließen sich zweieinhalb Dimensionen für den Verkehr, und damit wird die Dichte so gering, dass Verkehrstote die extreme Ausnahme sein werden.

Benutzeravatar
ralfkannenberg
Ehrenmitglied
Ehrenmitglied
Beiträge: 1511
Registriert: 13. Jan 2017, 10:00

Re: Darf künstliche Intelligenz Tötungen billigend in Kauf nehmen ?

Beitrag von ralfkannenberg » 3. Feb 2018, 16:37

tomS hat geschrieben:
3. Feb 2018, 16:31
Sorry, ich versteh's leider nicht.

Was ist die stillschweigende Voraussetzung aus dem Nachbarthread?
Hallo Tom,

nicht "aus" dem Nachbarthread, sondern "im" Nachbarthread. Deinen Algorithmus hast Du ja im Nachbarsthread vorgestellt, und da haben wir die Voraussetzungen, dass es Situationen gibt, in denen solche Kollisionen unvermeidbar sind.

tomS hat geschrieben:
3. Feb 2018, 16:31
Was bedeutet die Frage, ob man eine derartige Bewertungsfunktion implementieren soll? Ja, natürlich, wenn man sie benötigt.
Im Nachbarthread ja, denn dort gibt es Situationen, in denen sie benötigt werden. Allerdings bin ich der Meinung, dass das nicht mit AI geschehen soll, sondern ausschliesslich von Menschen oder zu deren Unterstützung mit klassischer Software.

tomS hat geschrieben:
3. Feb 2018, 16:31
Bist du der Meinung, dass man diese Szenarien, wo sie relevant wäre, vollständig vermeiden kann?
In diesem Thread suche ich nach Möglichkeiten, wie man solche Situationen vollständig vermeiden kann.


Freundliche Grüsse, Ralf

Benutzeravatar
tomS
Administrator
Administrator
Beiträge: 10114
Registriert: 19. Nov 2007, 20:29
Wohnort: Nürnberg

Re: Darf künstliche Intelligenz Tötungen billigend in Kauf nehmen ?

Beitrag von tomS » 3. Feb 2018, 16:39

Wie gesagt, ich versteh's nicht.

Ist die zentrale Aussage, dass man Vorkehrungen treffen kann (und soll), die beweisbar sicherstellen, dass die KI und in eine Situation kommt, in der eine derartige Bewertung notwendig wäre? Wenn das so ist, dann benötigt man eine derartige Funktion trivialerweise nicht.

Dann stellen sich jedoch Fragen wie: kann man das beweisbar sicherstellen? Kann man diesen Zustand realistischerweise herstellen - und was tut man in der Zwischenzeit?

Nehmen wir an, bauliche Veränderungen wären über 20 Jahre realisierbar, autonomes Fahren innerhalb von 5 Jahren. Welche Bewertungsfunktion nutzt man dann in diesen 15 Jahren? Oder verzichtet man auf autonomes Fahren und nimmt mehr Tote in Kauf?

Und benötigen wir dazu einen eigenen Thread?
Gruß
Tom

«while I subscribe to the "Many Worlds" theory which posits the existence of an infinite number of Toms in an infinite number of universes, I assure you that in none of them am I dancing»

Benutzeravatar
tomS
Administrator
Administrator
Beiträge: 10114
Registriert: 19. Nov 2007, 20:29
Wohnort: Nürnberg

Re: Darf künstliche Intelligenz Tötungen billigend in Kauf nehmen ?

Beitrag von tomS » 3. Feb 2018, 16:42

ralfkannenberg hat geschrieben:
3. Feb 2018, 16:37
In diesem Thread suche ich nach Möglichkeiten, wie man solche Situationen vollständig vermeiden kann.
Wenn du das schaffst, ist die Antwort auf deine im Titel gestellte Frage trivial. Die Frage sollte dann eher lauten, wie man diese Möglichkeiten realisiert. Das hat wenig mit KI zu tun.

Wenn du das nicht schaffst, kann man dies im anderen Thread diskutieren :-)
Gruß
Tom

«while I subscribe to the "Many Worlds" theory which posits the existence of an infinite number of Toms in an infinite number of universes, I assure you that in none of them am I dancing»

positronium
Ehrenmitglied
Ehrenmitglied
Beiträge: 2832
Registriert: 2. Feb 2011, 20:13

Re: Darf künstliche Intelligenz Tötungen billigend in Kauf nehmen ?

Beitrag von positronium » 3. Feb 2018, 16:45

ralfkannenberg hat geschrieben:
3. Feb 2018, 16:37
tomS hat geschrieben:
3. Feb 2018, 16:31
Was bedeutet die Frage, ob man eine derartige Bewertungsfunktion implementieren soll? Ja, natürlich, wenn man sie benötigt.
Im Nachbarthread ja, denn dort gibt es Situationen, in denen sie benötigt werden. Allerdings bin ich der Meinung, dass das nicht mit AI geschehen soll, sondern ausschliesslich von Menschen oder zu deren Unterstützung mit klassischer Software.
Mit klassischer Software, das sehe ich so. Den Menschen sollte man da aber heraus halten, schon allein weil so die Fahrzeuge billiger zu bauen sind. Ein NN sollte über Leben und Tod nicht entscheiden.

Benutzeravatar
ralfkannenberg
Ehrenmitglied
Ehrenmitglied
Beiträge: 1511
Registriert: 13. Jan 2017, 10:00

Re: Darf künstliche Intelligenz Tötungen billigend in Kauf nehmen ?

Beitrag von ralfkannenberg » 3. Feb 2018, 16:49

tomS hat geschrieben:
3. Feb 2018, 16:39
Wie gesagt, ich versteh's nicht.

Ist die zentrale Aussage, dass man Vorkehrungen treffen kann (und soll), die beweisbar sicherstellen, dass die KI und in eine Situation kommt, in der eine derartige Bewertung notwendig wäre? Wenn das so ist, dann benötigt man eine derartige Funktion trivialerweise nicht.
Hallo Tom,

das versuche ich seit Tagen zu vermitteln.

tomS hat geschrieben:
3. Feb 2018, 16:39
Dann stellen sich jedoch Fragen wie: kann man das beweisbar sicherstellen? Kann man diesen Zustand realistischerweise herstellen - und was tut man in der Zwischenzeit?
Das erste dürfte gelingen, die aus meiner Sicht offenen Fragen sind also nach dem "realistischerweise" und was man in der Zwischenzeit tun.

tomS hat geschrieben:
3. Feb 2018, 16:39
Nehmen wir an, bauliche Veränderungen wären über 20 Jahre realisierbar, autonomes Fahren innerhalb von 5 Jahren. Welche Bewertungsfunktion nutzt man dann in diesen 15 Jahren? Oder verzichtet man auf autonomes Fahren und nimmt mehr Tote in Kauf?
Wenn die Zwischenzeit nur 15 Jahre dauert, dann fahren autonome Fahrzeuge während dieser 15 Jahre eben langsamer. Ich habe gestern vorgerechnet, um wie wenig sich die Fahrzeit verlängert, wenn man in Wohngebieten nur mit 10 km/h fährt. Und die autonomen Fahrzeuge sind nicht so ungeduldig wie die Menschen. Und Parklücken weiter auseinander zu halten kann man ebenfalls innerhalb der Zeit, bis das autonome Fahren realisierbar ist, umsetzen.

tomS hat geschrieben:
3. Feb 2018, 16:39
Und benötigen wir dazu einen eigenen Thread?
Ich denke ja, zumal es hier um eine Grundsatzfrage geht, denn AI wird im täglichen Leben eine immer grössere Rolle einnehmen und diese dann auch dauerhaft behalten. Also muss man es schon am Anfang richtig machen und nicht aus Gründen der Bequemlichkeit der AI Handlungen erlauben, die mittel- und langristig gefährlich werden.


Freundliche Grüsse, Ralf

Skeltek
Site Admin
Beiträge: 3492
Registriert: 25. Mär 2008, 23:51
Wohnort: Stuttgart, Germany
Kontaktdaten:

Re: Darf künstliche Intelligenz Tötungen billigend in Kauf nehmen ?

Beitrag von Skeltek » 3. Feb 2018, 17:38

Nur kurz zum nachdenken zwischen geschoben: 10 Leute springen vom Gehweg absichtlich auf den Fahrbahnrand einer schnell fahrenden AI. Die AI weicht aus und überfährt auf der anderen Straßenseite einen Passanten und der Fahrer stirbt.
Da ist glaube nicht die AI schuld, das würde ein starrer Algorithmus auch nicht viel anders machen.
Es ist die Verantwortung der Leute eine AI nicht in eine Situation zu bringen, welche diese überfordert.
"Le's do it now. Le's make the world bedda"
'Sure, right now. I gotta. We gotta"

Unentscheidbarkeit für Dummies: Dieser Satz ist wahr

Benutzeravatar
tomS
Administrator
Administrator
Beiträge: 10114
Registriert: 19. Nov 2007, 20:29
Wohnort: Nürnberg

Re: Darf künstliche Intelligenz Tötungen billigend in Kauf nehmen ?

Beitrag von tomS » 3. Feb 2018, 17:50

ralfkannenberg hat geschrieben:
3. Feb 2018, 16:49
tomS hat geschrieben:
3. Feb 2018, 16:39
Ist die zentrale Aussage, dass man Vorkehrungen treffen kann (und soll), die beweisbar sicherstellen, dass die KI und in eine Situation kommt, in der eine derartige Bewertung notwendig wäre? Wenn das so ist, dann benötigt man eine derartige Funktion trivialerweise nicht.
Hallo Tom,

das versuche ich seit Tagen zu vermitteln.
Sobald also dieser ideale Zustand hergestellt wäre, ist das Problem gelöst.

ralfkannenberg hat geschrieben:
3. Feb 2018, 16:49
tomS hat geschrieben:
3. Feb 2018, 16:39
Nehmen wir an, bauliche Veränderungen wären über 20 Jahre realisierbar, autonomes Fahren innerhalb von 5 Jahren. Welche Bewertungsfunktion nutzt man dann in diesen 15 Jahren? Oder verzichtet man auf autonomes Fahren und nimmt mehr Tote in Kauf?
Wenn die Zwischenzeit nur 15 Jahre dauert, dann fahren autonome Fahrzeuge während dieser 15 Jahre eben langsamer ... Und Parklücken weiter auseinander zu halten kann man ebenfalls innerhalb der Zeit, bis das autonome Fahren realisierbar ist, umsetzen.
Sorry, aber ich halte das für eine Illusion.

Wenn das realistisch möglich wäre, könnte man dies auch ohne KI in Angriff nehmen. Ich sehe viel zu viele Widerstände und Kosten.

ralfkannenberg hat geschrieben:
3. Feb 2018, 16:49
tomS hat geschrieben:
3. Feb 2018, 16:39
Und benötigen wir dazu einen eigenen Thread?
Ich denke ja, zumal es hier um eine Grundsatzfrage geht, denn AI wird im täglichen Leben eine immer grössere Rolle einnehmen und diese dann auch dauerhaft behalten. Also muss man es schon am Anfang richtig machen und nicht aus Gründen der Bequemlichkeit der AI Handlungen erlauben, die mittel- und langristig gefährlich werden.
Ich denke nicht.

Wir haben den Thread "Algorithmen auf dem Richterstuhl"; da kann die Grundsatzfrage gerne weiterdiskutiert werden. Das Problem ist letztlich, dass gerade keiner mehr weiß, welche Variante und welches Argument gerade wo vorgebracht wurde.
Gruß
Tom

«while I subscribe to the "Many Worlds" theory which posits the existence of an infinite number of Toms in an infinite number of universes, I assure you that in none of them am I dancing»

Gesperrt