Ich habe das Gefühl, dass gerade bei dem Beispiel etwas aufgeblasen wird, das gar nicht ist. Also ich sehe das so:tomS hat geschrieben: ↑25. Jan 2018, 19:10Die Grenzen sind sicher fließend, aber so unpassend ist das Beispiel "Arbeitsplätze vs Menschenleben" wohl nicht. Ich behaupte, dass es sich um ein Dilemma handelt, da man Argumente für bzw. wider jede der beiden Positionen finden kann:
1) Frank hat recht, man kann nicht einfach Ärzte wegrationalisieren und durch KIs ersetzen.
2) Und ich habe - denke ich - auch recht, denn man kann einzelnen Menschen nicht die Nutzung einer KI verbieten, wenn dadurch z.B. die Heilungschancen steigen.
Wenn man aber (2) zulässt so befördert man dadurch (1).
1. Rationalisierungen werden selbstverständlich weiterhin stattfinden, dort wo es sinnvoll ist geht kein Weg daran vorbei, wir machen das seit 200 Jahren so, wir werden damit nicht aufhören. Realistisch betrachtet steht das bis auf Weiteres nicht zur Diskussion, alles andere ist m. E. idealistische Träumerei.
Anderes Beispiel: Wenn sich der Kohleabbau in Deutschland nicht mehr lohnt, dann wird der Tagebau irgendwann eingestellt, egal wie viele Arbeitsplätze das kostet. Es gab und gibt Übergangsfristen um das sozialverträglicher zu machen, ja, aber man kann es sich gerade in der heutigen Welt einfach nicht leisten zu sehr zurück zu schauen und zu sehr am Alten festzukleben, sonst bleibt man auf der Strecke. Das heißt bei den Ärzten, Juristen, usw.: Was man dort an Arbeitsplätzen wegrationalisieren können wird, wird auch wegrationalisiert werden, überhaupt keine Frage - und da wird es auch keine großen ethischen Diskussionen drüber geben, nicht über das Grundsätzliche, nur vielleicht darüber, wie man das möglichst sozialverträglich gestalten kann.
2. So lange nicht zur Debatte steht ob eine KI eine Person ist (mit allem was dazugehört) dann handelt es sich bei einer KI ganz eindeutig um ein technisches Hilfsmittel.
Dieses Hilfsmittel wird ein Arzt ebenso nutzen, ebenso wie dann auch Privatpersonen (allerdings wohl sicher mit Einschränkungen, denn um gute Antworten zu erhalten muss ich gute Fragen stellen können, was ich als Laie nicht so gut kann wie der Arzt, außerdem werden nicht alle KI-Systeme allen zugänglich sein, schon gar nicht kostenlos).
Wo aber wäre dann der große Unterschied zu heute?
Auch heute schon kann ich ich verschiedene Ärzte konsultieren, verschiedene Meinungen einholen, kann selber googeln und lesen, kann das mit Ärzten diskutieren und mich dann frei für eine Bahndlungsmethode entscheiden (mindestens so lange ich die Kosten zu tragen bereit bin), wenn ich mich z.B. für eine mir notwendig erscheinende Operation entscheide, unterschreibe ich das vorher, damit ist der Arzt aus dem Schneider, so lange er nicht pfuscht und das tut was vereinbart war. Was wird sich daran durch künftige KIs ändern? Gar nichts!
Und wenn sich die KI täuscht und schlecht berät? Na ganz einfach, da wird ganz sicher eine entsprechende Klausel in den AGBs der KI stehen: "Ohne Gewähr!" Ist doch klar! Und wenn nicht wäre selbstverständlich der Hersteller in der Pflicht, wie bei jedem anderen technischen Hilfsmittel auch.
Und Zweitmeinungen werden besonders bei größeren Sachen immer noch genauso wichtig sein.
Und wie wird es bei selbstfahrenden Autos sein?
Na ganz wie immer: technische Einrichtungen und Hilfsmittel müssen in dem Rahmen funktionieren der vereinbart ist und den Normen entspricht. Wenn ich einen Unfall baue, weil mein Fahrzeug einen Herstellungsfehler an den Bremsen hat, wer haftet dann? Natürlich der Hersteller. Und wenn die Werkstatt gepfuscht hat, dann die.
Wenn ich nun ein autonomes E-Taxi per Handyapp bestelle, da mitfahre und ein Unfall geschieht, wer haftet dann? Ganz sicher nicht ich, ganz genauso nicht wie wenn ich mit dem Zug gefahren wäre, genauso nicht, wie wenn der Hersteller die Bremsen verpfuscht hätte. Und ansonsten sind ja eh alle versichert. Alles wie gehabt.
Wo ich an der Stelle eher ein Problem sehe ist die Überprüfbarkeit:
Wie will man überprüfen, ob der Hersteller bei der Herstellung der KI die gesetzlichen Vorschriften und Normen einhält? Wir bekommen es ja anscheinend nicht einmal gebacken zu prüfen, ob sich die Automobiler bei der Abgassoftware an die Regeln halten bzw. braucht es Jahre, bis sowas dann mehr zufällig rauskommt - tröpfchenweise.
Und wie soll man eine KI bei Dillemma-Situationen einstellen/programmieren (z.B. ausweichen und Oma umfahren oder nicht ausweichen und dafür Kind umfahren)?
Auch dafür wird es Lösungen geben, auch da kann man sich ohne größeren Aufwand einigen, beim heutigen Zeitgeist wird man eine utilitaristische Lösung bevorzugen:
https://de.wikipedia.org/wiki/UtilitarismusDer Utilitarismus (lat. utilitas, Nutzen, Vorteil) ist eine Form der zweckorientierten (teleologischen) Ethik, die in verschiedenen Varianten auftritt. Auf eine klassische Grundformel reduziert besagt er, dass eine Handlung genau dann moralisch richtig ist, wenn sie den aggregierten Gesamtnutzen, d.h. die Summe des Wohlergehens aller Betroffenen, maximiert.
... also trifft es dann wohl die Oma, so schlimm das auch sein mag. Es ist aber auch gar nicht klar, ob man so etwas überhaupt in der nötigen Genauigkeit einer solchen KI beibringen kann, es ist ja davon auszugehen dass sie selbstlernend ist, dass es hier also mindestens teilweise gar keine klassiche Programmierung gibt.
Und ansonsten: Mit diesen Zwickmühlenfragen kann man auch uns Menschen konfrontieren. Wie wird es denn bei uns gehandhabt? Kommst du in den Knast wenn das Kind ohne dein Verschulden vor dein Auto springt und du dann nicht die Oma umfährst? Sicher nicht, auch nicht im anderen Fall.
So hart das klingen mag, aber diese Zwickmühlenfragen sind zweitrangige Details, wo man sich eben auf irgendetwas einigen wird, das sind keine wirklich unlösbaren Probleme.
Wirklich wichtig ist hier eines: Werden durch automatisches Fahren mehr oder weniger Menschen umgefahren? Und wenn die Antwort darauf lautet: "90% weniger!", dann ist alles andere eben tragisch aber zweitrangig: das Wohl der Vielen ist wichtiger als das Wohl eines zufälligen Einzelnen.
Bei den Ärzten und auch sonst überall wird es genau dieselbe Frage in Entsprechung sein, je nach Antwort wird dann auch dort alles nicht wirklich schwierig zu entscheiden sein.
Es bleibt also aus meiner Sicht und im Grunde erst einmal alles beim alten Spiel, nur mit einigen Detailneuerungen gewürzt.
Und deshalb ist es auch nicht so, dass eine zu langsam regulierende Politik vom rasanten Fortschritt überfahren würde... es ist doch ganz einfach: So lange es keine Regulierung/Erlaubnis gibt, wird es auch einige technische Hilfsmittel (ob nun KI-Berater, selbstfahrende Autos oder sonstwas) eben auch nicht geben, wie immer; die Politik kann also in dem Sinn gar nicht überfahren werden, einzig könnte es passieren, dass wir hierzulande langsamer reagieren wie in anderen Ländern, was uns einen Entwicklungsnachteil einbringen würde.