Das gute Leben

Philosophie zwischen Kant und Chaos

von Phil Baum


Darf KI ethische Entscheidungen treffen? Eine kritische Betrachtung

Eine Studie aus Stanford hat ergeben, dass Künstliche Intelligenz, in Form eines LLM’s, bei der Diagnose von Krankheiten zu besseren Ergebnissen als Ärzte kommt. Mit dem rasanten Fortschritt in der Entwicklung Künstlicher Intelligenz stellt sich die Frage, ob KI in der Lage sein sollte, ethische Entscheidungen zu treffen und in wie weit sie das überhaupt Leisten kann.

Eine ethische Entscheidung ist eine Wahl oder Handlung, die auf moralischen Prinzipien und Werten basiert, um zwischen richtig und falsch, gut und schlecht oder gerecht und ungerecht zu unterscheiden. Eine KI hat, von sich aus, kein Konzept von Ethik, kann aber durch das Antrainieren einer “Künstlichen Ethik” Entscheidungen treffen, die weitsichtiger sind als ein Mensch es treffen könnte. Anhand zweier Beispiele sollen zunächst mögliche Einsätze von KI dargestellt werden.

Eine mögliche Situation, in der eine KI einen Arzt oder eine Ärztin bei Entscheidung unterstützen könnte ist die Triage. In so einem Fall wäre es denkbar, die KI bestimmen zu lassen, welche Patienten mit welcher Priorität behandelt werden sollen. Eine Triage wird in der Regel nur in Extremsituationen angewandt. In solchen Situationen sind Ärzte bereits stark belastet, weshalb jede Entlastung dazu beiträgt, dass sie mehr Zeit für die Behandlung der Patienten haben. Angenommen, die KI kennt bereits die Krankenakten der Patienten, und akute Symptome werden durch das Pflegepersonal ergänzt, könnte die KI ein Ranking der Behandlungsprioritäten erstellen. Eine KI, die die Triage übernimmt, könnte also Ärztinnen und Ärzte in Extremsituationen erheblich entlasten. Darüber hinaus kann sie ihnen Arbeit ersparen, da durch die Vordiagnose der KI Zeit bei der weiteren Diagnose gewonnen wird. Dieses Ranking kann zwar zu einer Entscheidung über Leben und Tod eines Menschen führen, doch wenn es dazu beiträgt, dass Ärzte mehr Zeit für die Behandlung anderer Patienten haben, kann es letztlich Menschenleben retten. Es gibt ebenso Fälle, wie das autonome Fahren, in dem die KI unausweichlich eine Entscheidung treffen muss wie etwa beim sogenannten Trolley-Problem. Wenn ein Unfall unvermeidbar ist, und das Auto entscheiden muss, ob es in einen alten Mann oder ein Kind zu lenken, wohin soll es steuern? Der simpelste Fall ist von einem Unfall mit hoher Geschwindigkeit auszugehen, der mit hoher Wahrscheinlichkeit jeweils zum Tod führen würde. In diesem Fall wäre eine Entscheidung zugunsten des Kindes und gegen den alten Menschen nachvollziehbar. Bei niedrigen Geschwindigkeiten, die nur zu Knochenbrüchen führen, können eine ältere Person eventuell mehr geschädigt werden als ein Kind, weshalb es womöglich besser wäre, dem Kind leichtere statt der alten Person schwere Verletzungen zuzufügen.

Die beiden Beispiele zeigen, dass der Einsatz von KI auf der einen Seite Leben retten kann, auf der anderen Seite Leben zerstören muss. Im folgenden soll nun die Probleme und Gegenargumente erörtert werden.

Ein Problem und mögliches Gegenargument gegen den Einsatz bei einer Triage ist, dass die KI um ein solches Ranking zu erstellen, nicht nur die Überlebenschancen eines Patienten kennen muss, sondern auch die aktuellen Umstände im Krankenhaus. Sind alle Operationsräume belegt, macht es keinen Sinn einen Patienten die höchste Priorität zu geben, wenn eine Operation notwendig, aber nicht möglich ist. Die KI müsste demnach allumfassend Zugriff auf alle Informationen haben, um korrekte Entscheidungen treffen zu können. Ähnliches gilt für das Trolley-Problem, denn es ist möglich, dass das Auto, zum Beispiel durch verschmutzte Kameras, gar nicht erkennen kann, ob die Person wirklich alt ist und das Kind tatsächlich nur ein Kind ist oder vielleicht sogar mehrere.

Was beide Beispiele gemeinsam haben ist, dass sie einen utilitaristischen Ansatz verfolgen. Die KI kann, vorausgesetzt ihr steht eine möglichst große Datenbank zur Verfügung, Entscheidungen treffen, die mehr Konsequenzen berücksichtigt als es einem Menschen je möglich wäre. Die KI ist in der Lage wie ein Schachcomputer alle möglichen Abzweigungen und Möglichkeiten eines Entscheidungsbaumes zu berechnen, um dann zu einer Lösung zu kommen, die, im ersten Beispiel am meisten Leben rettet und im zweiten Beispiel den geringsten Schaden anrichtet, ohne dabei, wie der Mensch, selbst beteiligt zu sein. Während der Mensch also immer auch Produkt seiner aktuellen Umstände ist, welche ethische Entscheidungen beeinflussen kann die AI als Beobachter von außen wertfrei und emotionslos wählen. Nun könnte die KI aber – völlig Emotionslos und Wertefrei – entscheiden im Triagefall einen Menschen mit mittelschweren Schäden zu Opfern, um mit seinen Organen vier andere Menschen zu retten. Ein Toter ist besser als Vier Tote. Im Sinne des Utilitarismus wäre das der größtmögliche nutzen; im Sinne des menschlichen Verstandes jedoch ein Verstoß gegen die Menschenwürde und ebenso gegen den hippokratischer Eid des Arztes.

Ein weiteres, bereits heute bestehendes Problem ist der sogenannte KI-Bias. Da die Daten, mit denen das KI-Modell trainiert wurde, aus der Gesellschaft stammen, übernimmt die KI Vorurteile und Ressentiments. So war es zu Beginn unter anderem ein Problem, dass bei der Generierung eines Bildes, das fünf CEOs darstellen sollte, ein Bild mit fünf weißen Männern erzeugt wurde. Minderheiten sind, wie auch in den Trainingsdaten, unterrepräsentiert. Dadurch besteht die Gefahr, dass die KI dies in seine Entscheidungen mit einfließen lässt.

Der KI müsste also ein Rahmen gegeben werden, ein Regelwerk innerhalb dessen sie sich bewegen kann und es ist Denkbar, dass sich ein solches Regelwerk an den bereits bestehenden Rechten orientiert. Angenommen, die KI wird programmiert, sich an das Menschenrecht zu halten und diese werden ihr antrainiert, ergibt sich jedoch das Problem, dass die KI die Menschenrechte selbst interpretiert und somit selbst darüber entscheidet, ob ihre eigenen Entscheidungen den Gesetzen entsprechen. Sie richtet über sich selbst – ein Zirkelschluss, aus dem nicht ausgebrochen werden kann.

Letztendlich stellt sich, neben der rein rechtlichen Frage der Haftung, auch die der Konsequenzen. Während Menschen aus ihren Fehlern (meistens) lernen, kann die KI ohne Probleme denselben Fehler hunderte male wiederholen ohne es als Fehler zu erkennen. Und selbst wenn die KI über das gute oder schlechte Ergebnis einer seiner Entscheidungen unterrichtet wird, stellt sich die Frage, ob sie daraus Lernen kann.

Die Frage, ob KI ethische Entscheidungen treffen dürfen, kann aus meiner Sicht derzeit mit einem klaren Nein beantwortet werden. Die Unsicherheiten darüber, ob eine gesetzeskonforme und moralisch richtige Entscheidung getroffen wird, überwiegen bei Weitem. Um ethische Entscheidungen treffen zu können, muss die KI einen weiteren Schritt in Richtung “Vernunft” gehen. Angesichts der aktuell rasanten Entwicklung der Modelle und des Wettrennens um die beste KI auf dem Markt sollte dies jedoch nur eine Frage der Zeit sein.