Gibt es ein Problem mit KI?
Künstliche Intelligenz eröffnet vielen Menschen neue Möglichkeiten und birgt gleichzeitig Herausforderungen, während andere sie als Bedrohung sehen. Um diese Debatte ernst zu nehmen, ist es zunächst wichtig zu verstehen, was diese Technologie ist und wie sie funktioniert, um die damit verbundenen Risiken zu erkennen und sie zu minimieren. Dies zeigt sich deutlich in einer ihrer attraktivsten Anwendungen: ihrer Vorhersagefähigkeit. Nichts fasziniert die Menschen mehr als die Möglichkeit, die Zukunft vorherzusagen, und KI beherrscht diese Fähigkeit sehr gut. Die Arbeit der KI hat jedoch nichts mit besonderer Intuition zu tun, sondern vielmehr mit ihrer Fähigkeit, Informationen aus vergangenen Daten zu verarbeiten und daraus Muster und Modelle abzuleiten, die Vorhersagen ermöglichen. Diese Vorhersagen können auch Auswirkungen auf Menschen haben, die beispielsweise versuchen, vorhergesagte Ereignisse wie die Auswirkungen bestimmter Wetterphänomene zu beeinflussen. Problematisch werden diese Vorhersagen jedoch, da sie im Bereich der Physik angesiedelt sind, wenn sie sich auf menschliches Verhalten beziehen. Ein bekanntes Beispiel ist die COMPAS-Software, die in den USA Gerichte bei der Einschätzung der Rückfallwahrscheinlichkeit von Straftätern unterstützt. Sie leistet dabei keine schlechte Arbeit. Die Entscheidungen von COMPAS sind genauer als die eines unerfahrenen Richters, aber schlechter als die eines Teams erfahrener Richter. Ihre Effektivität wäre durchaus zufriedenstellend, gäbe es da nicht ein Detail: Wenn sie einen Fehler macht, ist die betroffene Person in den meisten Fällen schwarz. Das Problem ist, dass diese rassistische Voreingenommenheit, die ein verwerflicher Fehler wäre, wenn sie von einem Richter käme, nicht als Fehlfunktion der KI abgetan werden kann, da diese keine moralischen Vorurteile hat. Wie bereits erwähnt, verwendet die KI ausschließlich historische Daten, und wenn schwarze Gefangene in der Vergangenheit häufiger als potenziell rückfallgefährdeter galten, ist dies ein Muster, das sie nicht ignorieren kann.
Befürworter dieser Technologie argumentieren möglicherweise, dass diese Verzerrung korrigiert werden kann. Doch ein weiterer Aspekt der KI erschwert diese Korrektur: der Anschein von Neutralität. Trotzdem glauben viele Menschen weiterhin, dass KI, da sie nicht menschlich ist, unvoreingenommen und ihre Antworten neutral und rational sind. Selbst im Wissen, dass KI Fehler macht, neigen wir dazu, dem, was uns ein Mensch sagt, mehr zu misstrauen als den Antworten von ChatGPT. Dies erschwert eine kritische Auseinandersetzung mit der Technologie.
Die größte Gefahr des unkritischen Einsatzes dieser Systeme besteht jedoch darin, dass sie eine charakteristische Eigenschaft des Menschen außer Acht lassen: die Fähigkeit, Fehler zu erkennen und zu korrigieren. Die Tatsache, dass eine bestimmte Gruppe eine hohe Kriminalitätsrate aufweist, ist kein Hindernis für ein Mitglied dieser Gruppe, einen anderen Weg einzuschlagen. Entscheidungen über die Inhaftierung von Menschen zu automatisieren und dabei deren Fähigkeit zur Selbstkorrektur zu ignorieren, ist eine unmenschliche Haltung. Denn so sehr sie auch die Arbeit der Richter erleichtern mag, in der Praxis beraubt sie die Betroffenen der Möglichkeit zur Veränderung.
Das macht diese Tools nicht nutzlos, aber es unterstreicht die Notwendigkeit, ihre ethischen und rechtlichen Implikationen zu bewerten. Diese Bewertung liegt nicht in der Verantwortung der Programmierer, die sie entwickeln, oder der Unternehmen, die sie vermarkten. Das Problem mit KI ist heute nicht die Angst vor einer Roboterrebellion, sondern das Fehlen einer ernsthaften politischen und gesellschaftlichen Debatte über ihren Einsatz und die notwendigen Grenzen.