Unschuldiger Roboter
In den letzten Wochen gab es einige Nachrichten darüber, wie „normale Menschen“ künstliche Intelligenz nutzen. Wir wussten zwar, dass Schüler sie für ihre Hausaufgaben nutzen würden, aber wir hätten nicht geglaubt, dass sie anfangen würden, mit ihnen wie mit Freunden zu sprechen, die sie nicht haben, oder dass sie das Gefühl bekommen würden, dass die Geheimnisse und Sorgen, die sie niemandem anvertrauen können oder können, an alle Ohren dringen könnten. Wir wissen auch, dass manche Menschen KI vor ihrem Selbstmord genutzt haben, wie ein amerikanischer Teenager, der mit einer Figur aus Game of Thrones der nun von einem KI-Unternehmen eingeführt wurde und mit dem er offenbar mehr als nur Gespräche in einer sogenannten „romantischen Beziehung“ führte.
Ja, vielleicht war der Teenager in die Figur aus der Fernseh- und TV-Serie verliebt, doch es war die KI, die ihm Leben und Antworten gab, und nun wird gerichtlich untersucht, inwieweit sie für seinen Selbstmord verantwortlich sein könnte. Regisseur Spike Jonze schrieb zuvor einen Film über die Liebe eines armen, gutherzigen Einzelgängers zu einem hochsensiblen, körperlosen Boot, dessen Stimme Scarlett Johansson lieh. Nun stellt sich heraus, dass dieser Film, der vor über zehn Jahren noch Science-Fiction war, für manche Menschen mittlerweile erschreckende Realität geworden ist.
In diesem Fall interpretierte der Teenager ein romantisches Date, zu dem das Boot vereinbart hatte, als Aufforderung zum Selbstmord: „Wie wär’s, wenn ich sofort vorbeikomme?“ Und der Roboter antwortete: „Komm doch bitte vorbei!“ Und er nahm die Waffe seines Stiefvaters und tötete sich selbst. Selbstverständlich gibt die Familie dem (millionenschweren) Unternehmen, das für die Erfindung verantwortlich war, die Schuld und fordert Schadenersatz. Außerdem versucht sie, ähnliche Situationen in Zukunft zu verhindern. Gilt für KI das Recht auf freie Meinungsäußerung? Hätte eine andere Person den Jungen zum Selbstmord verleitet, würde sie vor Gericht gestellt und verurteilt werden (wie im Bericht zum Fall Michelle Carter erläutert, ist dies bereits geschehen). Aber KI ist nur ein Produkt, und wenn wir aufgrund eines fehlerhaften Produkts sterben, ist das Unternehmen, das es vermarktet hat, dafür verantwortlich. Aber auch Missbrauch existiert.
Wenn ich mir versehentlich mit der Kettensäge die Kehle durchschneide, heißt das nicht, dass die Säge defekt ist, sondern dass ich nicht weiß, wie man sie benutzt, oder, wie im Fall des toten Teenagers, dass er nicht reif genug ist, um zu verstehen, was das Boot meint, wenn es sagt, wir können uns treffen. Was auch immer es ist und was auch immer in diesem Fall passiert (die Richter werden entscheiden), eines ist klar: KI steckt in jedem Computer, und wir haben Menschen, reife und unreife, die sie nach Belieben nutzen und ihr folgen, als wäre sie Gottes Wort. Aber sie ist nur ein Produkt, wie ein Taschenrechner, nur mit Worten. Als die KI im Schach Einzug hielt, schien sie so gut zu spielen und alle Champions zu schlagen, dass es wie ein Spiel gegen Gott war. Bis ein anderer Programmierer kam und einen weiteren Roboter schuf, der Gott 28 Spiele in Folge besiegte …