Die Evolution des Menschen von Anbeginn bis heute durchzieht ein roter Faden – die Erfindung, Nutzung und Optimierung von Werkzeugen. Denken wir an die monumentale Szene aus dem Film „2001: Odyssee im Weltall“ von Stanley Kubrick: Der Anführer einer Gruppe von Menschenaffen hat eine geistige Eingebung. Er erkennt das Potenzial, einen Tierknochen als Waffe zu nutzen und schlägt damit die Rivalen in die Flucht. Im Rausch des Erfolgs wirft er den Knochen in die Luft. Die Kamera folgt dem fliegenden Knochen, der sich mit einem berühmten Kameraschnitt in ein Raumschiff verwandelt. Kaum ein anderes Bild veranschaulicht die Evolution der Menschheit besser als eine lange Kette von Werkzeugen – sprichwörtlich vom Tierknochen zum Raumschiff.
Wie können wir über künstliche Intelligenz sprechen?
Teil dieser Kette sind auch die modernen Algorithmen der künstlichen Intelligenz ((KI)), die uns heute zur Verfügung stehen. Wollen wir sie zielführend betrachten und diskutieren, stoßen wir schnell auf eine zentrale Herausforderung: Die Beschäftigung mit KI erfolgt seit jeher unter der Prämisse, im besten Falle unser künstliches Ebenbild zu erschaffen. In diesem Sinne bewegen wir uns bei der Betrachtung von KI-Algorithmen oft in Sphären des Metaphorischen und des Philosophischen.
Es ist problematisch, uns selbst auf Technologien und Werkzeuge zu projizieren sowie umgekehrt Technologien auf uns. Wie Abeba Birhane und Jelle van Dijk in „A Misdirected Application Of AI Ethics“ zeigen, neigen die Menschen dazu, sich mit den aktuellen und bestentwickelten Technologien zu vergleichen. Sigmund Freud betrachtete den Menschen als ein thermodynamisches System – einen Kochtopf –, welches bei zu hohem Druck dazu tendiert zu explodieren. Der Mediziner Fritz Kahn veranschaulichte den Menschen als kapitalistische Maschine. Während die Arbeiter*innen im Bauch zu Werke gehen, verwalten die Vorarbeiter*innen im Gehirn das System.
Metaphern wie diese helfen uns, die Welt und unsere Rolle darin besser zu verstehen. Wir dürfen jedoch nicht den Fehler begehen, dieses Sinnbild für das Tatsächliche zu halten. Auch die Diskussion rund um KI wird häufig durch Metaphorik dominiert: das duale Bild der Maschine als künstlichen Menschen und des Menschen als Maschine. Doch der Mensch ist weder eine Maschine noch ein Kochtopf. So wie uns eine Karte hilft, uns in einer fremden Stadt zurecht zu finden, helfen uns diese bildhaften Vergleiche, die Welt, die Menschen und menschliches Verhalten besser zu verstehen. Jedoch ist die Karte keineswegs mit der Stadt gleichzusetzen und der Mensch nicht mit der Metapher.
Denn aus Metaphern wie der Mensch-Maschine-Dualität können sich falsche Folgerungen ergeben: So zeichnen Pessimisten das Bild einer künstlichen intelligenten Maschine, die die Menschen ersetzen. Optimisten hingegen erwarten, dass künftige KI-Maschinen das menschliche Denkvermögen exponentiell weit übersteigen werden – sogar so weit, dass wir unseren Geist in die Maschine hochladen und damit ein Teil unserer eigenen Erfindung werden. Dabei haben beide Ansichten die falsche Prämisse gemein, der Mensch sei eine intelligente Maschine, die man nur nachzubauen braucht.
Künstliche Intelligenz – verantwortungsvoll angewendet
In unserer Gesellschaft nutzen wir die Schlüsseltechnologie KI bereits in vielen Bereichen, um unsere geistigen und körperlichen Fähigkeiten zu erweitern. Das passiert nicht zum ersten Mal: Von den ersten Handwerkzeugen, über die Dampfmaschine und das Automobil bis hin zu Computern und smarten Telefonen – der Mensch hat Technologien bereits in der Vergangenheit schnell in seinem Leben integriert.
Doch wollen wir die tatsächlichen Potenziale und Risiken neuer KI-Algorithmen verstehen und die Technologie umfassend kontrollieren, ist es nötig, die Diskussion aus der Metaphorik zu heben und KI als das zu sehen, was sie ist: Ein weiteres, wenn auch sehr mächtiges, Werkzeug in unseren Händen. Wie jedes andere Werkzeug kann KI falsch angewendet diskriminieren, marginalisieren oder überwachen. Die Technologie kann jedoch auch dazu beitragen, Krankheiten schneller zu erkennen, den richtigen Impfstoff aus Milliarden potentiell möglichen Kandidaten zu finden, oder uns dabei helfen, unsere körperliche Mobilität bis ins hohe Alter zu erhalten.
Um KI-Algorithmen als technologische Werkzeuge besser zu verstehen, zu erforschen, verantwortungsvoll anzuwenden und weiterzuentwickeln, definieren wir bei Lindera folgende Prinzipien:
1. Es gibt keine ethische KI mit unethischen Zielen
Ob eine KI-Technologie ethisch ist und zum Wohle des Individuums und der Gesellschaft verwendet wird, hängt vom Ziel ab, welches man als Entwickler*in oder Unternehmen verfolgt. Als Health-Tech-Unternehmen verfolgen wir bei Lindera das Ziel, so gut und so weit wie möglich die körperliche Mobilität von Menschen jeden Alters zu fördern, zu verbessern und zu erhalten. Gemeinsam mit Wissenschaftler*innen, Mediziner*innen, Sportler*innen und Pfleger*innen entwickeln wir tief-technologische Anwendungen, die uns diesem Ziel näherbringen. Damit tragen wie dazu bei, die individuelle Freiheit und Lebensqualität zu erhalten und gleichzeitig die Gesellschaft zu entlasten.
2. Menschen sind keine Daten und Daten kein Selbstzweck
Wir wissen um die Macht wie auch die Abhängigkeit unserer KI-Algorithmen von großen Datenmengen. Wir werden jedoch nur erfolgreich unser Ziel erreichen, wenn es im Einklang mit den betroffenen Menschen steht. Menschen sind jedoch keine Daten, die man sammelt und analysieren kann. Um eine tief-technologische Anwendung nachhaltig zu integrieren, ist die Anerkennung dieser wichtigen Tatsache zentral. Bei Lindera bestimmen wir gemeinsam mit Expert*innen aus unterschiedlichen Bereichen darüber, ob und in welchen Teilen der technologischen Anwendung bestimmte KI-Algorithmen verwendet werden. So entscheiden wir wiederum über die Art, Menge und Verwendung von Daten. Mit diesem Vorgehen gewährleisten wir auf natürliche Weise Datenökonomie und Datenschutz.
3. Decision Intelligence: Wissen wie KI ihre Entscheidungen trifft
Bei der Entscheidung, welche KI-Algorithmen wir in unseren tief-technologischen Anwendungen einsetzen, wenden wir bei Lindera die Disziplin der Decision Intelligence ((DI)) an. Mit Hilfe von DI können wir den gesamten Entscheidungsprozess einer KI nachvollziehen. Veranschaulichen wir uns das anhand unserer eigenen Entscheidungsfindung: Um eine Entscheidung zu treffen, betrachten wir alle Elemente, die für den Entschluss von Bedeutung sind: Womit beginne ich? Welche Informationen fehlen mir für eine fundierte Wahl? Welche Folgen hat meine Entscheidung? Aus all diesen Fragen und den Gedankengängen ergibt sich ein Schema, ein kausales Entscheidungsdiagramm ( (Causal) (Decision) (Diagram, CDD) ). An jeder Kante des Diagramms könnten wir nun einen KI-Algorithmus einfügen, um datenbasiertes Wissen zu generieren, damit wir eine fundierte Entscheidung treffen können.
Wenn unser Wissen an einem Punkt des CDD ungewiss ist, dann wird uns eine datenbasierte statistische Schlussfolgerung helfen. Ein Beispiel für eine solche Ungewissheit kann die Frage sein, ob eine bestimmte medizinische Behandlung einen bestimmten Effekt hat oder nicht. Im letzteren Fall könnten wir auch eine randomisierte kontrollierte Studie oder eine datenbasierte Kausal-Folgerungs-Methode einfügen, um uns zu informieren.
4. Erklärbare KI – Wie trifft der Algorithmus seine Entscheidungen
Steht der Einsatz eines KI-Algorithmus fest, ist der nächste Schritt, die KI selbst erklärbar zu machen. Denn insbesondere bei medizinischen Entscheidungssystemen ist es notwendig, dass wir die Entscheidungswege von Neuronalen Netzen und anderen sogenannten Black-Box-Algorithmen erklären können. Nur so können wir Fehler, falsche Korrelationen und unbewussten Bias wie Vorurteile oder Diskriminierung vermeiden. Denn jede Technologie ist ein Spiegelbild ihrer Schöpfer*innen und Systeme. DI kann uns mit dem richtigen Handwerkszeug wie beispielsweise Explainable AI ((XAI)) dabei helfen. Bei Lindera nutzen wir diese wertvollen Werkzeuge, um unsere KI-Algorithmen zu testen und ihre Entscheidungsprozesse transparent zu machen.
5. Offen für Forschung und Technologien
Als junges Technologieunternehmen stehen wir bei Lindera Veränderungen offen gegenüber – seien es die neuesten Forschungen und Entwicklungen zu KI, klassischen Algorithmen und Datenschutz oder zu Kognitionswissenschaften, der Lerntheorie und Spieltheorie. Um unser Ziel zu erreichen, die individuelle körperliche Mobilität von Menschen zu fördern, zu verbessern und zu erhalten, stellen wir unseren technologischen Werkzeugkasten breit auf und erweitern diesen stetig. Wir sind offen gegenüber jedem neuen Werkzeug, das uns ein Stück weiter bringt in Richtung unseres Ziels und dabei den vorherigen Prinzipien genügt.