Trotzdem werden ökonomische Grenzen und digitale Kopien dazu führen, dass die Vielfalt unter die Räder kommt. Dialekte sind ja schon heute bei der Sprachausgabe verschwunden oder maschinenlesbare Ontologien enthalten den „Berliner Schlüssel“ nicht, mit dem Bruno Latour noch seine bahnbrechende Akteur-Netzwerk-Theorie (ANT) so gern erklärt hat. Auch die Notwendigkeit von globalem Austausch und Maschinenlesbarkeit macht das Plattdeutsch platt.
Kulturen würden also noch gleichförmiger werden, KI kennt dann alle Räume, alle Würste, jede Pasta. Kopien vermehren immer mehr vom Selben, bis am Ende alles überall ist. Daher sollte eine europäische KI-Politik darauf achtgeben, dass regionale Kulturdifferenzen nicht verschwinden. Ich will damit aber gar nicht das große Fass der Identitätspolitik aufmachen – mir geht es nur darum, dass kein technosozialer Sog entsteht, alles zu vereinheitlichen. Das Starren auf den Algorithmus führt ohnehin in die Irre: In Wirklichkeit bedeutet KI irgendwann Vielfalt, weil sie die Komplexität der Außenwelt nach innen faltet, in sich selbst, ein Selbst, das so verschieden wie die Außenwelten ist. Die Bedingung dafür ist aber, dass man sie mit derartigen Daten füttert, sonst geschieht das nicht.
Von der Vielfalt ist es nicht weit bis zu einer pluralistischen KI. Es ist keine gute Nachricht, aber sie ist wahr: Diskriminierung ist Unterscheidung und dies ist geradezu die Kernkompetenz von KI, die mal feuert und mal nicht (und übrigens auch die Kernkompetenz des Menschen, der sein Bewusstsein auf ein Etwas richtet und somit in diesem Aufmerksamkeitsakt von anderem unterscheidet). Es werden nacheinander zwei Selektionen vorgenommen: Erst wählt der Mensch das Datenset, dann nimmt der Algorithmus (besser: das neuronale Netz) eine Selektion vor. Die Maschine wird immer besser als der Mensch unterscheiden können, sie kann größere Datenvolumina in Echtzeit analysieren – Computer sind also die besten Diskriminierungsmaschinen überhaupt.[1] Wenn man diskriminierungsfreie oder eine ganz weit formuliert neutrale oder unverzerrende (unbiased) KI will, müsste man einen Weg finden, wie Maschinen das zuvor ersichtlich Ungleiche dann doch gleichbehandeln. Dabei geht es nicht um die objektive Gleichheit, sondern um die Umsetzung von Gleichbehandlung trotz Verschiedenheit, also um ein normatives Anliegen. Um zu dieser Gleichbehandlung zu kommen, nehmen wir Menschen eine Analogie vor, sie ist – mit den Worten von Douglas Hofstadter gesagt – das „Herz des menschlichen Denkens“. Der „richtige Analogieschluss“ gehört zu den höchsten Leistungen menschlichen Denkens. Maschinen können das auf absehbare Zeit nicht, denn sie müssten dafür ein Drittes benennen und begründen, warum die Analogie berechtigt ist. Daher werden Maschinen auf sehr lange Zeit bei Schritt 1, der Unterscheidung (= Diskriminierung), stecken bleiben.
Doch zurück zu Europa: Meiner Meinung nach könnte die Forderung nach einer pluralistischen KI die Probleme einer verzerrenden KI heilen – nicht bei Kreditvergaben, wohl aber in anderen Anwendungsfeldern der KI, vor allem bei Medien. Man könnte sogar KI-Schöpfungen entwickeln, die absichtlich verschieden sind. Lassen Sie uns doch das Problem zur Lösung machen: Es gibt für Nutzer verschiedene Algorithmen zur Auswahl. So haben wir uns ja auch mit Massenmedien arrangiert: Kaum eines ist neutral und es gibt mehrere davon. Hans Magnus Enzensberger schreibt schon 1970 im Kursbuch:
„Ein unmanipuliertes Schreiben, Filmen und Senden gibt es nicht. […] Ein revolutionärer Entwurf muß nicht die Manipulateure zum Verschwinden bringen; er hat im Gegenteil einen jeden zum Manipulateur zu machen.“
Vielfalt und Pluralität als „europäisches Gen“ im Spielfeld der KI zu entwickeln, ist eine inhaltliche Aufgabe für die Kulturwissenschaften. Auch hier braucht Europa sie bei einer KI-Strategie.