Innovationssystem

Wie europäisch kann KI sein?

image
Foto: iStock/ Andrey Danilovich
©

Ich wurde eingeladen, die Strategie der EU-Kommission zu kommentieren, halte es aber für ausgesprochen unhöflich, im Anschluss an die Verkündung großräumige Kritik vorzunehmen. So ein Programm braucht einen großen Resonanzraum. (Das Dokument der Kommission habe ich hier abgelegt.)

Für mich als politisch denkenden Menschen mit Beruf „Digital Manager“ ist das Programm gut nachvollziehbar – k und was mir gut gefällt, ist, dass es einen Rahmen beschreibt, ein Framework von Ressourcen, Prozessen und Know-how. Auch wenn ich das Programm im Großen und Ganzen für gut halte, fällt doch auf, dass es – von der technischen Innovation kommend – in ökonomischen Kategorien gedacht ist, sodann flankiert von ethischen und politisch-regulatorischen Fragen. So wie technische und soziale Co-Evolution eben verläuft: Erst kommen Technik und Verwertung, dann muss man sich um die Folgen kümmern. Und so geht eben jede Regierung an Probleme heran: Sie regelt etwas anderes als sich selbst.

Das ist nicht schlimm, aber man kann auch den Blick auf das geistige Fundament richten: Welche Vorstellungen liegen „unter“ oder „hinter“ der künstlichen Intelligenz (KI) und welche könnten europäisch sein? Und man kann auch fragen: Was könnte denn die Politik mit KI zu tun haben, wenn sie also auch auf sich selbst und nicht nur auf die anderen guckt?

These 1: Wir brauchen eine Aufklärung über KI

Die grundlegende, häufig stillschweigend mitlaufende Annahme der KI-Forschung kommt aus dem Big-Data-Gedanken, es bräuchte mehr Daten und mehr Rechenleistung, um die bestehende (granulare) Wirklichkeit zu erkennen. Die KI fügt dem noch einen weiteren Gedanken hinzu: Etwas von außen muss innen abgebildet werden, und zwar möglichst schnell, vollständig und präzise in seinen Mustern, seiner Struktur. Ein Versuchsaufbau, nennen wir ihn System, lernt durch Impulse von außen.

Aber was für eine Art von Erkenntnis ist das, wenn man Datenmuster lernen lässt? Drehen wir die Perspektive einmal komplett um und fragen: Wie muss der Erkenntnisapparat beschaffen sein, um die Wirklichkeit zu erkennen? Das ist die Frage von Kant; auf KI angewendet: Wie muss der Erkenntnisapparat von Deep Learning beschaffen sein, um die Wirklichkeit zu erkennen? Kants Verdienst, kurz gesagt: Die Erkenntnistheorie anders zu denken als bisher. Vor Kant war das Ziel, alle Kraft darauf zu richten, die Wirklichkeit da draußen, Gottes Schöpfung, zu erkennen und anschließend zu preisen. Seit Kant aber ist anerkannt, dass der Verstand schon Grundstrukturen mitbringt und so die Welt für uns erschafft. Aus zwei Beobachtungen – „Der Stein ist warm“ und „Die Sonne scheint“ – schließen wir auf Kausalität, unabhängig von der Reihenfolge unserer Wahrnehmung.

Für die KI-Forschung hieße das, diese kantische Wende zu vollziehen und sich von der Abbildung des Gegebenen hin zu den Strukturierungsmöglichkeiten des Erkenntnisapparates (also: hin zum Algorithmus) zu wenden. Eine entwickelte KI kann Ursache von Wirkung unterscheiden, vorher von nachher, das Selbst und die Umwelt und kennt zum Beispiel die Kategorie der Möglichkeit. Eine wirklich europäische Sicht auf KI muss hier einen Schwerpunkt setzen, also mehr bei der Philosophie, zum Beispiel der Bewusstseinsphilosophie, und der Kognitionswissenschaft. Wenn irgendwo, dann wird an diesen Verstandesstrukturen Intelligenz geboren und nicht mit einem religiösen Schöpfungsakt der Singularisten, der von heute auf morgen die Maschine quasi überfällt.

image
Illustration: Stifterverband/ Lisa Syniawa
©

Innovationstreiber KI

Der Forschungsgipfel 2019 steht ganz im Zeichen der künstlichen Intelligenz (KI). Das brandaktuelle Thema wirft zahlreiche Fragen auf: Was kann KI heute bereits leisten und was nicht? An welchen ethischen Prinzipien sollte sich die Entwicklung von KI orientieren? Ist Deutschland bei der Entwicklung und beim Einsatz von KI bestmöglich aufgestellt? Wie kann die Teilhabe Deutschlands und Europas an der Weiterentwicklung von und die Wertschöpfung durch KI gesichert werden?

Mit einer MERTON-Artikelserie wollen wir den Forschungsgipfel vorbereiten. Gipfelteilnehmer und KI-Experten werden sich in den kommenden Wochen hier zu Wort melden und das Thema aus verschiedenen Perspektiven betrachten. Christoph Kappes macht mit seinen Anmerkungen zur europäischen KI-Strategie den Anfang. 

Warum ist das so wichtig? KI wird erst wirklich eine neue Qualität erreichen, wenn sie ihre Netzwerke nicht mehr als lernende Blackbox denkt, sondern irgendwie zu Erkenntniskategorien kommt, die zu einer frühen Stufe von Bewusstheit gehören. Andererseits können diese Geisteswissenschaften vielen Menschen die Angst vor KI nehmen, wenn sie einmal begriffen haben, was für ein Wunderwerk jeder einzelne Mensch überhaupt ist. Mag sein, dass KI irgendwann Subjekte erzeugt; noch wahrscheinlicher ist, dass der Mensch sich als Subjekt neu entdeckt. Das ist auch die beste Therapie gegen Maschinenangst.

These 2: Wir brauchen eine KI der Vielfalt

Was Europa ausmacht, ist Vielfalt in Einheit. Könnte eine europäische KI nicht irgendetwas mit Vielfalt zu tun haben? Auf den ersten Blick scheint das abwegig. Denn der Kern von KI, jedenfalls nach dem heutigen konnektionistischen Paradigma, ist ein bestimmtes Set an Lernverfahren, die völlig unabhängig von konkreten Sachverhalten in der Realität angewendet werden können. Eine spezifisch europäische KI müsste wohl irgendwie verfahrensmäßig anders lernen als eine nicht europäische KI, und das ist ja nun wirklich nicht der Fall: Machine Learning ist Machine Learning, so wie das kleine Einmaleins das kleine Einmaleins ist, überall auf der Welt – und wie universelle logische Schlussverfahren, die in Mailand genauso gelten wie in Honolulu.

Auf den zweiten Blick scheint KI die Vielfalt mit gleichen Verfahren dennoch abzubilden: Wo KI auf unterschiedliche Sachverhalte stößt, kann sie diese zu unterscheiden lernen. Bilderkennung in Berlin wird die Spreewaldgurke gut erkennen, in Baden-Württemberg die Wurstvielfalt und in Italien die Pastavielfalt. Es entsteht eine spanische KI, eine italienische KI, eine deutsche KI. Und wenn eines Tages, das wird noch lange hin sein, Softwareagenten miteinander verhandeln, dann tun sie das vielleicht mit lokalen Temperamenten; aber nicht das KI-Verfahren ist landesspezifisch, sondern nur seine Eingaben und Ausgaben. Es gilt saxonian in, saxonian out oder – weniger fremdenfeindlich – bayerisch in, bayerisch out.

„Bilderkennung in Berlin wird die Spreewaldgurke gut erkennen, in Baden-Württemberg die Wurstvielfalt und in Italien die Pastavielfalt. Es entsteht eine spanische KI, eine italienische KI, eine deutsche KI.“

Christoph Kappes
Christoph Kappes (Foto: privat)
©
Christoph Kappes

Trotzdem werden ökonomische Grenzen und digitale Kopien dazu führen, dass die Vielfalt unter die Räder kommt. Dialekte sind ja schon heute bei der Sprachausgabe verschwunden oder maschinenlesbare Ontologien enthalten den „Berliner Schlüssel“ nicht, mit dem Bruno Latour noch seine bahnbrechende Akteur-Netzwerk-Theorie (ANT) so gern erklärt hat. Auch die Notwendigkeit von globalem Austausch und Maschinenlesbarkeit macht das Plattdeutsch platt.

Kulturen würden also noch gleichförmiger werden, KI kennt dann alle Räume, alle Würste, jede Pasta. Kopien vermehren immer mehr vom Selben, bis am Ende alles überall ist. Daher sollte eine europäische KI-Politik darauf achtgeben, dass regionale Kulturdifferenzen nicht verschwinden. Ich will damit aber gar nicht das große Fass der Identitätspolitik aufmachen – mir geht es nur darum, dass kein technosozialer Sog entsteht, alles zu vereinheitlichen. Das Starren auf den Algorithmus führt ohnehin in die Irre: In Wirklichkeit bedeutet KI irgendwann Vielfalt, weil sie die Komplexität der Außenwelt nach innen faltet, in sich selbst, ein Selbst, das so verschieden wie die Außenwelten ist. Die Bedingung dafür ist aber, dass man sie mit derartigen Daten füttert, sonst geschieht das nicht.

Von der Vielfalt ist es nicht weit bis zu einer pluralistischen KI. Es ist keine gute Nachricht, aber sie ist wahr: Diskriminierung ist Unterscheidung und dies ist geradezu die Kernkompetenz von KI, die mal feuert und mal nicht (und übrigens auch die Kernkompetenz des Menschen, der sein Bewusstsein auf ein Etwas richtet und somit in diesem Aufmerksamkeitsakt von anderem unterscheidet). Es werden nacheinander zwei Selektionen vorgenommen: Erst wählt der Mensch das Datenset, dann nimmt der Algorithmus (besser: das neuronale Netz) eine Selektion vor. Die Maschine wird immer besser als der Mensch unterscheiden können, sie kann größere Datenvolumina in Echtzeit analysieren – Computer sind also die besten Diskriminierungsmaschinen überhaupt.[1] Wenn man diskriminierungsfreie oder eine ganz weit formuliert neutrale oder unverzerrende (unbiased) KI will, müsste man einen Weg finden, wie Maschinen das zuvor ersichtlich Ungleiche dann doch gleichbehandeln. Dabei geht es nicht um die objektive Gleichheit, sondern um die Umsetzung von Gleichbehandlung trotz Verschiedenheit, also um ein normatives Anliegen. Um zu dieser Gleichbehandlung zu kommen, nehmen wir Menschen eine Analogie vor, sie ist – mit den Worten von Douglas Hofstadter gesagt – das „Herz des menschlichen Denkens“. Der „richtige Analogieschluss“ gehört zu den höchsten Leistungen menschlichen Denkens. Maschinen können das auf absehbare Zeit nicht, denn sie müssten dafür ein Drittes benennen und begründen, warum die Analogie berechtigt ist. Daher werden Maschinen auf sehr lange Zeit bei Schritt 1, der Unterscheidung (= Diskriminierung), stecken bleiben.

Doch zurück zu Europa: Meiner Meinung nach könnte die Forderung nach einer pluralistischen KI die Probleme einer verzerrenden KI heilen – nicht bei Kreditvergaben, wohl aber in anderen Anwendungsfeldern der KI, vor allem bei Medien. Man könnte sogar KI-Schöpfungen entwickeln, die absichtlich verschieden sind. Lassen Sie uns doch das Problem zur Lösung machen: Es gibt für Nutzer verschiedene Algorithmen zur Auswahl. So haben wir uns ja auch mit Massenmedien arrangiert: Kaum eines ist neutral und es gibt mehrere davon. Hans Magnus Enzensberger schreibt schon 1970 im Kursbuch:

„Ein unmanipuliertes Schreiben, Filmen und Senden gibt es nicht. […] Ein revolutionärer Entwurf muß nicht die Manipulateure zum Verschwinden bringen; er hat im Gegenteil einen jeden zum Manipulateur zu machen.“

Vielfalt und Pluralität als „europäisches Gen“ im Spielfeld der KI zu entwickeln, ist eine inhaltliche Aufgabe für die Kulturwissenschaften. Auch hier braucht Europa sie bei einer KI-Strategie.

These 3: KI des Sozialen

Meine dritte These ist im Grunde eine Wette, denn ich kann die Zukunft nicht voraussagen. Meine These ist: Wir können mit KI die Gesellschaft besser verstehen lernen. Es gibt jetzt schon viele Datenpunkte, und mit den großen Plattformen sind soziale Infrastrukturen entstanden, welche die Gesellschaft in ihren Strukturen sichtbarer machen.

Wer nun sagt: Das hatten wir alles schon und das ist doch gescheitert, der hat nicht unrecht. Die Soziokybernetik und die politische Kybernetik, die in den 1940ern begannen, verstanden den Staat als ein beständig lernendes informationsverarbeitendes Feedbacksystem, das seine eigenen Strukturen fortwährend an wechselnde Umweltbedingungen anpasst, um ein einmal gesetztes Ziel auch dann zu erreichen, wenn der Weg dorthin ungewiss ist. Diese Kybernetik verglühte in den 1970ern leise, und das zu Recht: zu simpel und technokratisch, von rationaler Kälte war die Idee, man könnte Gesellschaft mit ein paar PCs in Regelkreisen abbilden und steuern. Auch die Namen sind mitverglüht: Wer kennt heute noch Karl W. Deutsch oder Karl Steinbuch (damals als Buchautor berühmt) oder wem im Osten ist Georg Klaus noch ein Begriff (mit Blick auf die Steuerbarkeit einer sozialistischen Zentralwirtschaft)? In linken Nischen hat Stafford Beer ein bisschen Kultstatus erlangt, der mit Cybersyn in Chile mit Fernschreibern landesweit Produktionsanlagen steuerte.

Einige ihrer Grundgedanken sind aber heute wieder höchst aktuell, zum Beispiel wenn es um Selbstorganisation, Lernen und Flexibilität geht – die heutigen Diskussionen um „agile“, „liquide“ und „adaptive“ Organisationen setzen darauf auf. Man darf nur mit heutigem Kenntnisstand nicht den großen Steuermann (Kybernetes) herbeisehnen. Denn weder lässt es sich einfach steuern noch kann die Komplexität einer ganzen Gesellschaft modelliert werden – man denke etwa an das berühmte World3 des Club Of Rome, in Javascript hier zu bewundern – aus der System Dynamics, die heute eher kleinere soziale Gebilde als die ganze Welt erforscht. 

Christoph Kappes
Christoph Kappes (Foto: privat)
©

Der Autor

Der Unternehmer und Autor Christoph Kappes befasst sich seit mehr als 20 Jahren beruflich mit der Digitalisierung. Immer schon mit wirtschaftlichen und technisch-konzeptionellen, seit einigen Jahren auch mit gesellschaftlichen Fragen. Über sich selbst sagt er: „Reißerische Aufmacher in Leitmedien und unüberlegte Netzpolitik haben in mir meine politische Seite reaktiviert. Ich denke gern über Digitalisierung nach: Welche fundamentalen Veränderungen bedeutet sie für soziale Strukturen, Mediensystem, politisches System? Welche Chancen und Risiken bringt uns die Digitalisierung? Ich bemühe mich um rationale Analyse und rühre gern am Grund der Dinge, die für viele fest zu stehen scheinen. Beim Schreiben und Diskutieren will ich lernen. Gelernt habe ich aber nur, wenn ich meine eigene Position ändern kann, daher ist mein Standpunkt immer genau dort, wo ich gerade angekommen bin.“

Website

Man würde heute statt von Steuerung eher von Transparenz und von Nachvollziehbarkeit sozialer Selbstorganisation sprechen – und das nicht auf einer Makroebene, sondern eher auf einer Mesoebene: nicht Nachvollziehbarkeit sozialer Selbstorganisation der ganzen Gesellschaft, sondern zum Beispiel von Städten. Um urbane Wanderungen zu verstehen oder spezifische Konflikte in bestimmten geografischen Lagen zu analysieren. Und natürlich um Frühwarnsysteme für Hungersnöte oder Umweltkatastrophen zu erkennen, auch deren Ursachen (Materialermüdung etc.). Diese mittlere Ebene war ja schon der Beobachtungsgegenstand berühmter Soziologen, nur eben noch nicht digital: Claude Lévi-Strauss in Brasilien, Georg Simmel in Großstädten, Michel Foucault in Gefängnissen und Kliniken. Soziologische Großtheorien wie die Theorie sozialer Systeme sind ja eher die Ausnahme.

Den Bedarf zeigt seit Jahren schon der Datenjournalismus (zum Beispiel das Stimmungsbarometer bei ZEIT Online), allerdings noch KI-frei.

Und jetzt kommt die Überraschung: Genau das macht die Computational Social Science (CSS), eine interdisziplinäre Verbindung aus Informatik und Soziologie (sie ist leider gerade durch Cambridge Analytica  - genauer gesagt durch den Wissenschaftler Aleksandr Kogan, der den Nutzungsvertrag gebrochen hat - etwas in Verruf geraten). Sie beobachtet zum Beispiel die Ausbreitung von News, Verbindungen von Menschen, Verhaltensänderungen wie Wahlquoten, Kommunikationsmuster von E-Mails – sie ist ganz klar die Wissenschaft der Zukunft, wenn es um Fake News und dergleichen geht, und damit ist die CSS auch eine Grundlagenwissenschaft für demokratische Öffentlichkeit. Sie kann darüber hinaus Wissen an die Politik liefern.

Fazit

Drei Beispiele haben gezeigt, wie wichtig Kulturwissenschaften sind (also Geistes- und Sozialwissenschaften). Die allfällige Forderung nach „KI-Ethik“ leistet das nicht, obwohl Ethik natürlich auch in die Strategie eingebettet werden muss.[2] Diese Wissenschaften sind auch Teil eines interdisziplinären Forschungsansatzes, der die KI schon immer geprägt hat, beispielsweise die Theory of Mind. Man kann die Befruchtungen und Übergänge auch gut an der Frame-Theorie sehen, die heute in Massenmedien wiederentdeckt wird: Sie hat Wurzeln in der Philosophie (Kant, siehe oben 1.), findet sich in der Semantik wieder, wurde in den 1970ern von der symbolischen KI (Minsky) aufgenommen, wird in der Kognitionswissenschaft behandelt und ich fand sie in der deutschen Soziologie bei Esser.

In Anlehnung an Odo Marquardt ließe sich sagen: Wir brauchen diese Wissenschaften, um das Neue zu reflektieren und uns wiederzufinden. Er hat einmal gesagt:

„Die Geisteswissenschaften helfen den Traditionen, damit die Menschen die Modernisierung aushalten können; sie sind […] nicht modernisierungsfeindlich, sondern – als Kompensation der Modernisierungsschäden – gerade modernisierungsermöglichend. Dafür brauchen sie die Kunst der Wiedervertrautmachung fremd gewordener Herkunftswelten.“[3]

Daher gehören Geistes- und Sozialwissenschaften zu einer europäischen KI-Strategie dazu und brauchen einen festen Platz dort und ebenso institutionelle Unterstützung und Förderung.

[1] Um es nach dem Kybernetiker Gregory Bateson zu formulieren: Wenn ein Unterschied einen Unterschied macht, dann geschieht das im Computer, der einen anderen informatorischen Zustand einnimmt.

[2] Der allfällige Ruf der politischen Öffentlichkeit nach einer „KI-Ethik“ ist berechtigt, doch vor allem vom Wunsch nach Sicherheit und Regeln getrieben und in der Praxis von Güterabwägungen und Interessenkonflikten geprägt. Mit einer inhaltlichen Fundierung von KI hat er wenig zu tun und läuft auch Gefahr, entweder an Komplexität oder an Banalitäten zu scheitern („do no harm“).

[3] Interessanterweise stammt dieses berühmte Zitat aus einer Zeit, in der sich die Geisteswissenschaften gegen die Naturwissenschaften behaupten mussten, siehe den Briefwechsel hier.

Tauchen Sie tiefer in unsere Insights-Themen ein.
Zu den Insights