Direkt zum Inhalt | Direkt zur Navigation

Sektionen
Jahrgang 2022, Ausgabe 1
Artikelaktionen

Netzwerk Zukunftsforschung

Kann Künstliche Intelligenz Zukunftsforschung? – Ein spekulativer Impuls

  1. Dr. Karlheinz Steinmüller Z_punkt GmbH
  2. Dr. Aljosha Burchardt DFKI, Speech and Language Technology Lab
  3. Kai Gondlach Kai Gondlach Zukunftsforscher
  4. Prof. Dr. Heiko von der Gracht Steinbeis School of International Business and Entrepreneurship (SIBE)
  5. Prof. Dr. Stefanie Kisgen Steinbeis School of International Business and Entrepreneurship (SIBE)
  6. Kai Ellermann Fraunhofer IEM
  7. Melanie Martini Fraunhofer INT
  8. Dr. Marcus John Fraunhofer INT

Keywords

1. Einführung

Das Netzwerk Zukunftsforschung [1] führt regelmäßig Veranstaltungen und Arbeitsgruppentreffen durch, um den fachlichen Austausch zu theoretischen wie konzeptionellen Entwicklungen in der Zukunftsforschung vor dem Hintergrund der praktischen Erfahrungen der Netzwerkmitglieder und der interessierten Fachöffentlichkeit zu diskutieren. Denn die Zukunftsforschung als Kleines Fach lebt von einem regen Austausch der Zukunftsforschenden, den die Zeitschrift für Zukunftsforschung neben der Veröffentlichung wissenschaftlicher Publikationen und Projektberichten mit dem vorliegenden Format DiskursForum weiter befördern möchte. Der Essay von Dr. Karlheinz Steinmüller basiert auf einem Impulsvortrag, der im März 2021 bei dem gemeinsamen Arbeitsgruppentreffen des Netzwerks Zukunftsforschung, des Masterstudiengangs Zukunftsforschung an der FU Berlin sowie der Alumni des Studienganges, welche sich als „Kapitel 21“ der Ernst-Reuter-Gesellschaft e.V. organisiert haben, vorgestellt wurde.

Wir freuen uns sehr über die große Beteiligung unserer Leserschaft an dieser Diskussion, welche sich in den hier veröffentlichten Repliken widerspiegelt. Wir danken daher Dr. Karlheinz Steinmüller und allen Mitwirkenden und wünschen Ihnen beim Lesen neue und interessante Einblicke, die zu einem weiterführenden Diskurs anregen.

Andreas Weßner und Dr. Birgit Weimert für das NZF-Board

im Mai 2022

Inhalt:

  1. Essay von Dr. Karlheinz Steinmüller

  1. Replik 1: Dr. Aljoscha Burchardt

  1. Replik 2: Kai Gondlach

  1. Replik 3: Prof. Dr. Heiko von der Gracht & Prof. Dr. Stefanie Kisgen

  1. Replik 4: Kai Ellermann, Melanie Martini & Dr. Marcus John

  1. Resümee: Dr. Karlheinz Steinmüller

2. Essay: Kann Künstliche Intelligenz Zukunftsforschung? – Ein spekulativer Impuls

Dr. Karlheinz Steinmüller, Berlin

2.1. Der alte Traum von Computerprognosen

„Den größten Nutzen wird die »Futurologie« aus der immer weiteren Verbreitung von erschwinglicheren und handlicheren Datengeräten ziehen, die es mit sich bringen wird, dass jede Behörde bis in die kleinste Gemeinde, jedes Unternehmen bis zum kleinsten Betrieb, ja vermutlich sogar viele Einzelpersonen eigene »Vorausberechnungen« als eine Übung betreiben werden, die so selbstverständlich werden kann wie heute der Blick auf die Uhr.“ (Jungk, 1969, S. 15)

So stellte sich Robert Jungk die Futurologie des Jahres 1985 vor – samt einer Vorwegnahme des Smartphones, wenn auch noch mit Ticker-Streifen. Heute hat sich der Traum einer computergestützten Prognosewissenschaft auf Softwarelösungen und speziell Künstliche Intelligenz (KI) verlagert. Es ist schon paradox: Immer wieder hat sich in den jüngsten Jahren die Zukunftsforschung damit befasst, welche – mutmaßlich disruptiven! – Auswirkungen die sich abzeichnenden Entwicklungen bei Big Data, Machine Learning etc. auf die unterschiedlichsten Branchen, auf das Alltagsleben oder Arbeitskonzepte haben werden. Selten jedoch blickt die Zukunftsforschung einmal auf sich selbst: Wird nicht auch unser Arbeitsfeld durch KI tiefgreifend verändert werden? Eine der wenigen Äußerungen dazu stammt von der Trendforscherin Birgit Gebhardt, die sich 2013 so äußerte:

„Die Zukunft der Zukunftsforschung – wie übrigens auch der Marktforschung – aber liegt in der geolokalisierten Datengenerierung in Echtzeit und ihrer teilautomatischen Auswertung. Durch die Vernetzung von Daten, Profilen und Prozessen in der Dialogkultur des Semantic Web ist die Informationsgenerierung und Meinungsbildung mittlerweile selbst einem Wandel unterworfen. Das Semantic Web eröffnet neue Möglichkeiten, qualitative Erkenntnisse teilautomatisch und quantifizierbar verdichten zu können. Damit geht die Markt-, Trend- und Zukunftsforschung über in die Hände von Google und Co. Die Geschäftsmodelle der Prognostiker-Thinktanks sind selbst von einer disruptiven Welle erfasst.“ (Gebhardt, 2013)

Viel nüchterner ist dagegen die Einschätzung von VDI Research zu „Predictive Analytics“ (Zweck & Braun, 2021): Zumindest auf absehbare Zeit wird sich die Zukunftsforschung auch nicht näherungsweise durch Algorithmen ersetzen lassen. Diese können jedoch als wichtiges Hilfsmittel dienen.

Wo aber liegen die tatsächlichen Langfristperspektiven? Disruption oder graduelle Verbesserung? Kann Foresight durch KI eine neue Qualität erreichen? Höhere Verlässlichkeit und höhere Objektivität dank Digitalisierung? Welche Arbeitsprozesse lassen sich überhaupt automatisieren und welche nicht? Bei welchen Methoden kann KI eine Unterstützung bieten?

Bei einer näheren Analyse wirft die Frage nach der Rolle, die KI für die Zukunftsforschung spielen kann, weitere, grundsätzlichere Fragen auf. Regelmäßig wird herausgestellt, dass gute Zukunftsforschung Intuition, Phantasie, Kreativität benötigt, und bisweilen wird ergänzt, dass genau diese menschlichen kognitiven Fähigkeiten nicht in einer KI zu realisieren seien. Aber was genau ist in diesem Zusammenhang mit Intuition, Phantasie, Kreativität gemeint und wo werden diese in Foresight-Prozessen relevant? Häufig wird auch in Anlehnung an Herman Kahn formuliert, dass die Zukunftsforschung nicht aus der Vergangenheit, sondern aus der Zukunft lernen müsse, und wiederum ergänzt, dass KIs nur historische Daten berücksichtigen können. Wie aber lernen wir aus der Zukunft? Können wir diese Lernprozesse spezifischer beschreiben oder handelt es sich doch nur um eine hübsche Metapher? Und wenn wir diese Lernprozesse – etwa mit Elementen wie der Konstruktion von Zukunftsbildern und deren Auswertung – detailliert beschreiben können, vielleicht auch mit dem Wechselspiel von kognitiven und emotionalen Aspekten, könnten wir sie dann nicht auch in einer KI realisieren?

Letztlich beruhen diese Überlegungen auf einer gängigen, aber nicht unumstrittenen erkenntnistheoretischen Argumentationslinie: Wenn sich Begriffe wie Intuition, Phantasie, Kreativität erst einmal wissenschaftlich exakt erfassen, ihre „Mechanismen“ beschreiben und damit methodisch operationalisieren lassen, dann kann man die entsprechenden Fähigkeiten auch in Algorithmen niederlegen. Verstehen heißt nachbauen können. KI könnte der Königsweg zum Selbstverständnis des menschlichen Geistes sein.

2.2. KI heute: Leistungsfähigkeit und Schwachstellen

Künstliche Intelligenz wird verschieden definiert. [2] Für unsere Zwecke genügt es festzuhalten, dass mit KI technische Systeme gemeint sind, die ein Verhalten an den Tag legen, das wir Menschen als „intelligent“ betrachten, die insbesondere ihre Aufgabe und/oder ihre Umgebung analysieren und im Rahmen ihrer Programmierung bzw. Konstruktion mit einem gewissen Grad an Autonomie handeln, um die Aufgabe zu lösen oder bestimmte Ziele zu erreichen. Stets geht es dabei um die Nachbildung von menschlichen Denk- und Entscheidungsstrukturen durch Algorithmen, die auf einer hinreichenden Datenbasis operieren.

Was wir dabei als „intelligent“ ansehen, kann sich im Verlaufe der Zeit dramatisch verschieben. Vor wenigen Jahrzehnten noch galt Zeichenerkennung als ein Hauptfeld der KI-Forschung; heute wird niemand mehr eine OCR-App als intelligent bezeichnen. Selbst Schachprogramme, einst Speerspitze der Forschung, sind heute etwas Alltägliches. Sobald etwas routiniert funktioniert, redet man nicht mehr von KI.

Mit der mehr oder weniger in Echtzeit ablaufenden Nutzung von Big Data, extrem großen, zumeist heterogenen Datenmengen, die in der digitalen Welt anfallen, mit neuronalen Netzen, die Aspekte der Verschaltung von Neuronen in Lebewesen imitieren, mit maschinellem Lernen und Deep Learning (maschinellem Lernen auf der Basis von mehrschichtigen neuronalen Netzen) hat die KI heute einen Stand erreicht, der zahlreiche spannende und teilweise neuartige Einsatzfelder einschließt: von individualisiertem Marketing, einigermaßen brauchbarer maschineller Übersetzung und automatischer Generierung von News bis zu Gesichtserkennung und (semi-) autonomen Fahrzeugen. Schlagwörter wie predictive purchasing (für die Bereitstellung von Waren auf der Basis von Annahmen über Käuferwünsche), predictive policying (für die Einteilung von polizeilichen Ressourcen auf der Basis von prognostizierten Gefährdungssituationen) und allgemeiner predictive analytics (für das gesamte Feld von algorithmischen Vorhersageverfahren, die aus historischen Daten Muster gewinnen und aus diesen Wahrscheinlichkeitsaussagen für die Zukunft ableiten) weisen darauf hin, dass die Ableitung von kurzfristigen Prognosen für alltägliche Situationen bereits zu einem kaum mehr spektakulärem Anwendungsfeld von KI geworden ist.

Allerdings handelt es sich hierbei in jedem Fall um sogenannte schwache KI (narrow artificial intelligence), hochspezialisierte KI-Lösungen, die für ihr spezielles Anwendungsfeld gute Resultate liefern, sich jedoch nicht auf andere Felder übertragen lassen – so wenig, wie ein Schachprogramm auch fähig wäre, Go zu spielen.

Dem steht das heute noch visionäre Konzept der starken KI (artificial general intelligence) gegenüber, die so universell einsetzbar sein soll wie die menschliche Intelligenz, also insbesondere fähig sein soll, kontextabhängig und selbsttätig Lösungen auf neuen Einsatzgebieten zu finden. Als rein spekulativ betrachte ich das von Nick Bostrom (2014) und anderen vorgebrachte Konzept einer Superintelligenz, die über eine kognitive Leistungsfähigkeit verfügt, die die des Menschen weit übersteigt und in Bostroms Interpretation sogar omniscient (allwissend) und omnipotent (allmächtig) wird – womit sie einen eher theologischen Charakter erhält!

Heutige KIs sind von einer allgemeinen KI noch weit entfernt. Ihre Grenzen und Schwächen werden an medial breit diskutierten Fehlleistungen deutlich. So brachte ein eingebauter Lernalgorithmus den Chatbot TAY von Microsoft 2016 dazu, sich (wie sein Trainingsmaterial) rassistisch zu äußern. Recruiting-Algorithmen bevorzugten Männer, selbst wenn die Geschlechtsangabe aus der Bewerbung gelöscht war, weil in den Trainingsdaten mehr oder weniger geschlechtsspezifische Merkmale mit dem Karriereerfolg korreliert waren.

Die Probleme beginnen bei der Datenbasis: Selbstverständlich können nur Daten aus der Vergangenheit genutzt werden. Diese haben (je nach Aufgabe) einen zumeist sehr engen Fokus, heterogene, nicht-standardisierte Daten sind sehr viel schwerer einzubeziehen. Zudem existieren stets Schieflagen in den Daten, die dazu führen, dass KIs einen Bias, sehr ähnlich menschlichen Vorurteilen, erlernen. Hinzu kommt noch der Umstand, dass in die Algorithmen – z. B. in die Definition der Parameter – Vorannahmen ihrer (menschlichen) Konstrukteure einfließen.

Die Objektivität der Computer (und damit der KI) ist eine Mär, die nicht nur von vielen ihrer meist männlichen Konstrukteure kolportiert wird.

2.3. Algorithmen in der Zukunftsforschung

Noch spielt KI in der Zukunftsforschung kaum eine Rolle. Unterschiedliche Phasen eines Foresightprozesses bieten in unterschiedlichem Maße Ansatzpunkte für Software. Wenn wir ein einfaches fünfstufiges Modell zugrunde legen, ergibt sich – nach meinen gewiss nicht allgemeingültigen Erfahrungen – folgendes Bild:

  1. Bei der Festlegung der Forschungsfrage, für Bounding und Framing kommt derzeit Software nicht zum Einsatz. Diese Fragen werden zwischen Auftraggeber und Auftragnehmer ausgehandelt.

  2. Anders bei der Recherche. Als Rechercheinstrument – im Internet, in Datenbanken – sind automatisierte Verfahren bereits gang und gebe (Bibliometrie, Text Mining u. ä.).

  3. Auch in der Analysephase, etwa für die Auswertung von Quellen, werden Software-Tools eingesetzt (z. B. Textanalyse, Auswertung von Surveys). Offensichtlich aber existieren bislang weder für Recherchen noch für Analysen automatisierte Verfahren, mit denen neuartige Phänomene, sog. Schwache Signale, erkannt werden können. [3] Abweichungen von etablierten statistischen Mustern lassen sich ermitteln, nicht aber Items, die aus den vorgegebenen Such- und Analyserastern (dem Raum der festgelegten Parameter) herausfallen. Auch die Interpretation der Ergebnisse liegt in Menschenhand.

  4. Der eigentliche „Schritt in die Zukunft“ (Projektionsphase) erfolgt durch die Konstruktion von Zukunftsbildern, oft in Form von Szenarien oder mithilfe von Trendextrapolationen oder Modellierung. Gerade aufwendige Modellierungen können einen Ansatzpunkt für KI-basierte Tools bieten, etwa für die Auswertung von Simulationsläufen oder für eine Störereignisanalyse. Bei partizipativen Verfahren ist die Nutzung von Softwarelösungen bislang vernachlässigbar. Viele Szenarioprozesse stützen sich auf einschlägige Software.

  5. Die Ableitung von Schlussfolgerungen, gegebenenfalls Handlungsempfehlungen, setzt die Interpretation der Zukunftsbilder voraus. Prinzipiell können bei der Entscheidungsfindung Optimierungsverfahren eingesetzt werden; bei den mir bekannten Foresightprozessen geschieht dies kaum einmal.

Das Phasenmodell verdeutlicht, dass die Vorstellung von „Foresight per Knopfdruck“ – einer vollautomatischen Erstellung von Zukunftsbildern samt Handlungsempfehlungen per KI – eine Utopie ist. Die Defizite der heutigen Softwarelösungen liegen auf der Hand: Sie arbeiten mit den Daten, die sie bekommen, und mit den Parametern, die in sie hineinprogrammiert wurden. Den jeweils konkreten, nicht datenmäßig erfassten Kontext können sie naturgemäß nicht mit einbeziehen. Die Interpretation (im Englischen treffend: sense making) und das visionäre Vorausdenken bleiben daher den Menschen überlassen.

In einem Aufsatz in der Zeitschrift Wired drückte Simonite (2018) die Limitationen auch noch der besten heutigen KI aus: „Even the very best algorithms lack the ability to use common sense, or abstract concepts, to refine their interpretation of the world as humans do.” Bietet die Lernfähigkeit künftiger starker KI hier einen Ausweg?

2.4. Ein Gedankenexperiment: Die Pythia Electronica

Stellen wir uns als utopische Fernvision vor, dass eine künftige hochentwickelte, notwendigerweise allgemeine KI auf Anfrage hin wertvolle und hilfreiche Aussagen über mögliche und wahrscheinliche, vielleicht auch für ihre Adressaten wünschbare Zukünfte von sich gibt. [4] Ihre Erkenntnisse beruhen auf den unfassbar großen Datenmengen, die in den globalen Netzen zirkulieren, und auf Verarbeitungsprozeduren, die menschliche Fähigkeiten (insbesondere der Mustererkennung) weit überschreiten. Der modus operandi der KI entzieht sich dem Verständnis der Adressaten; dem einzelnen menschlichen Verstand ist es unmöglich, im Detail nachzuvollziehen, wie die zukunftsbezogenen Aussagen zustande gekommen sind. Damit befinden sich die Fragesteller in einer Situation vergleichbar der der Orakel-Nutzer in der Antike (Steinmüller 2018). Die Pythia äußert sich aufgrund höherer, göttlicher Eingebung, die sich den Zuhörern entzieht und meist noch durch speziell eingeweihte Priester interpretiert werden muss. [5] In dem Szenario der KI-Orakel geraten die Zukunftsforscher in die Rolle der Priester, die dem Nachfragenden die Sprüche der KI-Pythia verdolmetschen und erläutern.

Vertrauen in die Qualität der KI ersetzt hier Transparenz und Nachvollziehbarkeit: Die elektronische Pythia hat bislang brauchbare und sinnvolle Auskünfte gegeben, also wird man sich auch in Zukunft auf die höhere Einsicht verlassen können. Im Falle von absolut überraschenden, unerwarteten, vielleicht absurden Vorhersagen wird man allerdings zweifeln: Handelt es sich um eine für Menschen nicht mehr zugängliche, transhumane Erkenntnis oder um eklatante, wenn auch verborgene Prognosefehler vergleichbar den heutigen Fehlleistungen bei Deep Learning?

So sehr man sich heute und in Zukunft bemüht, menschliche kognitive Fähigkeiten nachzubauen, das Simulacrum ist in jedem Fall ein vereinfachtes, verzerrtes Abbild des Originals, seine Funktionsweise imitiert nur beschränkt die des Originals, es drückt den erreichten aktuellen Kenntnisstand der KI-Konstrukteure inklusive möglicher Theoriedefizite aus. Bei der Konstruktion der KI müssen dann Ad hoc-Lösungen die Leerstellen der Erkenntnis füllen. Sollte die Stufe der starken KI erreicht werden, wird gelten: Künstliche Intelligenz ist nichtmenschliche Intelligenz!

2.5. Black-Box-Effekte und Explainable KI

Situationen, in denen Vertrauen Transparenz ersetzt und bei denen wir uns auf Aussagen über Zukünftiges ohne spezifische Erklärung verlassen, sind nichts Ungewöhnliches. Derartige Black-Box-Effekte kennen wir von Expertenvorhersagen. In der Regel wissen wir nicht im Detail, mit welchen Gedankengängen der Experte zu seinen Aussagen gelangt ist, sonst könnten wir ja selbst in die Rolle des Experten schlüpfen. Wir haben aber die Erfahrung gemacht, dass der oder die Betreffende selten „daneben liegt“. Problematisch wird dies vor allem bei einer ex post-Selektion von Experten nach der Vorhersagegüte! Unter einer Vielzahl von tatsächlichen oder vorgeblichen Experten findet sich schon aus rein statistischen Gründen jemand, der in der Vergangenheit meist „richtig gelegen“ hat. Es sagt nichts über seine künftige Leistung aus. [6]

Black-Box-Effekte begegnen uns aber beispielsweise auch bei der Nutzung von Softwarelösungen für die Szenariokonstruktion. [7] Man versteht zwar das Grundprinzip der zugrunde gelegten Algorithmen (sei es per Branch-and-Cut oder durch einen genetischen Algorithmus), muss sich aber letztlich darauf verlassen, dass der Algorithmus schon richtig programmiert wurde und unter den Millionen möglichen Kombinationen die mit der besten Konsistenz findet. Ins Zweifeln komme ich allerdings, wenn etwa das Resultat, das mir die Szenario-Software bietet, von der Nummerierung der Schlüsselfaktoren abhängt.

In ähnliche Situationen werden wir bei der künftigen Nutzung von KIs in der Zukunftsforschung geraten: Wir werden allenfalls ein Verständnis ihrer Grundprinzipien haben, aber keinen Einblick in ihre spezifischen Strukturen, ihre spezifische Funktionsweise (in den modus operandi). Deshalb werden wir die KIs danach bewerten, ob sie bisher einen guten Nutzen brachten, eine hohe Erfolgsquote hatten – woran auch immer wir Erfolg oder Qualität messen würden. In der Terminologie von Rescher (1998) arbeiten wir hier mit Metaprognosen, Prognosen über die Vorhersagequalität. Die dann ihrerseits wieder durch eine evaluierende KI geliefert werden könnten.

Einen Ausweg bietet möglicherweise das Konzept der explainable artificial intelligence (XAI) (Holzinger, 2018). Darunter versteht man das Prinzip, die Funktions- und Arbeitsweise einer KI sowie ihre erzielten Resultate für den Anwender so verständlich wie möglich zu gestalten. [8] XAI soll eindeutig nachvollziehbar machen, auf welche Weise eine KI zu Ergebnissen gelangt. Dazu muss der simulierte kognitive Arbeitsgang der KI – also der Gang ihrer Datenverarbeitung, ihr modus operandi – hinreichend transparent gemacht werden.

Der nächste Schritt wäre SXAI – self-explaining artificial intelligence: Die KI soll ihre eigenen Arbeitsschritte verbal erklären können, so wie ja auch Experten gute Argumente anzuführen und abzuwägen vermögen. Dieses Prinzip von erweiterter XAI wird allerdings bislang m. W. nur im Zusammenhang mit Service-Robotern diskutiert, die ihre Handlungen ankündigen und begleitend beschreiben sollen. Eine derartige SXKI – eine erklärungsfreudige elektronische Pythia – würde also Rede und Antwort stehen können, ihren Adressaten erläutern können, welche Gedankengänge, welche Argumente sie zu ihren Aussagen geführt haben. Sie würde buchstäblich Verantwortung für ihre Aussagen übernehmen. Damit würden aus reinen (möglicherweise aus der Luft gegriffenen) Prophezeiungen Konjekturen im Sinne von de Jouvenel (1967): Spekulationen über die Zukunft, die durch Argumente gestützt werden.

Es versteht sich von selbst, dass wir von dieser Vision einer elektronischen Pythia noch sehr weit entfernt sind. Es ist ungewiss, ob sie je erreicht werden wird.

2.6. Grenzen von KI

Künstliche Intelligenzen operieren in der Welt der Daten, der Mensch agiert in der Wirklichkeit, der physischen Welt. Das ist ein fundamentaler, ein ontologischer Unterschied! [9] KIs lernen auf der Basis von Datenbeständen, Menschen lernen aus der Realität, die sie wahrnehmen und in der sie handeln. Soweit sich die Realität in der Datenwelt widerspiegelt, kann KI von Nutzen sein. Dies trifft jedoch gerade bei den eigentlichen Gegenständen der Zukunftsforschung, den großen Streitfragen der Gegenwart (verkürzt meist als „Zukunftsfragen“ bezeichnet) nicht zu. Für diese ist der Akteursbezug zentral:

  1. Wir sind stets mit einer Vielfalt von Akteuren konfrontiert, die untereinander im Konflikt stehen und deren Interessen, Wünsche und Werte, potentielle Handlungslinien usw. einbezogen werden müssen – und die gegebenenfalls selbst auf der Basis von Vorausschau agieren.

  2. Das Handeln des Auftraggebers der Zukunftsstudie beeinflusst die Zukunft. Interventionsparadoxien sind daher kein Fehler oder Problem, sondern Grundprinzip – sowohl von sich selbst zerstörenden Warnprognosen als auch von motivierenden Visionen. [10]

  3. In der Realität (der Natur wie der Gesellschaft) lässt sich kein System sauber abgrenzen, externe Einflüsse sind stets gegeben, damit auch die Möglichkeit von Störungen. Der Horizont ist stets diffus und offen.

Erst eine starke, allgemeine KI, die sich auch selbst in der physischen Realität verorten kann, wäre fähig, sich diesen Problemlagen zu stellen.

2.7. Zukunftsforschung versus Mikroprognostik

Versuchen wir holzschnittartig zwei Arten von Vorausschau zu unterscheiden: einerseits Mikroprognostik und andererseits eigentliche Zukunftsforschung. [11] Die Mikroprognostik befasst sich mit eher kurzfristigen Fragestellungen, die quantitativ und stark fokussiert in einem festen Rahmen behandelt werden. Beispiele sind in den Bereichen von Konsumverhalten, Logistik, Maschinenwartung zu finden. Ein typischer Fall ist die Wettervorhersage, wo wir mit einer hohen Komplexität bei geringem Erklärungsanspruch konfrontiert werden. Hier befinden wir uns im Bereich des Forecasting.

Die Zukunftsforschung nimmt dagegen Stellung zu langfristigen gesellschaftlichen Zeit- und Streitfragen. Beispiele sind etwa die gesellschaftliche Alterung und ihre Folgen, neue Arbeitskonzepte, die Mobilität der Zukunft, Energiewende, Geopolitik. Hier kommen die Prinzipien der Prospective (Berger, 1959) zur Anwendung: weit voraus schauen, das breite Umfeld einbeziehen, in die Tiefe analysieren, Risiken eingehen, den Menschen in den Mittelpunkt stellen. Ein typischer Fall ist – im Gegensatz zum Wetter – der Klimawandel, wo wir mit hohen Ungewissheiten und dem Einfluss vieler Akteure konfrontiert sind und wo Erklärungen der Vorausschau-Ergebnisse sachlich wie politisch unabdingbar sind.

KI, so wie wir sie heute kennen, ist geeignet für eine datenbasierte Mikroprognostik (im Sinne von predictive analytics). KI-basierte technische Systeme (autonome Fahrzeuge, Roboter) nutzen Mikroprognostik, um überhaupt sinnvoll agieren zu können. Auch unser alltägliches menschliches Handeln ist von Mikroprognostik geprägt: Wir erwarten, dass die Ampel auf Rot springt. Selbst unsere Sinnesorgane, etwa das Auge arbeiten nach dem Prinzip, extrem kurzfristige Erwartungen zu bilden und diese dann mit der wahrgenommenen Realität abzugleichen.

2.8. Ein mittleres Szenario

Je nach Art und Ausmaß der Arbeitsteilung zwischen Mensch und KI in Foresightprozessen und den entsprechend vorausgesetzten Fähigkeiten von KI lassen sich drei Szenarien unterscheiden:

  1. Inkrementeller Fortschritt: Einsatz von heutiger und partiell weiterentwickelter (schwacher) KI für spezifische Aufgaben. Diese KI-Tools werden etwa so genutzt, wie wir heutige Software-Tools (von Excel-Anwendungen und Google Trends über Real Time Delphis bis zu Foresight-Plattformen) nutzen.

  2. Mensch-KI-Teams: Kooperation mit KI-Systemen, die die Rolle von Software-Assistenten einnehmen, mit denen man über sprachlichen Interfaces kommuniziert, die je nach gestellter Aufgabe mehr oder weniger selbsttätig recherchieren, Analysen und Hochrechnungen durchführen und die Ergebnisse beispielsweise in hochwertigen Visualisierungen zur Verfügung stellen.

  3. Veritable KI-„Orakel“ gemäß dem obigen Gedankenexperiment: Die elektronische Pythia gibt auf der Basis von Verfahren, die auf Weiterentwicklungen etwa von Big Data und Deep Learning beruhen, selbstständig zukunftsbezogene Aussagen und Empfehlungen ab.

Realistische Perspektiven der Nutzung von KI ergeben sich vor allem im zweiten Szenario, dem der Kooperation von menschlicher und künstlicher Intelligenz. Entscheidend ist hier die Art und Weise der Interaktion, die Schnittstellengestaltung. Verbalisierung und Visualisierung, Reden und Zeigen, semantische Umsetzung und visuelle Analyse spielen dabei zentrale Rollen; KIs in Foresightprozessen müssen zu mehr und spezifischerer Interaktion befähigt sein als heute existierende Software-Assistenten wie Alexa oder Siri.

Der Einsatz von KI lohnt sich dann, wenn nicht nur Vorhandenes auf neue Weise aufbereitet wird, sondern wenn sich neue Möglichkeiten und neue Einsatzfelder ergeben, etwa

  • Hypothesenbildung und -testung: KI-Tools unterstützen Empirie und Gedankenexperimente durch Simulationen.

  • Argumentationshilfe: KI-Tools zwingen uns als „Sparringpartner“, Argumente stringenter zu fassen und stärker zu begründen.

  • Qualitätssicherung: KI-Tools durchleuchten Resultate auf der Basis von bestimmten Kriterien.

Zwischen einem bloßen Umsetzen von vorhandenen Verfahren auf KI und der utopischen elektronischen Pythia liegt ein weites, noch weitgehend unerkundetes chancenreiches Feld von Anwendungen.

2.9. Fazit

Die Dynamik der KI-Forschung hält an: Jahr um Jahr kommen neue Systeme und neue Tools auf den Markt, die teils tatsächliche Fortschritte beinhalten, teils auch nur als KI beworben werden. Die Vielfalt der Anwendungen und Lösungen wächst. Man darf davon ausgehen, dass in den meisten Stufen eines Foresightprozesses, vor allem aber bei Recherche und Analyse, aber auch bei der Konstruktion und Überprüfung von Zukunftsbildern künftig Tools mit dem Label KI genutzt werden. Sie werden nach einer kurzen Hype-Phase so alltäglich und unspektakulär sein wie heute etwa die Nutzung von Software zur Szenariokonstruktion. Man gewöhnt sich an die Tools – und ihre Macken! – und obwohl man letztlich nicht in sie hineinschaut, setzt man aufgrund früherer Erfahrungen Vertrauen in sie.

Das führt mich zu meiner abschließenden These:

„Es kommt nicht darauf an, was KI tatsächlich leisten kann. Es kommt darauf an, was die Nutzer glauben, was KI leisten kann.“

Die Reputation des Tools ist entscheidend. Im schlimmsten Fall bestimmt gemäß dem „law of the instrument“ das Tool die Aufgabe: Werden vielleicht künftig Fragestellungen der Zukunftsforschung so zurechtgeschnitten, dass sie für bestimmte KI-Tools passfähig sind?

Am Ende bleiben zentrale Fragen offen:

  • Wie verändert sich durch KI die Rolle der Zukunftsforschung in unserer Gesellschaft?

  • Wie wird künftig die Arbeitsteilung zwischen menschlicher und künstlicher Intelligenz organisiert?

  • Kann der Einsatz von KI-Tools neue Impulse für die Zukunftsforschung auslösen? Und wenn ja, welche?

2.10. Literaturverzeichnis

Beckert, Bernd (2021): Vertrauenswürdige künstliche Intelligenz. Ausgewählte Praxisprojekte und Gründe für das Umsetzungsdefizit. In: TATuP. Zeitschrift für Technikfolgenabschätzung in Theorie und Praxis 30 (3), S. 17-22.

Berger, Gaston (1959): L‘Attitude Prospective. In: Berger, Gaston; Bourbon-Busset, Jaques; Massé, Pierre (2007): De la prospective. Textes fondamentaux de la prospective fran-caise 1955-1966. L’Harmattan Paris, S. 81-86.

Bosse, Christian K.; Hoffmann, Judith; van Elst, Ludger (2018): Potenzialeinschätzung von Big Data Mining als methodischer Zugang für Foresight. In: Zeitschrift für Zukunfts-forschung 2018 (1), urn:nbn:de:0009-32-46723.

Bostrom, Nick (2014): Superintelligenz. Szenarien einer kommenden Revolution. Suhrkamp, Berlin.

de Jouvenel, Bertrand (1967): Die Kunst der Vorausschau. Luchterhand Neuwied, Berlin.

Dreyfus, Hubert L. (1989): Was Computer nicht können. Die Grenzen künstlicher Intelligenz. Athenäum, Frankfurt/M.

Gebhardt, Birgit (2013): Zukunft in den Algorithmen. In: ChangeX, www.changex.de vom 15.2.2013. Online verfügbar unter: http://www.changex.de:1050/Article/serie_zukunft18_gebhardt, gesichtet 1.1.2022.

Holzinger, Andreas (2018): Explainable AI (ex-AI). In: Informatik Spektrum 41, 138–143. https://doi.org/10.1007/s00287-018-1102-5, gesichtet 1.1.2022.

Jungk, Robert (1969): Anfänge und Zukunft einer neuen Wissenschaft: Futurologie 1985. In: Jungk, Robert; Mundt, Hans-Josef (Hrsg.): Unsere Welt 1985, Kurt Desch, München Wien Basel.

Maul, Stefan M. (2018): Wahrsagekunst im alten Orient oder: Vom Sinn und Unsinn der Prognostik. In: Blumentrath, Hendrik; Wolf, Burkhardt (Hrsg.): Werkstätten der Zu-kunft. Mosse-Lectures an der Humboldt-Universität zu Berlin, Vorwerk, Berlin, S. 43-62.

Rescher, Nicholas (1998): Predicting the Future. An Introduction to the Theory of Forecasting. State University of New York, New York.

Simonite, Tom (2018, 1. Januar): When It Comes to Gorillas, Google Photos Remains Blind. Online verfügbar unter: https://www.wired.com/story/when-it-comes-to-gorillas-google-photos-remains-blind/, gesichtet 1.1.2022.

Steinmüller, Karlheinz (2018): Künstliche Intelligenz – Verheissungen und Mythen. In: swissfuture. Magazin für Zukunftsmonitoring 2018 (2), S. 11 – 14. Online verfügbar unter: https://www.swissfuture.ch/de/wp-content/uploads/sites/2/2019/07/sf_218_ansicht.pdf, gesichtet 1.1.2022

Steinmüller, Karlheinz (2020): Die Zukünfte der Zukunftsforschung. In: swissfuture. Magazin für Zukunftsmonitoring 2020 (2,3), S. 8 – 11.

Vandenberg, Philipp (1979): Das Geheimnis der Orakel. Archäologen entschlüsseln das bestgehütete Mysterium der Antike. Goldmann, München.

Zweck, Axel; Braun, Matthias (2021): Predictive Analytics: Sind Zukunftsforscher*innen bald ein Auslaufmodell? VDI-TZ Düsseldorf. Online verfügbar unter: https://www.vditz.de/service/publikationen/details/predictive-analytics-sind-zukunftsforscherinnen-ein-auslaufmodell, gesichtet 1.1.2022.

3. Replik 1

Dr. Aljoscha Burchardt, DFKI Speech and Language Technology Lab, Berlin

Zunächst danke ich Karlheinz Steinmüller für seinen facettenreichen und aus meiner Sicht ausgewogenen Essay, den ich komplett unterschreiben kann. Danke auch an Jürgen Renn (MPIWG) für wertvolle Kommentare zu einer Vorversion meiner Replik.

3.1. Lernen aus der Zukunft

Sehr anregend fand ich das Kahn-Zitat, dass Zukunftsforschung aus der Zukunft lernen müsse. Ist es ein Nachteil, dass KI-Systeme aus der Vergangenheit lernen? Vielleicht ist gemeint, dass die auf Daten trainierten Systeme rein deskriptiv die Vergangenheit fortschreiben, anstatt sie einer (normativen) Bewertung zu unterziehen. Die maschinelle Übersetzung übersetzt morgen noch so, wie gestern übersetzt wurde – keine schlechte Heuristik. Oft ahnen wir Menschen aber, dass die Daten aus der Vergangenheit bald nicht mehr der Realität entsprechen werden. Dann muss aktiv modelliert werden und das – ein Begriff, der bei Steinmüller interessanter Weise nicht auftaucht – interdisziplinär.

3.2. Mensch-Maschine-Interaktion

Steinmüller schreibt, dass Menschen als Akteure in der Realität handeln. Sie ändern also willentlich den Kontext. Das tun sie trotzt vieler Unbekannter, indem sie unter Anderem Prinzipien verstehen und Hypothesen testen. Ich stimme zu: Systeme, die rein passiv die (praktisch immer unvollständige) Datenlage auswerten, sind hier grundsätzlich im Nachteil. Auf der anderen Seite sind Prognosen zu den großen gesellschaftlichen Herausforderungen wie dem Klimawandel oder Anthropozän im Allgemeinen ohne die Auswertung große Literatur- und Datenbasen nicht denkbar. Hier braucht der Mensch Hilfe.

Wie Steinmüller an seinem Phasenmodell richtig zeigt, qualifiziert sich die schwache KI für Hilfstätigkeiten. Hier kann man sich im Übertragenen bei den vier „Ds“ der Roboterisierung bedienen: dull, dirty, dangerous und dear sind die Aufgaben, die wir zunächst an die Maschinen delegieren wollen, dann aber eben auch Literaturrecherche oder die Datenauswertung. Und was ist mit den „anspruchsvollsten“ geistigen Prozessen, etwa der Projektionsphase? Kann KI nicht hier auch als Muse dienen, die mehr oder weniger per Zufall mögliche Zukünfte generiert und der Mensch wählt aus und bewertet? Das erinnert dann doch eher an das Theorem der endlos tippenden Affen und die damit verbundenen praktischen Probleme, die auch in dem Zitat von Simonite angesprochen werden. Sicher ist aber, dass die Mensch-Maschine-Interaktion sich mit der Entwicklung der Maschinen weiter verändern wird. Diesen Gestaltungsauftrag sollte die Zukunftsforschung annehmen!

3.3. Granularität von Erklärungen

Steinmüllers Gedankenexperiment setzt voraus, dass es „dem einzelnen menschlichen Verstand […] unmöglich [ist], im Detail nachzuvollziehen, wie die zukunftsbezogenen Aussagen zustande gekommen sind“. Diese Annahme ist vom derzeitigen Stand der Technik geprägt, wo Systeme oft zu sehr guten Ergebnissen kommen, etwa bei der Übersetzung, der Weg dahin aber nicht nachvollziehbar ist. Prinzipiell können Systeme vielfältige Erkältungen liefern. Dann sind sie aber mitunter so aufwändig in der Entwicklung und gleichzeitig nur in einem so engen Gebiet einsetzbar, dass es sich schlicht nicht lohnt.

Es gibt auch das Phänomen der „Übererklärung“, wo KI-generierte Beweise von mathematischen Standardproblemen zwar in jedem Schritt von Experten als wohlgeformt und logisch bewertet werden, der gesamte Beweis aber aufgrund seiner Kleinteiligkeit als nicht überzeugend betrachtet wird. In der symbolischen KI gibt es jede Menge Ansätze unter Stichworten wie Frames, Skripte, hierarchisches Planen, etc. Vielleicht gelingt es, zukünftig der hybriden/kognitiven KI, (symbolisches) Wissen und (subsymbolisches) Lernen so zusammenbringen, dass jeweils das richtige Argumentationsniveau gefunden wird.

Bleiben wir abschließend dabei, uns erst einmal die repetitiven und strukturierten Aufgaben vom Hals zu schaffen. Falls uns eine prophetische KI-Muse dann doch früher als erwartet küsst, dann haben die Zukunftsforscher und Technologen wie ich halt mal wieder falsch gelegen.

4. Replik 2

Kai Gondlach, zukunftsforscher.de, Leipzig

Als einer derjenigen, die das gemeinsame Methodentreffen des Netzwerks Zukunftsforschung, der Alumni des Masterstudiengangs Zukunftsforschung an der Freien Universität Berlin sowie dem besagten Masterstudiengang im März 2021 unter dem provokanten Titel „Kann KI Zukunftsforschung?“ (liebevoll „KI-Gipfel“ genannt) initiiert und organisiert haben, ist es mir eine große Freude, den Ball aufzunehmen, den Dr. Karlheinz Steinmüller mit seinem Beitrag in die Community dieser Zeitschrift gespielt hat. Denn wenn diese Zusammenkunft ein Ziel hatte, war es genau dieses: Den Diskurs zwischen den Institutionen über aktuelle Themen zu beleben und ihm möglicherweise auch eine neue Denkrichtung zu geben.

4.1. Zukunftsforschung als Disziplin oder Institution

Eine Kernfrage halte ich bei der Diskussion vorab für essenziell: Sprechen wir über Zukunftsforschung als (Inter-)Disziplin oder als Institution? Hieran schließt sich vor allem die Folgefrage an, ob eines der beiden im deutschsprachigen Raum überhaupt existiert?

4.2. Zukunftsforschung als (Inter-)Disziplin

Die Landkarte der akademischen Zukunftsforschung im deutschsprachigen ist bestenfalls dynamisch oder heterogen, objektiv jedoch eher verzerrt und fragmentiert. Eher Flickenteppich als Inselstaat. Zahlreiche Institute an Hochschulen und Universitäten widmen sich meist sekundär in Forschung und Lehre der Zukunftsforschung nach allgemeingültigen Standards und Gütekriterien. Die eher wissenschaftlich arbeitenden Organisationen verlieren kein gutes Wort über die Trendforscher oder Foresight-Beratungen, es fehlt an Austausch und methodischem Konsens. Der interne Diskurs über die Selbstfindung der Zukunftsforschung stockt und wurde mitunter durch die Situation am Institut Futur der Freien Universität Berlin ausgebremst. Die Möglichkeiten für Graduierte zu promovieren sind prekär und praktisch ausschließlich in Großkonzernen zu finden.

Zwar erfolgte 2020 die Anerkennung des Masterstudiengangs Zukunftsforschung an der FU Berlin als „kleines Fach“. Ein großer Schritt für ein Institut, ein kleiner Schritt für die Menschheit? Die Karriereperspektiven in der Zukunftsforschung haben sich dadurch jedoch (bislang) nicht gebessert. Dem Nachwuchs bleibt meist nur die Option, in die ursprüngliche Profession zurückzukehren und den Exkurs in die Zukunftsforschung allenfalls als nette Zusatzqualifikation abzubuchen – Ausnahmen bestätigen die Regel.

Entsprechend ist der Weg zu einer etablierten Forschungsrichtung weiterhin ungewiss. Die Frage „Kann KI Zukunftsforschung?“ hat auf den ersten Blick nichts mit diesen Grundsatzdebatten zu tun, ist m. E. jedoch zentral, bevor wir uns gemeinschaftlich irgendeiner Fragestellung nähern können.

Ohne die Bestrebungen der Angehörigen des Netzwerk Zukunftsforschung despektierlich zu kritisieren, bleibt die Feststellung: Zukunftsforschung ist weit davon entfernt, eine anerkannte (Inter-) Disziplin zu sein und entsprechend von außen gewürdigt zu werden.

4.3. Zukunftsforschung als Institution

Laut Duden ist eine Institution eine

  1. „einem bestimmten Bereich zugeordnete gesellschaftliche, staatliche, kirchliche Einrichtung, die dem Wohl oder Nutzen des Einzelnen oder der Allgemeinheit dient“;

  2. „bestimmten stabilen Mustern folgende Form menschlichen Zusammenlebens“.

Die inhärente Heterogenität jeder interdisziplinären Forschungsrichtung macht es auch für Zukunftsforschende nahezu unmöglich, sich in disziplinär homogenen Institutionen zu organisieren oder sich damit zu identifizieren. Man könnte den Eindruck erhalten, die Gemeinschaft der Zukunftsforschenden glaubt selbst nicht (mehr?) an den Stellenwert einer eigenständigen Disziplin Zukunftsforschung, sondern bräuchte grundlegend die Kopplung an eine Disziplin wie wirtschafts-, ingenieur- oder sozialwissenschaftliche Fachrichtungen.

Zukunftsforschende in der akademischen Welt unterliegen dem Rechtfertigungsdruck gegenüber „echten“ Wissenschaften und der paradoxen Situation, für Fördermittelanträge konkrete Prozessmodelle und bisweilen Ergebniserwartungen zu äußern, was einem guten Teil der Kerneigenschaften der Zukunftsforschung widerspricht. Von außen betrachtet ist die Interdisziplin gefangen in einem Netz von Institutionen, deren innere Systemlogiken sie nachahmen muss, ohne jedoch selbst dafür qua definitionem geeignet zu sein.

Nein, Zukunftsforschung ist keine Institution. Die einzelnen Zukunftsforschenden sind verstreute Einzelkämpfer:innen, die mit teils an größere Organisationen angegliedert, aber in der Regel organisiert in Initiativen, Agenturen, eigenen „Instituten“ oder als Freelancer nach wie vor als Exot:innen als Beigabe für andere Projekte dienen.

4.4. Künstliche Intelligenz und Zukunftsforschung

Warum haben wir 2021 nun das Thema „Kann KI Zukunftsforschung?“ aufgegriffen?

Ein zentraler Antrieb war die Beobachtung, dass die Zukunftsforschung zu sehr mit sich selbst und ihren Methoden beschäftigt ist, um am Zeitgeist teilzuhaben. Es ist natürlich richtig und wichtig, Werkzeuge und Methoden wie die Delphi-Methode oder Szenarioprozesse zu verfeinern. Aber ist es wirklich zielführend, in einer zunehmend digitalisierten Welt und auch Forschungsgemeinschaft über analoge Fragebögen den heiligen Gral zu suchen, während andere mit etwas Entwicklungsverstand und konkreten Mehrwerten für ableitbare Strategien und Investitionen für Auftraggeber aus Wirtschaft und öffentlicher Verwaltung moderne Trendradare, Prognoseinstrumente, Szenario-Software und Echtzeit-Delphis vermarkten?

Das zweite wesentliche Motiv war die Frage, ob Menschen, die sich Zukunftsforscher:innen nennen, einen Überblick über aktuelle Entwicklungen in den wichtigsten Dimensionen in Gesellschaft, Wirtschaft, Technologie, Politik, Ökologie usw. haben müssen – und wenn ja, wie tiefgründig ihr Wissen dann sein müsste. Das Ziel des -Arbeitsgruppentreffens im März 2021 war daher auch, einen Status Quo des Vorwissens der Teilnehmenden in puncto künstlicher Intelligenz zu erhalten. Das Ergebnis war gemischt.

Mythen und Hypes entstehen immer dort, wo zu wenig Fachwissen oder belastbare, transparente Forschung existieren. Oder es herrscht Stille; es ist in Ordnung, wenn Historiker:innen einige Jahrzehnte abwarten, bevor sie Ereignisse kommentieren. Darf sich das die Zukunftsforschung erlauben? Oder wäre es nicht vielmehr erstrebenswert, wenn die Interdisziplin zu aktuellen Trend-Themen gemeinsame Positionen entwickelt und selbstverständlich bei Umbrüchen zu Rate gezogen würde? Kann es sich ein Mitglied der akademischen Zukunftsforschung erlauben, nicht auskunftsfähig zu sein, wenn das Thema in professionellen Runden in Richtung KI, Blockchain, Quantencomputer oder Klimawandel, drohende Kriege und Bundestagswahlen steuert? Heute geschieht diese mediale Ansprache allenfalls in Richtung der etablierten, prominenten oder marketingaffinen Ikonen. Die Institutionen der Zukunftsforschung wiederum werden nie oder selten angesprochen, wenn eine Pandemie verkündet, Krieg erklärt oder das Metaversum die Justiz vor scheinbar ungeahnte Herausforderungen stellt.

Der Ansatz zum „KI-Gipfel“ war es daher, insbesondere zu provozieren, dass sich die Community der deutschsprachigen, akademischen Zukunftsforschung tiefer in das Thema einarbeitet – aber auch ihr Selbstverständnis neu diskutiert.

4.5. Replik auf Dr. Karlheinz Steinmüllers Argumente

Am Ende des Abschnitts 2.3 lesen wir ein Zitat von Simonite, dass KI kein Common Sense, kein Allgemeinwissen bzw. Deutungswissen habe. Dr. Steinmüller schreibt darauf die rhetorische Frage, ob künftige starke KI das können könnte; dies halte ich für die falsche Frage. Wenn eine KI menschlich denken kann, ist sie meines Erachtens nicht intelligent, sondern eine Kopie des Menschen. Das schreibt der Autor aber dann Ende 2.4 auch: „Sollte die Stufe der starken KI erreicht werden, wird gelten: Künstliche Intelligenz ist nichtmenschliche Intelligenz!“ – eben. Insgesamt beobachte ich den Trugschluss aus der ersten rhetorischen Frage in praktisch jeder Diskussion über KI. Diese drehen sich jedoch um die falsche Frage, nämlich ob eine KI die Zukunft vorhersagen kann. Diese suggerierte Annahme halte ich für eine der gefährlichsten Fehlleistungen der Zukunftsforschung in der Vergangenheit, nämlich, nicht mit dem Mythos aufzuräumen, dass Zukunft generell im Detail vorhersehbar ist. Jede Hoffnung darauf ist inkompatibel mit allem, was wir aus jahrzehntelanger Sozialforschung, insbesondere dem Strang des Konstruktivismus, sowie der Physik und anderen angrenzenden Naturwissenschaften wissen. Diesen Umstand greift der Autor in der Auflistung in 2.6 auch auf, dieser Botschaft müsste aber meines Erachtens mehr Raum gegeben werden.

Ebenfalls in Abschnitt 2.6 schreibt Steinmüller: „Künstliche Intelligenzen operieren in der Welt der Daten, der Mensch agiert in der Wirklichkeit, der physischen Welt“. Das stimmt nur auf den ersten Blick. Auf den zweiten Blick muss jedoch konstatiert werden, dass sich die physische Welt zunehmend in Digital- oder Binär- und bald wohl Quanten-Sprache übersetzen lässt. Dabei agieren die künstlichen Intelligenzen jedoch zwangsläufig in den menschengemachten Grenzen, die ihnen Deutungsmuster anhand von programmierten Rahmenbedingungen mit auf den Weg geben. Die IT-Expert:in ist die Dolmetscherin für die KI-Wirklichkeit. Während oft die Frage im Raum steht, ob in der Schule Informatik Pflichtfach werden sollte, frage ich mich eher, ob nicht das Fach Ethik Pflicht für alle Entwickler:innen sein sollte. Soll heißen: Auch der Mensch bewegt sich zunehmend in der Welt der Daten, die KI-Entitäten nehmen zunehmend Einfluss auf die physische Welt – angefangen bei Routenempfehlungen auf Maps, Musikempfehlungen bei Spotify bis zu Wahlempfehlungen in „Social“ Media.

Ein weiterer Einspruch ergibt sich in Abschnitt 2.7, wo konstatiert wird, KI eigne sich für Mikroprognostik bei kurzen Zeiträumen, nicht für langfristige Themen. Das hängt massiv von der Datenlage sowie der Trägheit der jeweiligen Parameter ab. Gerade das Beispiel Klimawandel ist deshalb so gut prognostizierbar, weil geologische und klimatische Verhältnisse sich sehr träge verändern, wenn man von den rapide anvisierten Kipppunkten absieht. Bei einigen gesellschaftlichen Faktoren ist das im Grunde ähnlich, natürlich mit erheblich mehr unbekannten Variablen; aber nur weil etwas noch unbekannt oder schwer greifbar ist, heißt das noch lange nicht, dass es zu komplex zur Modellierung sei. Die Frage ist ja, wie, in welcher Form, durch wen die Parameter vorgegeben werden, anhand derer eine KI wenigstens einige Variablen der zukünftigen Gesellschaft, Politik, Wirtschaft oder Technologie mit einiger Wahrscheinlichkeit vorhersagen kann. An der Stelle wäre es möglicherweise hilfreich, die Rahmenbedingungen von Zukunftsszenarien wenigstens teilweise automatisiert durch eine KI erstellen zu lassen. Infolge solcher Rahmengerüste würde der Aufwand für einzelne Projekte deutlich sinken; doch natürlich steht die Frage im Zentrum, inwieweit das Forscher:innen-Naturell einer solchen Foresight-Maschine vertrauen könnte?

Welches Thema an der Stelle fehlt, ist der Einsatz von Quantum Machine Learning. Kombiniert man effiziente Algorithmen mit dem neuen Typ von Computern, die nicht mehr auf die Aneinanderreihung binärer Codes angewiesen sind, sondern in Superposition gleichzeitig mehrere Berechnungen anstellen können, die selbst hochentwickelte Kryptographie in die Knie zwingt, erhält man möglicherweise doch eine recht akkurate Forecast-Maschine. Der Anwendungsfall wurde von Volkswagen und D-Wave bereits 2017 auf einem Prototyp vorgeführt, um den Verkehrsfluss einige Minuten in die Zukunft zu projizieren – mit Erfolg. Folgt man dem Moore’schen Gesetz, dürfte diese Technologie in ein bis zwei Jahrzehnten nicht nur marktreif, sondern Standard sein. Damit sind wir wieder bei der von Steinmüller zitierten Prognose Jungks, die sich zumindest in Teilen bewahrheitet hat. Wir sind uns zwar alle einig, dass die Vorhersage komplexer Zukunftszustände oder Zukünfte nicht möglich ist, jedoch in datenvernetzten Umgebungen durchaus schlüssig erscheint.

Um noch weiter zu denken ist eine entscheidende Frage, was den menschlichen Geist vom maschinellen unterscheidet; es sind im Wesentlichen Motive und Ziele (siehe Max Tegmark und andere). Das erste Roboterunternehmen, dem es gelingt, einer Maschine ein vergleichbares Ziele-Gebilde zu programmieren, aus dem sich rekursiv nach unten kaskadiert Unterziele zur Erreichung der jeweils höher priorisierten ergeben, dem gehört die Welt. Doch nach Auffassung seriöser KI-Forschung können wir dieses Szenario im 21. Jahrhundert noch getrost außer Acht lassen und stattdessen über sinnvolle und vor allem hilfreiche Anwendungsfälle künstlicher Intelligenz nachdenken.

Abschnitt 2.8 (mittleres Szenario) von Steinmüllers Text enthält folglich die m. E. wichtigste Erkenntnis: die hilfreiche Unterscheidung in einfache Tools schwacher KI; und auf der anderen Seite Mensch-KI-Symbiose. An dieser Stelle sehe ich den größten Nutzen für die Zukunftsforschung. Ich bin zuversichtlich, dass mithilfe schwacher KI besser verstanden werden kann, nach welchen Kategorien und semantischen Eselsbrücken das Gehirn bspw. Kreativität einsetzt, also im Wesentlichen neu kombiniert. Denn die Frage ist ja, ob unsere Gedankenwelt wirklich so einzigartig ist – oder ob es nur noch nicht gelungen ist, das menschliche Gehirn dergestalt zu analysieren, dass eine Nachbildung in Schaltkreisen, Transistoren und später Qubits greifbar wird und, genau wie wir, Vergangenes mit der autobiographischen Disposition und aktuellen Sinneseindrücken kombiniert, um „kreativ“ oder „innovativ“ zu sein. Das KI-Orakel bei Unterpunkt 3 wiederum ist vielleicht ein humorvolles Gadget für Kirmes, die Zukunftsaussage müsste sich jedoch immer auf die Fragenden beziehen. Doch es zeigt schön das Spannungsfeld auf, in dem wir uns bewegen.

Als eher jüngeres und daher angemessen demütiges Mitglied dieser Community möchte ich an dieser Stelle dazu ermuntern, das gängige Menschenbild zu hinterfragen. Als Posthumanist möchte ich etwas flapsig anmerken, dass wir Menschen keine so einzigartigen Schneeflocken sind, wie es oft in Diskussionen mitschwingt. Nur weil wir im besten Fall zwei Daumen haben und kollektiv Kohlekraftwerke oder Atombomben gebaut haben, macht uns das zwar zum Leviathan des Planeten, aber noch nicht zu übermächtigen, altruistischen Heilsbringern bis in alle Ewigkeit. Im Gegenteil. Unsere Existenz auf dem Planeten ist ein Augenzwinkern im Angesicht der gesamten Evolution und wenn wir so weitermachen wie bisher, enden wir möglicherweise bald so abrupt wie wir aufgetaucht sind. Nur weniger zufällig. Es gibt genügend Dystopien in der Science-Fiction, vielleicht wird am Ende doch Thomas Hobbes Recht behalten mit seiner Mutmaßung aus dem Jahre 1651, dass der Mensch des Menschen Wolf ist und entsprechend sein eigenes Schicksal endgültig besiegeln könnte.

4.6. Abschließende Fragen von Steinmüller

Dankenswerterweise hat Dr. Karlheinz Steinmüller zum Ende seiner sehr hilfreichen Ausführungen einen kleinen Fragenkatalog angehängt. Hierauf möchte ich kurz eingehen aus meiner bescheidenen Perspektive.

„Wie verändert sich durch KI die Rolle der Zukunftsforschung in unserer Gesellschaft?“

Man könnte meinen, dass KI-Anwendungen zum selbstverständlichen Werkzeugkasten der Zukunftsforschung gehören müssen. Vielleicht wäre hierzu eine Blitzumfrage durch das Netzwerk Zukunftsforschung erhellend, bevor Spekulationen über den tatsächlichen Stand angestellt werden. Meiner Einschätzung nach wird es bald noch einerseits die in der Öffentlichkeit wahrgenommenen Zukunftsforschenden geben, welche selbstverständlich mit KI arbeiten, alle anderen werden andererseits nicht mehr ernstgenommen. Sie nutzen ja auch keinen Abakus für schnelle Rechenaufgaben und es arbeitet in unseren Reihen wohl niemand mehr mit einer Schreibmaschine.

„Wie wird künftig die Arbeitsteilung zwischen menschlicher und künstlicher Intelligenz organisiert?“

Das hängt natürlich von der Potenz der KI sowie dem genauen Kontext, der Branche und Tätigkeit sowie Qualifikation aller daran Beteiligten ab. Für die Zukunftsforschung wünsche ich mir mehr (kritische!) Beschäftigung und den Einsatz moderner Tools – doch vielleicht blieb mir der Einblick in die modernen Methoden bei anderen bislang verwehrt. Auch hier könnte eine (Online-)Befragung im Netzwerk spannende Erkenntnisse zutage fördern.

„Kann der Einsatz von KI-Tools neue Impulse für die Zukunftsforschung auslösen? Und wenn ja, welche?“

Unbedingt! Steinmüller hat in seinem wertvollen Essay so viele wunderbare Beispiele genannt, die wir nutzen sollten – darunter Simulation, vielleicht sogar eine zufällige Hypothesenbildung, einfach um den Denkprozess zu provozieren. Insbesondere bei der Verarbeitung massiver Datenströme aus den beobachteten Einsatzgebieten müssen wir stärker auf KI zurückgreifen, um mehr Zeit für die wirklich wichtigen Tätigkeiten zu haben: Interpretation, Deutung, Empfehlung.

4.7. Plädoyer

Ob Zukunftsforschung nun eine Disziplin oder Institution ist, ob meine subtile Unterstellung, dass Zukunftsforschung weit entfernt vom mündigen Einsatz moderner Technologie ist, zutreffend ist, sei dahingestellt. Die Hoffnung dieser Replik ist, den zeitweilig – sicher auch infolge der Pandemie – eher zurückhaltenden Austausch der Community zu befeuern, Erfahrungen aus Projekten auszutauschen, gemeinsame Projekte anzuschieben und die Zukunftsforschung als zweifelsfrei sichtbare Disziplin und Institution zu etablieren. Wie bereits in meiner letzten Replik auf Lars Brozus deutlich wurde, sollte es unser Ziel werden, Zukunftsforschung institutionell tiefer zu verankern und selbstverständlich die Entscheidungs- und Diskursprozesse auf allen Ebenen mitzuprägen.

Hehre Ziele entfalten in dem Moment ihre Zugkraft in die Zukünfte im Sinne einer Propensität (Niemann, 2008), wenn sie formuliert werden. Keine andere Funktion verfolgt diese Replik.

4.8. Literaturverzeichnis

Niemann, Hans-J. (2008): Propensity und Serendipity – zwei Leitideen steuern den glücklichen Zufall. In: Aufklärung und Kritik (1), S. 48-73.

5. Replik 3

Prof. Dr. habil Heiko von der Gracht, Professor und Inhaber des Lehrstuhls für Zukunftsforschung, Steinbeis School of International Business and Entrepreneurship (SIBE), Herrenberg

Prof. Dr. Stefanie Kisgen, Junior-Professorin für Leadership, Steinbeis-Hochschule und Geschäftsführerin, Steinbeis School of International Business and Entrepreneurship (SIBE), Herrenberg

5.1. Indolent gegenüber der eigenen Zukunft

Die „Zukunft der Zukunftsforschung“ als deutlich unterbelichtet auszuweisen und diesem Mangel mit einem klugen Beitrag in Perspektive auf Künstliche Intelligenz abzuhelfen, gelingt Karlheinz Steinmüller so augenzwinkernd wie fundiert. Wir in der „Zukunftsbranche“ erforschen die Zukünfte anderer. Eher selten beleuchten wir die eigene Zukunft. Im Laufe der Jahre delektierten viele von uns deshalb jede noch so kleine Veröffentlichung zum Thema und veröffentlichten mangels Masse gelegentlich auch eigene Studien wie zum Beispiel „The Future of ICT-Based Futures Research“ (2013, vgl. Abb. 1). Diese schmälerte damals den Mangel zwar etwas, ist aber nach über zehn Jahren der KI-Forschung seither deutlich überholt – und in Ergänzung zu Steinmüllers Beitrag gerade deshalb interessant. Denn zu sehen, wie vor rund 10 Jahren die befragten 177 Foresight-Expertinnen und Experten aus 38 Ländern jene Zukunft skizzierten, die wir heute erleben, ist ein typisches Ex-post-Vergnügen: Wie man sich doch täuschen kann!

5.2. Zukunft ist auch nicht mehr das, was sie mal war

Eine jener Thesen, welche die befragten Delphi-Experten der Zukunftsforschung kommentieren sollten, postulierte zum Beispiel, dass Informations- und Kommunikationstechnologie (IKT) die Praxis der Zukunftsforschung bis 2020 „revolutioniert“ haben werde. Heute können wir amüsiert und mit Steinmüller sagen: Wie man sich doch täuschen kann. Wobei das ein wenig zu viel des Spottes wäre: Die Eintrittswahrscheinlichkeit der These wurde damals mit 63 Prozent angegeben, was den „Irrtum“ in Grenzen hält. Warum die Experten sich täuschten, erklärt Steinmüller übrigens wunderbar in seinem Beitrag. Eine andere These der damaligen Studie lautete: „IKT-basierte Instrumente der Vorausschau haben die Probleme des Transfers von Szenarien in die Strategie beseitigt.“ Was für ein Anspruch! Denn wenn es ein zentrales Problem der Zukunftsforschung gibt, dann dies. Damals zeigten sich die Delphi-Expertinnen und -Experten pessimistisch und bezifferten die Eintrittswahrscheinlichkeit mit lediglich 32 Prozent. Auch heute ist Zukunft immer noch das beliebteste Stiefkind auf dem C-Level von Unternehmen. Warum? Auch dazu versuchte die damalige Delphi-Studie eine Antwort zu geben.

5.3. Zu arthritisch für die Selbstauslöschung

Transferblockaden auf dem Weg der Erkenntnis von der Forschung in die Strategie haben ihre Ursache häufig eben nicht in einem IKT-Mangel. Vielmehr nennt das damalige Delphi-Panel als Ursachen diverse Mängel in Strukturen und Prozessen im Management von Unternehmen. Schlussfolgerung: Selbst eine allwissende KI käme nicht unbedingt gegen überkomplexe interne Strukturen und verstopfte Prozesse an?! Eine KI für Zukunftsforschung kann noch so klug sein, sie wird vom Engpassfaktor Mensch ungerührt und absehbar auch künftig ausgebremst werden. Das ist erschütternd – oder im Hinblick auf gewisse Hollywood-Dystopien auch tröstlich: Selbst Skynet würde am Organisationsdschungel scheitern. Pikanterweise gilt das nicht für alle IKT-Anwendungen. So kalkulierte Gartner (2017) für das laufende Jahr 2022, dass in über 80 Prozent unternehmensweiter IoT-Projekte eine KI eingebunden sein wird. Das heißt: Überall wird mit KI gedacht und gemanagt. Ob und inwieweit davon auch die Vorausschau profitieren wird, bleibt zumindest nach dieser Prognose im Dunkeln. Das erscheint insbesondere dann bedauernswert, wenn wir die unbestreitbaren Fortschritte und Ergebnisse betrachten, die zum Beispiel Predictive Policing auf sich verbucht (Berk, 2021). Auch bei anderen Anwendungen, zum Beispiel bei der Prognose von internationalen Konflikten liefert KI beeindruckende Resultate (De Mesquita, 2011). Man würde sich fast wünschen, dass Steinmüller in seinem abschließenden Urteil schwer daneben läge und vielmehr das Gegenteil rasch eintreten würde: Was die KI bei der Prognose von Delikten und Konflikten bereits nachweislich leistet, verbreitet sich wie ein Lauffeuer auf viele, wenn nicht sämtliche anderen Felder der Vorausschau. Wir alle würden davon profitieren.

5.4. Literaturverzeichnis

Berk, Richard A. (2021): Artificial Intelligence, Predictive Policing, and Risk Assessment for Law Enforcement. In: Annual Review of Criminology, 4(1), 209-237. https://doi.org/10.1146/annurev-criminol-051520-012342

De Mesquita, Bruce B. (2011): A New Model for Predicting Policy Choices: Preliminary Tests. In: Conflict Management and Peace Science, 28(1), 65-85. https://doi.org/10.1177/0738894210388127

Pemperton, Chris (2017, 5. Oktober): 3 AI Trends for Enterprise Computing. Online verfügbar unter: www.gartner.com/smarterwithgartner/3-ai-trends-for-enterprise-computing, gesichtet am 22.06.22.

von der Gracht, Heiko A., & Keller, Jonas (2013). The Future of ICT-based Futures Research: Scenarios for 2020. EBS Business School, Wiesbaden. Online verfügbar unter: www.researchgate.net/publication/327221804_The_Future_of_ICT-based_Futures_Research_Scenarios_for_2020, gesichtet am 22.06.2022]

6. Replik 4: Was sagen uns die Daten für die technologieorientierte Zukunftsforschung?

Kai Ellermann, Fraunhofer-Institut für Entwurfstechnik Mechatronik IEM, Paderborn

Melanie Martini, Fraunhofer-Institut für Naturwissenschaftlich-Technische Trendanalysen INT, Euskirchen

Dr. Marcus John, Fraunhofer-Institut für Naturwissenschaftlich-Technische Trendanalysen INT, Euskirchen

Das Thema Künstliche Intelligenz (KI) weckt meist Erwartungen, die nicht oder kaum zu erfüllen sind. Dies gilt auch für die Anwendung der KI im Bereich der Zukunftsforschung. Im Rahmen dieser Replik plädieren die Autor*innen daher dafür, das Thema stärker vom Prozess der Zukunftsforschung ausgehend zu denken und KI-Algorithmen ganz pragmatisch als eine Erweiterung des Methodenportfolios der Zukunftsforschung aufzufassen. In diesem Falle liegt der Schwerpunkt nicht auf der Konstruktion eines umfassenden KI-Systems, welches die Arbeit von Zukunftsforscher*innen übernimmt. Stattdessen kommt es darauf an, Foresight-Prozesse mittels passender Tools an geeigneten Stellen zu unterstützen. Damit ist zum einen die Einsicht verbunden, dass es Prozesseschritte gibt, die sich für eine solche Unterstützung nicht oder nur bedingt eignen. Dazu zählen, wie von Steinmüller erwähnt jene, die Kreativität benötigen. Auf der anderen Seite lassen sich viele Anwendungsszenarien (Themenfeldstrukturierung, Identifikation von Emerging Topics, Akteursanalysen etc.) identifizieren, die wiederum sehr gut mittels daten-gestützter Methoden adressiert werden können. Der Kern von Data Driven Foresight (John, 2018) liegt darin zu klären, welche Prozessschritte im Rahmen eines Foresight-Prozesses konkret unterstützt werden können und sollen. Dies bestimmt maßgeblich, welche Datenquellen genutzt und verfügbar gemacht werden müssen. Hier gibt es neben den klassischen Publikations- und Patentdaten eine Vielzahl weiterer Möglichkeiten (Mühlroth & Grottke, 2018). Anschließend müssen passende Algorithmen ausgewählt, implementiert, adaptiert und evaluiert werden. Ziel dieser Vorgehensweise ist es, Daten und Methoden zu identifizieren, die einen direkten Mehrwert in Form von Einsichten über technologische Entwicklungen für die Zukunftsforscher*innen und am Ende auch den Kunden liefern. Um dies zu gewährleisten hat sich das Denken in einzelnen, in sich geschlossenen Use Cases bewährt.

Für die Realisierung des skizzierten Ziels, bedarf es eines Forschungsprogramms, welches den Prozess der Technologiefrühaufklärung in den Fokus stellt. Neben den bereits skizzierten Fragen nach den konkreten Prozessschritten, nutzbaren Daten und Algorithmen, geht es dabei auch um das Problem der Evaluation der eingesetzten Methoden und Verfahren. Übergeordnetes Ziel ist es, eine ganzheitliche Sicht auf einen solchen datengestützten Foresight-Prozess zu entwickeln, welcher die Nutzung dieser Methoden an den Stellen, an denen es sinnvoll ist, unterstützt und auch die Usability der Verfahren adressiert. Die technologieorientierte Zukunftsforschung ist hierfür aus zwei Gründen prädestiniert: Einerseits lassen sich für Technologien häufig Leistungsparameter definieren, deren historische Entwicklung für die Vorhersage genutzt werden können. Das bekannteste Beispiel hierfür ist das Mooresche Gesetz. Andererseits sind technologische Entwicklungen das Ergebnis der weltweiten Arbeit von Wissenschaftler*innen, die dieses Wissen wiederum in Publikationen kommunizieren. Diese bieten einen weiteren Ansatz für die Nutzung datengestützter Methoden, die unter den Stichworten Bibliometrie, Szientometrie oder Science of Science (Dobrov, 1969; Wang & Barabási, 2021) bekannt sind. Die implizite Annahme dabei ist, dass eine umfassende Kenntnis und Analyse des Status-Quo eine notwendige Voraussetzung für eine sinnvolle Projektion möglicher Zukünfte ist.

Vor diesem Hintergrund sind KI bzw. Algorithmen aus dem Bereich der KI-Forschung als eine weitere (quantitative) Methode der Zukunftsforschung aufzufassen. Daher liegt es nahe, an dieser Stelle von einer Art Augmented Intelligence zu sprechen. Dies meint die Erweiterung der Analysemöglichkeiten und damit schlussendlich auch der Wissensbasis der Person, die vor dem Rechner sitzt und nicht unbedingt der Intelligenz im Rechner selbst. Die Erfahrung zeigt, dass die Entwicklung hin zum Einsatz von KI in der Zukunftsforschung Auswirkungen auf die Zusammensetzung eines typischen Projektteams hat, welches von Anfang an um einen Data Scientist erweitert werden sollte. Dies stellt zusätzlich eine Herausforderung an die Kommunikation der beteiligten Disziplinen dar. Damit rückt schließlich noch die Kompetenz der Data Literacy in Verbindung zur Future Literacy zunehmend in den Fokus der Zukunftsforschung.

6.1. Literaturverzeichnis

Dobrov, Gennadiĭ M. (1969): Wissenschaftswissenschaft: Einführung in die Allgemeine Wissenschaftswissenschaft. Akademie-Verlag, Berlin.

John, Marcus (2018): Data driven foresight - Technologiefrühaufklärung im Zeitalter von Big and Linked Data. Ein Werkstattbericht. In: Gausemeier, Jürgen; Bauer, Wilhelm; Dumitrescu, Roman (Eds.): HNI-Verlagsschriftenreihe, Vorausschau und Technologieplanung, 385, 409–421, Paderborn.

Mühlroth, Christian; Grottke, Michael (2018): A systematic literature review of mining weak signals and trends for corporate foresight. In: Journal of Business Economics, 88(5), 643–687.

Wang, Dashun; Barabási, Albert-László (2021): The Science of Science. Cambridge University Press, Cambridge.

7. Resümee

Dr. Karlheinz Steinmüller, Berlin

Anwendungen von Künstlicher Intelligenz (KI) werden in vielen Branchen genutzt und daher liegt es nahe, sich im Netzwerk Zukunftsforschung mit den Potentialen von KI für die Zukunftsforschung auseinanderzusetzen: Das geschah in der virtuellen Methodentagung zu KI und Foresight am19.3.2021 und wird nun in der Diskussion in der Zeitschrift für Zukunftsforschung fortgesetzt. Die vier Repliken auf den Impuls belegen, welch starken Widerhall das Thema KI im Netzwerk findet. Es handelt sich eben bei KI nicht mehr lediglich um eine zukunftsferne „futuristische“ Vision, sondern um etwas, das dabei ist, in den Forschungsalltag einzudringen. Nun stoßen methodische Neuerungen naturgemäß im Netzwerk Zukunftsforschung auf viel Interesse. Stets werden in Debatten über Anwendungsmöglichkeiten und Leistungsfähigkeit von Methoden aber auch weitergehende Fragen angesprochen: Welche Veränderungen in der Arbeitsweise gehen mit der Ausweitung des Methodenrepertoires einher? Wo genau liegen die Grenzen für Vorhersagen; verschieben sie sich vielleicht? Ergeben sich Konsequenzen für das (immerhin in Umrissen existierende) Berufsbild?

Die Autoren der Repliken haben zu all diesen Fragen, speziell aber zu den drei Fragen am Ende meines Impulses Stellung bezogen und nebenbei grundsätzliche Probleme wie den Unterschied von menschlicher und künstlicher Intelligenz angesprochen. Vor allem aber haben sie wichtige zusätzliche Aspekte und Sichtweisen ins Spiel gebracht. Darauf soll im Folgenden eingegangen werden, wobei ich mich an der abschließenden Frage orientieren möchte, diese jedoch in umgekehrter Reihenfolge – vom Spezifischen zum Allgemeineren – behandeln werde.

7.1. Kann der Einsatz von KI-Tools neue Impulse für die Zukunftsforschung auslösen? Und wenn ja, welche?

Dass von den KI-Tools neue Impulse ausgehen, steht für die Autoren der Kommentare wie für mich außer Frage. Ellermann et al. ordnen KI-Anwendungen unter Data Driven Foresight ein und verweisen darauf, dass zuerst einmal geklärt werden muss, welche Schritte eines Foresight-Prozesses durch KI unterstützt werden können – und dass Rolle und Ausmaß dieser Unterstützung maßgeblich durch die zur Verfügung stehenden Datenquellen bestimmt werden. Derzeit stehen die Recherche- und die Analysephase mit etablierten Verfahren wie Bibliometrie oder der statistischen Auswertung von Texten in sozialen Medien im Fokus. Zu fragen wäre, inwieweit sich die in Betracht gezogenen Datenquellen ausweiten lassen, etwa auf wenig formalisierte Ergebnisse von Workshops oder mündlich geführte Diskussionen. Insbesondere fehlen heute noch Verfahren für die Analyse sehr heterogener Datenquellen. Aber vielleicht müssen wir nicht auf starke, allgemeine KI warten, bis auch hier Fortschritte erzielt werden.

Zudem ist zu bedenken, dass durch den Einsatz von KI-Algorithmen auch bereits existierende Tools – in der Datenanalyse, in der statistischen Auswertung von Umfragen, selbst in der Modellierung (etwa bei der Parameteranpassung …) – verändert und verbessert werden, etwa dadurch, dass vorhandene Tools neue Funktionalitäten erhalten. Zu bedenken wäre z. B. Fälle, wie die Behandlung statistischer Ausreißer oder die Ergänzung von Szenariosoftware durch Deep Learning-Tools. Allein schon eine Bestandsaufnahme hierzu wäre sehr nützlich (s. u.).

Gern greife ich in dem Zusammenhang den Vorschlag Gondlachs auf, dass wir KI auch auf bislang ungewohnte Weise einsetzen sollten, vielleicht sogar für „eine zufällige Hypothesenbildung, einfach um den Denkprozess zu provozieren“. Oder dass wir künftig, wie Burchardt schreibt, KI als eine Muse in kreativen Prozessen nutzen können sollten. Davon sind wir m. W. noch weit entfernt; aber die Aussicht auf herausfordernde KI-Sparringpartner finde ich sehr spannend.

Insgesamt hoffe ich auf Experimente mit neuen KI-Anwendungen – und den Austausch darüber im Netzwerk.

7.2. Wie wird künftig die Arbeitsteilung zwischen menschlicher und künstlicher Intelligenz organisiert?

Die heutigen Arten, KI zu nutzen, unterschieden sich wenig von der Nutzung beispielsweise statistischer Tools. Mit der KI als Sparringpartner, etwa um Argumente zu erproben, Interpretationen zu vertiefen oder neue Fragestellungen abzuleiten, kämen wir auf eine völlig neue, sozusagen partnerschaftliche Stufe der Zusammenarbeit. Vorläufig ist dies noch eine visionäre Spekulation. Und vorläufig wird – wie v. d. Gracht und Kisgen ironisch bemerken – die KI wie fast jede Art von Digitalisierung vom „Engpassfaktor Mensch“ zuverlässig ausgebremst.

Schon allein die Nutzung existierender Algorithmen (um nicht gleich das Adelsprädikat KI auf jede Software zu kleben) zieht Konsequenzen für die Zukunftsforschung nach sich: Data Literacy erlangt, wie Ellermann et al. unterstreichen, eine zentrale Bedeutung. Data Literacy umfasst die Fähigkeiten, die Verlässlichkeit und den Bias von Datenquellen einzuschätzen, die Wirkungsweise der Algorithmen zumindest prinzipiell zu verstehen (und ggf. Dritten erklären zu können) und die Ergebnisse der KI sinnvoll interpretieren und kommunizieren zu können – so wie dies schon bislang bei Ergebnissen beliebiger Arten von Datenverarbeitung und Modellierung nötig ist. Ob nun gleich (wie Ellermann et al. schreiben) in jedes Projekt-team ein Data Scientist aufgenommen werden sollte, mag dahingestellt bleiben; Kompetenz in Data Literacy aber sollte im Team vorhanden sein – und daher auch in einschlägigen Lehrplänen stehen. Wahrscheinlich ist es nicht überzogen zu behaupten, dass zu Futures Literacy auch ein gut Teil Data Literacy dazugehört. Mit der Verbreitung von Data Literacy würde auch der Mensch etwas weniger als Engpassfaktor auftreten.

7.3. Wie verändert sich durch KI die Rolle der Zukunftsforschung in unserer Gesellschaft?

In meinem Input habe ich die Befürchtung ausgedrückt, dass die neuen KI-Tools zum Selbstzweck werden könnten, ihre Leistungsfähigkeit und vor allem ihre angebliche Objektivität überschätzt und Interpretation auf Knopfdruck gewünscht werden könnten. Die Kommentatoren teilen meine Befürchtung allenfalls in Ansätzen. So schätzt Gondlach ein, dass in absehbarer Zeit die Öffentlichkeit nur noch Zukunftsforschende ernst nehmen wird, die ganz selbstverständlich mit KI arbeiten. Wer ohne KI antritt, hat schon verloren. – Das mag für bestimmte Bereiche der Zukunftsforschung zutreffen, solche, die ohnehin stärker quantitativ orientiert sind; für die Vielfalt der normativ-partizipativen Verfahren, die ich zentral zur Zukunftsforschung zähle, wird dies wohl eher nicht der Fall sein. Wir sollten hier – wie Ellermann et al. schreiben – von konkreten Use Cases (nicht notwendigerweise nur in der Technologiefrühaufklärung) ausgehen und testen, wie leistungsfähig bestimmte Arten von KI-Tools sein können.

7.4. Plädoyer für einen vertiefenden Austausch

In der Summe ergeben sich, wie zu erwarten, zahlreiche neue offene Fragen. Einige davon können wir unschwer angehen, insbesondere die Fragen, die den Status von KI-Anwendungen in der Zukunftsforschung (inklusive geplanter Anwendungen) betreffen. Vor einem Jahrzehnt hat Heiko von der Gracht eine erkenntnisreiche Delphistudie „The Future of ICT-Based Futures Research“ durchgeführt. Nun kann man diese Studie, schon allein wegen ihrer breiteren Ausrichtung und ihrem etwas anderen Fokus, nicht einfach replizieren. Aber wenn wir heute eine ähnliche Studie durchführten, wie es ja auch Gondlach vorschlägt, ließen sich zumindest partiell Vergleiche ziehen: Welche Fortschritte bei ICT-Anwendungen hat es in den letzten Jahren tatsächlich gegeben? In welchen Feldern beobachten wir die größte Dynamik? Was sind hemmende Faktoren? Welche Tools werden bereits heute durch KI aufgewertet? Auf welche Veränderungen sollten wir uns in absehbarer Zukunft einstellen? Wo liegen Defizite, Kompetenzdefizite seitens der Anwender, wo liegen Unzulänglichkeiten in den Tools? Welche spezifischen Anforderungen müssen KI-Anwendungen in der Zukunftsforschung erfüllen?

Am Ende sollten wir fähig sein, uns mit denjenigen, die KI-Systeme gestalten, über die speziellen Anforderungen in unserem Forschungsfeld auszutauschen und gemeinsam die Zukunftsforschung in das KI-Zeitalter zu bringen.



[1] https://netzwerk-zukunftsforschung.de/

[2] Als KI wird auch das Teilgebiet der Informatik bezeichnet, das sich mit „intelligenten“ Systemen befasst; wir beziehen uns hier und im Folgenden ausschließlich auf die Systeme (Algorithmen, z. T. kombiniert mit Hardware).

[3] Zu den Grenzen von Big-Data-Anwendungen speziell bei Schwachen Signalen siehe Zweck & Braun (2021), vgl. auch Bosse et al. (2018).

[4] Vergleiche das Szenario „Posthumane Zukunftsforschung“ in Steinmüller (2020).

[5] Das tatsächliche Geschehen in und um die Orakel war hochgradig komplex und arbeitsteilig (siehe etwa Vandenberg, 1979). Maul (2018) hat auf die frappierenden sozialen und wissenssoziologischen Parallelen von babylonischer Mantik, speziell Hepatomantie, und Zukunftsforschung hingewiesen.

[6] Vor allem im Finanzsektor dient der track record der Experten gern als Verkaufsargument.

[7] Verschärft tritt uns das Black-Box-Problem in der Modellierung entgegen, beispielsweise bei Modellen, die für Wettervorhersagen genutzt werden. Selbst Experten haben allenfalls eine grobe Vorstellung davon, wie genau das System zu den Vorhersagen kommt; und dies selbst dann, wenn die Experten, die das Modell konstruiert haben oder nutzen, jede einzelne zugrundeliegende Hypothese auflisten könnten. Validiert wird das Modell durch den Vergleich der Simulationsläufe mit historischen Daten.

[8] Diese Transparenz stellt einen wichtigen Aspekt „vertrauenswürdiger KI“ (trustworthy AI) dar (vgl. Beckert, 2021).

[9] Auf die fundamentalen Unterschiede von menschlichem Denken und digitalen Prozessen hat schon Dreyfus (1989) hingewiesen.

[10] Rein theoretisch ergibt sich aus den Interventionsparadoxien für eine nur mit Prognosen operierende elektronische Pythia sogar ein Selbstanwendungsproblem: Die KI gibt Prognosen ab, deren künftige Wirkungen bei der Erstellung der Prognosen berücksichtigt werden müssen.

[11] Zweck & Braun (2021) differenzieren feiner nach drei Zeithorizonten: kurz-, mittel-, langfristig.

Volltext

Lizenz

Jedermann darf dieses Werk unter den Bedingungen der Digital Peer Publishing Lizenz elektronisch über­mitteln und zum Download bereit­stellen. Der Lizenztext ist im Internet unter der Adresse http://www.dipp.nrw.de/lizenzen/dppl/dppl/DPPL_v2_de_06-2004.html abrufbar.