Die Zukunft ist auch nicht mehr das

06.04.2012 | 21:01 |  Von Rudolf Burger (Die Presse)

Die frühen Siebzigerjahre des vorigen Jahrhunderts – eine eigenartige, doppelgesichtige Zwischenzeit – werden heute, wenn überhaupt, gemeinhin über ihre bildstarken, ihre „filmtauglichen“ Züge erinnert.

Drucken Versenden AAA
Schriftgröße
Kommentieren

Die frühen Siebzigerjahre des vorigen Jahrhunderts – eine eigenartige, doppelgesichtige Zwischenzeit – werden heute, wenn überhaupt, gemeinhin über ihre bildstarken, ihre „filmtauglichen“ Züge erinnert, also über die kulturrevolutionären Nachbeben der Jugendrevolte, die unter der Chiffre „68“ mythisiert worden ist und die ja tatsächlich das äußere Erscheinungsbild der Epoche prägte, die Alltagsmoral zutiefst umpflügte und die Ästhetik der Lebenswelt auffallend veränderte. Aber diesen lauten Manifestationen stand eine zwar ebenso zukunftsbezogene, aber ganz anders geartete Denkweise in den politischen und administrativen Institutionen gegenüber, die leiser war, aber nicht weniger wirkungsmächtig, und die heute weitgehend vergessen ist.
Ich rede von jener Fortschritts-, Planungs- und Prognoseeuphorie, die, selbst ein Erbe der 1960er-Jahre, uns heute fremd und fast schon unverständlich geworden ist und die zu dieser Zeit durch den Beginn der Umweltbewegung gerade ins Kippen kam – von einer technokratischen Ideologie der Machbarkeit und des „technological forecasting“ zum Vorwarninstrumentarium einer politischen Ökologie. In schroffem Gegensatz nämlich zum Spontaneismus der Revolte bestimmten damals hochformalisierte Planungs- und Prognosekalküle das konzeptive Denken weiter Kreise der manageriellen und polittechnokratischen Eliten, und zwar nicht nur, was sich mehr oder minder von selbst versteht, in den Planungsbehörden des ehemaligen Ostblocks, sondern auch in den Stäben und außeruniversitären Beratungsinstituten in den liberalkapitalistischen Metropolen des Westens, die so liberal ja auch nicht waren.
Realgeschichtlich war es die Hoch-Zeit des Kalten Krieges, die zumindest in Europa eine Zeit des Kalten Friedens war, ideologisch war es die Zeit der „Konvergenztheorie“: der These nämlich, dass durch die der „Industriegesellschaft“, wie man damals gerne sagte, immanente Logik, durch den Sachzwang technischer Systeme, durch die generalisierte Hardware technologisch fundierter Gesellschaften mit ihrer selbstinduzierten Dynamik die staatssozialistischen Systeme des Ostens und die privatwirtschaftlichen Systeme des Westens sich in ihren lebensweltlich entscheidenden Parametern immer mehr annähern, dass sie zu einem soziotechnischen „System“ als einem beide Lager übergreifenden Dritten „konvergieren“ würden. Im Osten sprach man viel von „Kybernetik“, in der BRD war es die Blütezeit der Planungsstäbe, der frühen „Systemtheorie“ (Niklas Luhmann kam ja selbst aus der Administration) und der „Ökonometrie“, in Frankreich betrieb man „planification“, und in den USA war es die große Zeit der RAND-Corporation, des zeitgeistprägenden Einflusses von Hermann Kahn, Norbert Wiener und des „PPBS“, des „Planning Programming Budgeting Systems“, das von Robert McNamara von der Autoindustrie in die politische Administration verpflanzt worden war.
Da die politischen Hauptfronten zwischen den Zentralmächten der bipolaren Welt (auf den Nebenkriegsschauplätzen an der Peripherie der Industriestaaten sah das freilich anders aus) unter der wechselseitigen Bedrohung nuklearer Vernichtung (es gab dafür einen eigenen Terminus technicus: „Mutual Assured Destruction“ – „MAD“!) gleichsam eingefroren, erstarrt waren, jede größere Bewegung ein atomares Harmagedon befürchten ließ, konzentrierte sich die Aufmerksamkeit vor allem der mittleren politischen und wirtschaftlichen Führungsschichten im Rahmen einer inkrementalistischen „Systemkonkurrenz“ vorzugsweise auf die Dynamik technologischer Parameter und die Prognosen von deren sozialen Implikationen: Damit wurde „Technological Forecasting and Social Change“ (so der Titel einer damals einflussreichen Fachzeitschrift) zu einem zentralen Thema von Planungsstäben und der institutionalisierten Politberatung – und zwar schon lange vor dem Doomsday-Report der Meadows-Gruppe von 1972 und nicht nur wie dort mittels relativ trivialer Zeitreihenanalysen und angeschlossener Extrapolationen (wie sie heute noch der „Weltklimarat“ betreibt), sondern vor allem auch mithilfe sogenannter „heuristischer“ Verfahren, wie etwa der „Delphi-Befragung“, der „Relevanzbaum-Analyse“ oder der „Morphological Box“, mit denen eine große Zahl verschiedener Partialprognosen, gewonnen aus einzelnen Expertenurteilen und Trendanalysen, einem numerischen Kalkül unterworfen und zu möglichen, in ihrer Eintrittswahrscheinlichkeit quantifizierten „Zukünften“ (diese Redeweise stammte von Bertrand de Jouvenel, dem damaligen Doyen der französischen Politikwissenschaft) aggregiert wurden.
Diese formalistischen Methoden, zu denen ganze Fachbibliotheken geschrieben worden sind und die mit ihrem analytischen und kombinatorischen Raffinement (und ihrer empirischen Fragwürdigkeit) oft an die fantastischen Novellen von Jorge Luis Borges erinnern, bildeten das (quasi-) szientistische Rüstzeug der damals florierenden „Zukunftsforschung“, die sich in ihrer zivilen Variante unter dem epistemisch großspurigen Titel „Futurologie“ (auch das ein Ausdruck von Jouvenel) sogar als akademische Disziplin zu etablieren suchte; die Methodologie aber hatte ihren Ursprung zum größten Teil im „military-industrial complex“, von dem schon Eisenhower 1961 gesprochen hatte und der mit dem Apollo-Programm einen enormen Wachstumsschub erhielt.
Aus einem US-amerikanischen Bericht vom Jahre 1968, „Technological Forecasting for Industry and Government“, geht hervor, dass 80 bis 95 Prozent aller damals in den USA durch militärische Stellen vorgenommenen Technologieprognosen vom Typ des mit diesen Methoden durchgeführten „genius forecasting“ waren: Das „Delphi-Verfahren“, ein mehrstufiges, iteriertes und rückgekoppeltes Expertenbefragungsschema, war schon Anfang der 1960er-Jahre entwickelt worden und wurde erstmals 1966 bei der RAND-Corporation für Technologieprognosen verwendet; das „Relevanzbaumverfahren“ war Bestandteil des PPBS und wurde in Form des PATTERN (ein Akronym für „Planning Assistance Through Technical Evaluation of Relevance Numbers“) von „Honeywells Military & Space Science Department“ zur Auswahl von Projekten der Weltraum- und Rüstungsforschung verwendet. Mit der morphologischen Analyse schließlich wurde versucht, nach den Regeln der Kombinatorik alle möglichen Variationen von Element- oder Komponentenzusammenstellungen zu finden, die zur Lösung einer bestimmten Aufgabe, eines technisch-wissenschaftlichen Problems oder zur Erfüllung bestimmter Funktionen beitragen könnten. Die „Morphological Box“ war schon in den frühen 1940er-Jahren beim „California Institute of Technology“ für das Auffinden alternativer Konstruktionsprinzipien von Jet-Antrieben verwendet worden. Unter den Lösungsmöglichkeiten, die damit gefunden wurden, soll sich auch eine Konstruktion befunden haben, die damals in den USA noch unbekannt war: nämlich das Schmidtsche Staurohr, das zu dieser Zeit gerade in München für die V1 entwickelt wurde.

Die analytisch-kombinatorische Denkweise, die in all diesen heuristischen Such-, Prognose- und Planungskalkülen zum Ausdruck kommt und die viele Jahre später der bedeutende Sozialphilosoph Panajotis Kondylis als allgemeines geistiges Phänomen zum Signum des postmodernen Zeitalters erklärte, womit dieses sich grundlegend von der, wie er sagt, „synthetisch-harmonisierenden“ Denkweise des liberalen bürgerlichen Zeitalters abhebt, hat übrigens einen interessanten historischen Vorläufer, der ein bezeichnendes Licht auf die ganze Angelegenheit wirft.
Um das Jahr 1300 nämlich hat der spanische Scholastiker Raimundus Lullus ein Gerät hergestellt, mit dessen Hilfe jede Art von möglicher deduktiver Ableitung entdeckt werden sollte. Der Konstruktion zugrunde lag das in seiner Schrift „Ars magna et ultima“ als ars oder scientia generalis bezeichnete System von obersten, allgemeinsten evidenten Begriffen und Prädikaten, durch deren Kombination alle möglichen Urteile gebildet und neue Wahrheiten gefunden werden sollten. Um diese Kombinationen zu erleichtern, bezeichnete er die Grundbegriffe mit Buchstaben, stellte sie in Tafeln, Kolumnen und Dreiecken zusammen oder ordnete sie auf konzentrischen, drehbaren Kreisen an. Durch Verdrehen dieser Kreise sollten alle überhaupt nur möglichen Kombinationen zwischen logischem Subjekt und logischem Prädikat zustande gebracht werden, wobei die Anzahl der Scheiben und damit die Zahl der möglichen Prädikationen feststand – groß zwar, aber endlich. Es gab eine figura Dei, welche die ganze Theologie, eine figura animae, welche die ganze Psychologie „enthielt“ und eine figura virtutum mit den sieben Tugenden und den sieben Todsünden.
Die Methode hat die größten Geister beschäftigt: So versuchte Giordano Bruno den lullischen Algorithmus durch Verringerung der Kreise zu verbessern, Pico della Mirandola brachte ihn in Zusammenhang mit der pythagoreischen Zahlenlehre, und Leibniz begann seine Laufbahn mit der Schrift „De arte combinatoria“, 1666, worin er in Anschluss an Lullus und Bruno die Verbindungsweisen der Begriffe als berechenbare behandelte – Grundlegung seiner Philosophie einer mathesis universalis, die nach Computerisierung geradezu schreit! Diese Wiederbelebung einer panrationalistischen scholas-tischen Denkweise durch elaborierte Verfahren des „forecasting“ in den 1960er- und 1970er-Jahren, als der Computer gerade den tertiären Sektor eroberte, ist gewiss kein Zufall. Vielmehr ist sie Ausdruck einer zwar nicht mehr statischen und stabilen, sehr wohl aber einer stationären und im Wesentlichen geschlossenen Weltsicht, die qualitativ Neues nicht mehr erwartet, die dem Gefühl entspringt, dass alles Neue allein aus der Rekombination schon bekannter Elemente zustande gebracht werden könne, dass es also nur mehr auf Kombinatorik und Berechenbarkeit ankomme – mit anderen Worten, die „Zukunftsforschung“ hatte zur impliziten Voraussetzung, dass es Zukunft im emphatischen Sinn gar nicht mehr gibt, sondern nur mehr „Entwicklung“: Gerade deshalb erschien sie berechenbar! Sarkastisch könnte man sagen: Die Originalausgabe der „No-future“-Generation waren nicht die „Punks“, sondern die saß lange vorher schon in den Prognoseinstituten und Planungsstäben! (Lesen Sie heute Hermann Kahn, der damals zum Jahrhundert-Genie hochgejubelt wurde, oder Jean-Jacques Servant-Schreibers „Le défi americain“, oder sehen Sie sich die utopistischen Spielereien in alten James-Bond-Filmen an, oder auch Stanley Kubricks „2001“: Die tragen alle die charakteristischen Merkmale der eingefrorenen Zeit des Kalten Krieges!)
Aber der Zeitgeist hatte auch bessere Köpfe erfasst: In den frühen 1950er-Jahren (1954) war von Arnold Gehlen das „posthistoire“ ausgerufen worden, nach der damals dominanten „behavioral persuation“ in den Sozialwissenschaften bestand deren Aufgabe darin, „to discover the laws of human behaviour which can serve as a basis for accurate prediction and control“, so der Politologe Heinz Eulau 1963, und in den 1970er-Jahren wurde mit vollem Ernst die „Finalität der Wissenschaft“ diskutiert (so ein Suhrkamp-Titel von Daehle & Krohn).
Von liberalen Theoretikern ist die Erfüllbarkeit des prognostizistischen Programms freilich auch immer schon bestritten oder zumindest drastisch eingeschränkt worden. So wies insbesondere der Kritische Rationalist Karl Popper darauf hin, dass der Lauf der Geschichte prinzipiell nicht vorhersehbar sei. Popper hatte allerdings vor allem die holistische hegelmarxistische Geschichtsphilosophie im Auge, für bedingte Partialprognosen ließ seine „Stückwerktechnik“ durchaus Raum. (Ähnlich auch Friedrich A. Hayek in Anschluss an Ludwig von Mises, wie die gesamte Österreichische Schule der Nationalökonomie.)
Von einer ganz anderen philosophischen Position kam der Naturrechtler Leo Strauss zu einem noch schärferen Urteil: Jene Wissenschaft, so schrieb er, der man nachsagt, dass sie durch „prediction“ den Zufall ausschalten könne, werde selbst zum Refugium des Zufalls. Denn bei Entdeckungen und Erfindungen, von denen das Schicksal der Menschen heute mehr denn je abhängig sei, handle es sich um Ereignisse, deren Inerscheinungtreten überhaupt nicht voraussagbar sei – weder ihr Ob noch ihr Wann. „Unvorhersehbarkeit“ sei somit geradezu zum Signum des wissenschaftlichen Zeitalters geworden – dass Leo Strauss selbst noch posthum zum Propheten der US-amerikanischen Neocons werden sollte, sei als Ironie der Geschichte hier nur am Rande vermerkt.
Die mit der Prognostizierbarkeit epistemologisch engstens verbundene Finalisierungthese bekam allerdings auch vorsichtige Unterstützung von philosophisch sehr gewichtiger Seite, nämlich von dem großen Philosophiehistoriker und Technikphilosophen Hans Blumenberg. In einem Radiovortrag 1967, „Methodologische Probleme einer Geistesgeschichte der Technik“, der erst 2009 posthum schriftlich publiziert wurde, sagte er: „Die Prophezeiung, wir stünden am Ende der Geschichte spontaner produktiver Aktionen des menschlichen Geistes, gewinnt ihr Recht aus der Sachlage, dass die Lösung einer bestimmten Konstruktion oder eines verfahrenstechnischen Problems zugleich die Mängel erkennbar macht, die noch zu bewältigen sind und insofern die Aufgaben für künftige Lösungen stellen. Je näher wir der Gegenwart kommen, umso mehr werden die Geschichte der exakten Wissenschaften und die Geschichte der Technik zu geschlossenen Regionen von einer je eigenen inneren Konsequenz ihrer Entwicklung. Der hohe Verdichtungsgrad unseres wissenschaftlichen und technischen Zustands ist eine Gefährdung der Unerschöpflichkeit ihres Fortgangs zu neuen Konstellationen.“

Was Blumenberg als zunehmende „Geschlossenheit“ des wissenschaftlich-technischen Systems und als Gefährdung der Unerschöpflichkeit des Schöpferischen diagnostizierte, wäre freilich gerade die epistemische Chance seiner Prognostizierbarkeit gewesen. Blumenbergs Besorgnis, die für die Planifikateure und Technokraten seiner Zeit eine Hoffnung war, hat sich jedoch, denke ich, als gegenstandslos erwiesen: Keiner der großen technischen und sozialen Umbrüche, von den politischen ganz zu schweigen, die seit damals die Welt dramatisch veränderten, ist vorhergesehen worden. Vieles, von dem man sich einmal Großes erwartet hatte, stagniert oder hat sich im Gebrauch banalisiert, Neues tauchte auf, von dem man vorher keine Ahnung haben konnte: Weder aus dem „Atomzeitalter“ noch aus dem „Weltraumzeitalter“ ist etwas Ordentliches geworden, zumindest nicht das, was man sich einmal an Fantastischem davon versprochen hat. Das „Atomzeitalter“ würde man gerne wieder loswerden (was natürlich nicht geht), die Weltraumtechnologie hat nur mehr die Strahlkraft einer globalisierten Haushaltstechnik, und auch das herbeigelobte „Informationszeitalter“ geht wegen des medial produzierten Mülls vielen Leuten schon ziemlich auf die Nerven. „Vorausgesehen“ aber hat man damals weder die universale Digitalisierung der Lebenswelt, die Privatisierung der Öffentlichkeit und die Veröffentlichung des Privaten durch elektronisch vermittelte soziale Netzwerke, die Ausleuchtung aller Arkanbereiche und – als deren Folge – die vulgäre Depravation der Sinnlichkeit noch die durch Gentechnik und Neurowissenschaft heute möglich gewordenen Eingriffe in die Kernsubstanz des Humanen. Und nicht vorausgesehen hat man vor allem den ökonomischen und in der Folge auch politischen Zusammenbruch der planwirtschaftlichen Systeme selber. Man kann eben bestenfalls (wenn überhaupt) das voraussehen, von dem man wenigstens weiß, dass man es noch nicht weiß. Aber die Masse dessen, was man noch nicht weiß, weiß man derart nicht, dass man nicht einmal weiß, dass man es nicht weiß, wie es in der klassischen Fassung bei Aristoteles heißt; zu dieser Einsicht musste Donald Rumsfeld, einer der Nachfolger McNamaras, spätestens angesichts des Irak-Debakels kommen, als er in einer Pressekonferenz von den „unknown-unknowns“ sprach.
Ende der 1970er-, Anfang der 1980er-Jahre, mit dem Dominantwerden neoliberalistischer Positionen in der Schlussphase des Kalten Krieges, war der prognostizistische Hype denn auch vorbei. Ratifiziert wurde dessen Ende schließlich mit einer riesigen Blamage: Ausgerechnet in jenem Jahr 1989, als mit dem Fall der Berliner Mauer auch die Fronten des Kalten Krieges zusammenbrachen, was schließlich zur Erosion der erstarrten Blockkonfrontation und zur Auflösung des sowjetischen Imperiums führte, als die eingefrorene Geschichte plötzlich rasant und turbulent in Bewegung kam, erschien Francis Fukuyamas großer Essay: „The End of History“!
Zwar ist seither die Zahl der Experten für Künftiges ins schier Uferlose gestiegen, aber die sind bloß massenmedial promovierte Okkasionsfachleute für als problematisch empfundene Lebenslagen, die oft genug durch deren Expertisen erst generiert werden; so rasch sie auftauchen, so rasch verschwinden sie auch, und die Heterogenität der Meinungen, vor allem aber die Heterogonie der Zwecke in einer polyzentrischen Welt lassen eine stabile Synthese nicht zu. Von „Futurologie“ redet niemand mehr. Die einstigen Planungsstäbe und Programmatiker wurden ersetzt durch Pragmatiker, Spin-Doktoren und Netzwerker. Und natürlich durch „Wahrsager“, wie zu allen Zeiten; heute sind das vor allem Werbeleute, Finanzberater und Klimatologen.
So ist spätestens seit der Finanzkrise 2008 die Rede wieder sehr aktuell, die Paul Valéry zur Zeit der großen Depression vor der Academie française gehalten hat. Er sagte damals unter anderem: „Ich weiß nicht, was Denken heißt angesichts dieser beschleunigten Unordnung, in der mittendrin das Denken ohnehin zu nichts dient, da eine Unordnung kein Bild ergibt; da sie nichts enthält, was an eine Vergangenheit anzuknüpfen erlaubt, eine Zukunft zu erwarten, zu konstituieren und einem Plan Form zu verleihen. Ich habe die besten Köpfe der Welt konsultiert, jeder einzelne hat seine Klarheit, alle zusammen ergeben eine völlige Dunkelheit.“ ■

Rudolf Burger
Geboren 1938 in Wien. Von 1987 bis 2007 Professor für Philosophie an der Universität für angewandte Kunst in Wien. Sein Text basiert auf dem Festvortrag anlässlich der Verleihung des Großen Goldenen Ehrenzeichens für Verdienste um die Republik Österreich an den Grazer Informationswissenschaftler Wolf Rauch.

("Die Presse Spectrum" vom 06.04.12)

Testen Sie "Die Presse" 3 Wochen lang gratis: diepresse.com/testabo

Mehr aus dem Web

2 Kommentare
Gast: Dr. Hermann T. Krobath
12.04.2012 23:40
0 0

Digitalisierung - philosophisch schonl lange vorhergesehen

"Vorausgesehen hat man damals weder die universale Digitalisierung der Lebenswelt..." meint Rudolf Burger.
Es sei daran erinnert, dass der (zu Unrecht geschmähte) Philosoph Ludwig Klages - dem Robert Musil im 'Mann ohne Eigenschaften' als
Philosoph Meingast ein literarisches Denkmal gesetzt hat - schon vor langer Zeit in seinem Buch 'Der Geist als Widersacher der Seele' (1929-1932) kritisch anmerkte, dass sich unter dem fortschreitenden Wirken des Geistes die Wirklichkeit dereinst in Nullen und Einsen auflösen werde.
Dr. Hermann T. Krobath

Interessant

Dem Autor ist für seinen interessanten Essay zu danken. Freilich entgeht er nicht der Gefahr der Übertreibung, die mit der Originalität verbunden ist, wenn er zugespitzt schreibt, dass die no-future-Generation eher im Planungsstab von Herman Kahn zu finden gewesen sei, dass nichts qualitativ Neues mehr erwartet worden sei usw.
Kahn und andere verwendeten formalisierte Sprachen und Zahlen, weil ihre Kunden, Politiker und Manager, diese für objektiv hielten.
Der Hegelianische Gedanke vom "Ende der Geschichte", den der Schüler Kojéves, Fukuyama im Frühsommer 1989 veröffentlichte, sollte das US-Empire für immer und ewig begründen.
Aber der Aufsatz Huntingtons "Clash ...?" von 1993 richtet sich gegen solche Illusionen, die er als "Fata Morgana" charakterisierte.
Man sollte also vielleicht die verwendeten Denkwerkzeuge und die Interessenlage differenziertet untersuchen.
Aber das schmälert nicht die anregende Wirkung des Essays. Im Gegenteil.

Top-News

AnmeldenAnmelden