Essay, 1997
7 Seiten
[Erschienen in: Lutherischen Monatshefte, Heft 6: Juni 1997.]
Die Vorteile, die mit der Reduzierung von Komplexität einhergehen, sind in unserem Alltag so offensichtich, daß wir sie kaum mehr wahrnehmen. Wer zum Beispiel mit dem Auto eine fremde Gegend durchfährt und ein unbekanntes Ziel sucht, orientiert sich nicht mit Hilfe eines überdimensionalen Fotoalbums, sondern mit einer handlichen Straßenkarte. Daß auf ihr die Ortschaften zu Kreisen und Quadraten " generalisiert" worden sind und die Bäume und der Wald gänzlich fortfallen, empfinden wir nicht etwa als Verlust, sondern als Gewinn an Überblick und Zielsicherheit. Über Jahrhunderte hinweg sind die großen Fortschritte in den Naturwissenschaften mit einer ganz ähnlichen Reduzierung von Komplexität einhergegangen. Die Wissenschaftsrevolutionen zu Zeiten von Galilei und Newton hatten bewiesen, daß Himmel und Erde denselben Gesetzen unterliegen. Die chemische Revolution hatte die endlosen Variationen, in denen sich Materie darstellte, auf zweiundneunzig systematisch miteinander verbundene Elemente reduziert.
Die Physik des 19. Jahrhunderts hatte mit dem Nachweis triumphiert, daß Elektrizität, Magnetismus und optische Phänomene dieselben Wurzeln haben. Selbst am Ende des vergangenen Jahrhunderts war die Physik noch der Eckpfeiler aller Naturwissenschaften, denn sie war noch immer die einzige, die sich nicht nur mit den kleinsten Elementen aller lebenden oder toten Materie beschäftigte, sondern auch mit der Beschaffenheit und Struktur der größten Anballung von Materie, nämlich mit dem Universum.
Noch galt im wesentlichen Galileis " Nüchternheitsprogramm" , daß der Maxime folgte: > Messen was meßbar ist, und was nicht meßbar ist, meßbar machen< . An ihm hatte sich Descartes orientiert, als er die Vielfalt der Erdgestalt in ein zweidimensionales Koordinatensystem zwang und einem philosophischen Denkstil den Weg ebenete, den das Streben nach mathematischer Exaktheit, logischer Strenge, theoretischer Gewißheit und moralischer Reinheit auszeichnete.
Die Krise der Physik
Kein Wissenschaftsbereich schien feststehender, kohärenter und methodologisch gesicherter zu sein als die Newtonsche Physik, bis ihre Grundlagen durch die Theorien von Planck und Einstein und durch die Transformation der Atomtheorie, die sich nach der Entdeckung der Radioaktivität in den 1890er Jahren entwickelt hatte, erschüttert werden sollten. Physik war objektiv, das heißt, sie konnte angemessen observiert werden, und unterlag nur den technischen Beschränkungen ihrer Observationsinstrumente (also beispielsweise des optischen Mikroskops oder Teleskops). All diese chakteristischen Eigenschaften wurden zwischen 1895 und 1914 in Frage gestellt. War Licht ein kontinuierlicher Wellenvorgang oder eine Emission von stabilen Teilchen (Photonen), wie Einstein in Anlehnung an Planck behauptete? Was geschah in einem Atom, von dem man mittlerweile annahm, daß es nicht mehr das kleinstmögliche (wie der aus dem Griechischen stammende Name impliziert) und daher unteilbares Elementarteilchen war, sondern ein komplexes System aus verschiedensten, noch elementareren Teilchen? Was geschah mit den Gewißheiten der Wissenschaft, als klar wurde, daß bereits der Observationsprozeß als solcher Phänomäne im subatomaren Bereich verändern kann? Je genauer man die Position eines subatomaren Teilchens erfassen wollte, desto unklarer wurde seine Geschwindigkeit. Ein Phänomen, das der junge Werner Heisenberg in seiner berühmten > Unschärferelation< zusammenfaßte.
Zwischen 1924 und 1927 wurde die Dualität, die den Physikern im ersten Viertel des Jahrhunderts so viele Probleme gemacht hatte, durch einen brillanten Coup der mathematischen Physik, Plancks Aufstellung der Quantenmechanik, eleminiert bzw. umgangen. Die wirkliche > Realität< innerhalb eines Atoms waren demnach weder Wellen noch Teilchen, sondern > nichtunterscheidbare quanten mechanische Systeme< , die potentiell sowohl als eines von beiden als auch als beide zugleich manifestiert werden konnten. Es hatte sich als zwecklos erwiesen, die Bewegung als kontinuierlich oder diskontinuierlich beschreiben zu wollen, weil niemand jemals den Weg eines Elektrons Schritt für Schritt verfolgen können wird. Klassische physikalische Konzepte wie Position, Geschwindigkeit oder Impuls finden über gewisse Punkte hinaus schlichtweg keine Anwendbarkeit mehr.
Sogar unter den Pionieren dieser neuen Wissenschaft gab es so manchen, der es schlechterdings unmöglich fand, das Ende der alten Gewißheiten zu akzeptieren nicht zuletzt Max Planck und Albert Einstein selbst, die Begründer dieser Wissenschaft. Einstein brachte seine Skepsis gegenüber rein prohabilistischen Gesetzen unter Weglassung jeglicher deterministischer Kausalität auf den berühmten Punkt: > Gott würfelt nicht< .
Konnten Physiker lernen, mit dem permanenten Widerspruch zu leben? Niels Bohr, der mit Plancks > Quanten< vertraut war, nachdem er bereits 1912-1913 die Struktur einzelner Atome, vor allem die des Wasserstoffs untersucht hatte, glaubte in der Tat, sie könnten und müßten es auch. Seiner Meinung nach gab es angesichts der Kriterien, denen die menschliche Sprache unterliegt, keine Möglichkeit, die Gesamtheit der Natur mit einer einzigen Beschreibung zum Ausdruck zu bringen. Es könne kein einziges, alles zugleich erfassendes Modell geben. Die einzige Möglichkeit, die Realität zu erfassen, sei, sie auf unterschiedliche Arten darzustellen und diese dann so zusammenzufassen, daß sie sich zu einem > erschöpfenden Gesamtbild der unterschiedlichen Beschreibungen, in dem alle scheinbar widersprüchlichen Vorstellungen enthalten sind< , komplementieren würden.
Dies war Bohrs Prinzip der > Komplementarität< , ein metaphysisches, der Relativität eng verwandtes Konzept, das er von Autoren abgeleitet hatte, die der Physik weit entfernt standen und das als universell anwendbar galt. Diese > Komplementarität< war jedoch nicht dazu gedacht, die Forschung der Atomwissenschaftler voranzubringen, sondern eher sie zu beruhigen, indem es ihre Konfusion rechtfertigte. Seine Attraktivität liegt im Bereich jenseits von Vernunft.
Denn obwohl jeder Mensch und mit Sicher-heit jeder intelligente Wissenschaftler weiß, daß es verschiedene und manchmal unvergleichbare oder sogar miteinander unvereinbare Möglichkeiten gibt, ein und dieselbe Realität wahrzunehmen, wobei jedoch alle von ihnen notwendig sind, um die Realität in ihrer Komplexität begreifen zu können, hatte noch niemand eine Idee, wie sie alle miteinander verbunden werden könnten.
Die Wirkung einer Beethoven-Sonate oder einer Mozart-Symphonie kann physikalisch, physiologisch und psychlogisch analysiert werden, und sie kann einfach durch Zuhören aufgenommen werden: aber wie hängen all diese Verstehensweisen zusammen?
Niemand weiß es. Einsteins großartige Relativitätstheorie, die die Gravitation als eine Manifestation der Raum-Zeit-Krümmung beschrieb, hatte in Wirklichkeit eine verdriesliche Dualiät in der Natur eröffnet: Auf der einen Seite gab es die Bühne die Raum-Zeit-Krümmung, die Gravitation; auf der anderen Seite die Schauspieler die Elektronen, die Protonen, die elektromagnetischen Felder; und zwischen ihnen gab es keinerlei Verbindung. Während der gesamten letzten vierzig Jahre seines Lebens hatte Einstein, dieser Newton des 20. Jahrhunderts, versucht, eine > einheitliche Feldtheorie< zu entwickeln, die den Elektromagnetismus mit der Gravitation in Einklang bringen könnte. Doch es gelang ihm nicht.
Während sich die Physik auf dem weiten Felde der Unschärfe verlief, begann sich die Biochemie als neue Leitwissenschaft zu etablieren. Daß ihr dies so mühelos zu gelingen scheint, ist auch ein Ergebnis der Rückkehr auf den alten " Erfolgspfad" der Reduzierung von Komplexität. Und daß es sich hierbei um einen Weg auf einer Kugel handeln könnte, der natürlich herumund das heißt, zurückführt, wird offenbar billigend in Kauf genommen. Seit 1914 hatte man davon ausgehen können, daß das Leben mit Begriffen der Physik und der Chemie erklärt werden konnte und mußte, und nicht anhand irgendeiner Seinsform, die spezifisch Lebewesen zu eigen ist. Biochemische Modelle für den möglichen Ursprung allen Lebens auf der Erde angefangen bei Sonnenlicht, Methan, Ammoniak und Wasser waren erstmals 1920 (mit stark antireligiösen Intentionen) in Sowjetrußland und Großbritannien vorgestellt worden und hatten dieses Thema auf die ernstzunehmende wissenschaftliche Agenda gesetzt.
Die entscheidende Schubkraft für die biologische Forschung war schon seit Jahrzehnten biochemisch und zunehmend auch physikalisch gewesen, nämlich seit der Entdeckung, daß Eiweißmoleküle kristalisiert und daher auch kristallographisch analysiert werden können. Man wußte bereits, daß eine bestimmte Substanz, die Desoxyribonucleinsäure (DNS), eine zentrale, vielleicht sogar die zentrale Rolle bei der Vererbung spielt: sie schien die Basis komponente des Gens zu sein, die Grundeinheit des Erbguts. Bereits in den dreißiger Jahren hatte man ernsthaft zu erforschen begonnen, auf welche Weise das Gen > die Synthese einer anderen, ihm gleichen Struktur verursacht, die sogar die Mutationen des Urgens kopiert< ,[so der US-amerikanische Genetiker Herman J. Muller] also die Frage, wie die Vererbung funktioniert. Nach dem Krieg gelang Crick und Watson mit der Entdeckung der Doppel-Helix-Struktur der DNS und der der Erläuterung des > GenKlonens< anhand eines einzigen eleganten, chemisch-mechanischen Modells der entscheidende Durchbruch. Seither war klar, daß > große Dinge hinter der nächsten Ecke warten< , - wie Crick einmal sagte.
Die Realitätsferne der Forscher Der Punkt bei den Hochtechnologien des 20. Jahrhunderts ist, daß sie auf Entdeckungen und Theorien basieren, die so weit von der Welt des Normalbürgers entfernt sind, daß höchstens ein paar Dutzend oder bestenfalls ein paar hundert Personen auf der Welt begreifen konnten, welche praktischen Implikationen sie hatten. Als Otto Hahn Anfang 1939 die Atomspaltung entdeckte, bezweifelte sogar so mancher aktive Wissenschaftler auf diesem Gebiet, beispielsweise der oben zitierte Niels Bohr, daß sie für Krieg oder Frieden oder überhaupt in vorhersehbare Zukunft praktisch umgesetzt werden könnte.
Auch Alan Turnings gefeierte Veröffentlichung im Jahr 1935, die zur Grundlage der modernen Computertheorie werden sollte, war ursprünglich nur als spekulative Untersuchung im Rahmen der mathematischen Logik geschrieben worden. Erst der Krieg gab ihm und anderen die Möglichkeit, Theorie zum Zwecke der Code-Dechiff rieung in die Anfänge der Praxis umzusetzen. Doch zur Zeit seiner Erstveröffentlichung hatte außer einer Handvoll Mathematiker niemand Turings Papier gelesen oder auch nur Notiz davon genommen. Sogar wenn Wissenschaftler damit befaßt sind, Probleme von anerkannt großer Bedeutung zu lösen, war höchstens ein kleiner Haufen kluger Köpfe in irgendeiner isolierten intellektuellen Ecke überhaupt in der Lage zu erkennen, was sie vorhatten. So war der englische Historiker Eric Hobsbawm zu jener Zeit Fellow an einem Cambridger College, als Crick und Watson dort an ihrer Entdeckung der DNS-Struktur arbeiteten. Obwohl der Historiker damals mit Crick persönliche Kontakte hatte, war er sich wie die meisten anderen Laien einfach nicht darüber klar, daß diese außerordentlichen Entwicklungen nur ein paar Meter entfernt vom Gelände seines Colleges ausgebrütet wurden, in Laboratorien an denen er täglich vorbeiging, und in Pubs, in denen gemeinsam getrunken wurde.
Doch es lag nicht etwa daran, schrieb Hobsbawm später, daß es kein Interesse an derartigen Dingen gegeben hätte. Wer an solchen Dingen arbeitete, hatte einfach keinen Anlaß gesehen, anderen davon zu erzählen, weil diese weder zu ihrer Arbeit beitragen konnten noch wahrscheinlich überhaupt in der Lage gewesen wären, zu verstehen, um welche Probleme es dabei ging.
All dies wäre noch nicht so beunruhigend, wäre die riesige Technologiemaschinerie des 20.Jahrhunderts und die Wirtschaft, die durch sie ermöglicht wird, nicht zunehmend von eben jenem relativ kleinen Personenkreis abhängig, für den die gigantischen Konsequenzen seiner Arbeit sekundär und häufig sogar trivial sind.
Wie Archimedes, der Mathematker des griechischen Altertums, wissen auch diese > Zauberer< , daß sie in einer Welt leben und dazu beitragen, ihr Gestalt zu verleihen, die sie weder versteht noch sich darum schert, was sie tun. Der Ruf der Zauberlehrlinge nach der Freiheit der Forschung ist so seltsam realitätsfern wie Archimedes' cri de coeur gegen die einfallenden Soldaten, zu deren Abwehr er für seine Stadt Syrakus militärische Maschinen erdacht hatte, die sie nicht daran hindern konnten, ihn zu töten: > Um Gottes Willen, störet meine Kreise nicht.< Für diese modernen > Zauberer< ist die Tatsache, daß der Mensch in der Lage ist, zum Mond zu reisen oder Bilder von einem Fußballspiel in Brasilien zu einem Satelliten hochzuschicken und von diesem wieder zurück auf den heimischen Bildschirm, vermutlich weit weniger interessant als die Entdeckung von ein paar kosmischen Hintergrundgeräuschen, die sich zufällig bei der Suche nach kommunikationsstörenden Phänomenen ergeben haben und zur Bestätigung der Ursprungstheorie führen sollen.
Gerade der mangelnde Kontakt, den ihre theoretischen Konstruktionen mit der Realität haben, aber hat sie für Einflüsse aus der Außenwelt empfänglich gemacht. Ist es denn nicht ganz natürlich, daß in einem derart von Technologie geprägten Jahrhundert wie dem unseren, ausgerechnet mechanische Analogien die Wissenschaften dominieren, die sowohl auf Tiere wie Maschinen angewandt werden und daß diese [seit 1940], fasziniert durch die Möglichkeiten neuer Kommunikationsund Kontrolltechniken, eine ganze Reihe entsprechender Theorien unter den unterschiedlichsten Begriffen hervorgebracht haben (Kybernetik, Systemtheorie, Informationstheorie)?
Elektronische Computer, die nach dem Zweiten Weltkrieg und vor allem nach der Entdeckung des Transistors mit schwindelerregender Geschwindigkeit entwickelt wurden, lieferten enorme Simulationskapazitäten, die es nun sehr viel einfacher machten als zuvor, mechanische Modelle für Vorgänge zu erfinden, die bis dahin auschließlich den physischen und mentalen Operationen eines Orga nismus wie des menschlichen zugerechnet worden waren. Konsequenterweise reduzieren die fortgeschrittensten Wissenschaftsdiziplinen des späten 20. Jahrhunderts die Komplexität des menschlichen Seins auf den Plan, eine Landkarte aller Gene zu zeichnen und sprechen über das Gehirn, als sei es nichts weiter als ein höchst ausgeklügeltes Datenverarbeitungssystem. Und eine der vertrautesten philosophischen Debatten geht darum, ob und, wenn ja, wie die menschliche Intelligenz von der > künstlichen Intelligenz< unterscheidbar ist, das heißt also: welcher Teil des menschlichen Geistes, wenn überhaupt, theoretisch nicht in einen Computer einprogrammiert werden kann.
Der Text diskutiert die Reduzierung von Komplexität in den Naturwissenschaften, beginnend mit Galilei und Newton und deren Auswirkungen. Er beleuchtet die Krise der Physik im frühen 20. Jahrhundert durch die Quantenmechanik und Relativitätstheorie und wie die Biochemie als neue Leitwissenschaft aufkam.
Galileis Programm folgte der Maxime, zu messen, was messbar ist, und was nicht messbar ist, messbar zu machen. Dies prägte einen Denkstil, der mathematische Exaktheit, logische Strenge, theoretische Gewissheit und moralische Reinheit betonte.
Die Newtonsche Physik wurde durch die Theorien von Planck und Einstein und durch die Transformation der Atomtheorie erschüttert. Fragen entstanden über die Natur des Lichts (Welle oder Teilchen), die Struktur des Atoms und die Auswirkungen des Beobachtungsprozesses auf subatomare Phänomene.
Bohrs Prinzip der Komplementarität besagt, dass es angesichts der Grenzen der menschlichen Sprache keine Möglichkeit gibt, die Gesamtheit der Natur mit einer einzigen Beschreibung zum Ausdruck zu bringen. Die Realität müsse auf unterschiedliche Arten dargestellt und diese dann so zusammengefasst werden, dass sie sich zu einem erschöpfenden Gesamtbild komplementieren.
Die Entdeckung der Doppel-Helix-Struktur der DNS durch Crick und Watson war ein entscheidender Durchbruch in der biologischen Forschung. Sie ermöglichte das Verständnis des "Gen-Klonens" und eröffnete neue Perspektiven für die Erforschung der Vererbung.
In einem von Technologie geprägten Jahrhundert dominieren mechanische Analogien die Wissenschaften, die sowohl auf Tiere als auch auf Maschinen angewendet werden. Die Entwicklung elektronischer Computer lieferte Simulationskapazitäten, die es erleichterten, mechanische Modelle für Vorgänge zu erfinden, die zuvor ausschließlich Organismen zugerechnet wurden. Dies führt zur Reduzierung der Komplexität des menschlichen Seins auf Daten und zur Diskussion über künstliche Intelligenz.
Der Text betont, dass die Hochtechnologien des 20. Jahrhunderts auf Entdeckungen basieren, die so weit von der Welt des Normalbürgers entfernt sind, dass nur wenige Personen die praktischen Implikationen verstehen konnten. Wissenschaftler, die an diesen Entdeckungen arbeiten, sehen oft keinen Anlass, anderen davon zu erzählen, weil diese weder zu ihrer Arbeit beitragen können noch in der Lage wären, die Probleme zu verstehen.
Der GRIN Verlag hat sich seit 1998 auf die Veröffentlichung akademischer eBooks und Bücher spezialisiert. Der GRIN Verlag steht damit als erstes Unternehmen für User Generated Quality Content. Die Verlagsseiten GRIN.com, Hausarbeiten.de und Diplomarbeiten24 bieten für Hochschullehrer, Absolventen und Studenten die ideale Plattform, wissenschaftliche Texte wie Hausarbeiten, Referate, Bachelorarbeiten, Masterarbeiten, Diplomarbeiten, Dissertationen und wissenschaftliche Aufsätze einem breiten Publikum zu präsentieren.
Kostenfreie Veröffentlichung: Hausarbeit, Bachelorarbeit, Diplomarbeit, Dissertation, Masterarbeit, Interpretation oder Referat jetzt veröffentlichen!
Kommentare