Betriebstechnik | Biographien | Biologie | Chemie | Deutsch | Digitaltechnik |
Electronica | Epochen | Fertigungstechnik | Gemeinschaftskunde | Geographie | Geschichte |
Informatik | Kultur | Kunst | Literatur | Management | Mathematik |
Medizin | Nachrichtentechnik | Philosophie | Physik | Politik | Projekt |
Psychologie | Recht | Sonstige | Sport | Technik | Wirtschaftskunde |
Ähnliche Berichte: |
Projekte:
|
Papers in anderen sprachen:
|
physik referate |
Stephen Hawkings Ideen
über das Universum
Inhalt
Einleitung
Einsteins Relativitätstheorie
Die Spezielle Relativitätstheorie
Die Allgemeine Relativitätstheorie
Quantenmechanik
Der Welle/Teilchen-Dualismus
Die Unschärferelation
Das Universum
Anfang - Entwicklung - Zukunft
Schwarze Löcher
Schluß
Quellenverzeichnis
Einleitung
Manchmal erinnere ich mich zurück, es muß wohl schon an die zehn Jahre her sein, wie ich abends in meinem Bettchen lag und mir Gedanken über Gott und die Welt oder besser gesagt über Gott und das Universum machte. In meiner (damals noch) kindlichen Phantasie stellte ich mir vor, dem lieben Gott zu begegnen und ihm alle möglichen Fragen zu stellen, auf die er mir dann gewiß Antwort geben würde.
Wie und woraus ist das Weltall entstanden? Was liegt hinter der Grenze dieses Weltalls? Es muß ja eine Grenze haben, schließlich kann es nicht unendlich sein, oder etwa doch?
Fragen über Fragen, die mir zu jener Zeit auf dem Herzen lagen. Einige davon beschäftigen mich auch heute noch. Jetzt allerdings betrachte ich das alles aus einer vollkommen anderen Sicht. Daß ich, zumindest teilweise, schon Antworten darauf erhalten habe, verdanke ich nicht dem lieben Gott, sondern vielmehr den Wissenschaftlern, die sich um die Lösung solch grundlegender Fragen bemühen. Von all diesen ist Stephen W. Hawking, Jahrgang 1942, sicher als die herausragendste lebende Persönlichkeit zu bezeichnen.
Trotz seiner schweren Krankheit, die sich amyotrophe Lateralsklerose (ALS) nennt und ihn seit über zwanzig Jahren an den Rollstuhl fesselt, setzt er sich noch immer unermüdlich für die Forschung ein. Es ist ihm auch nicht möglich, seine Gedanken niederzuschreiben, weil er seine Hände nicht mehr ausreichend koordinieren kann. Darüber hinaus kann er sich nach einer Kehlkopfoperation im Jahre 1986 nur noch mit Hilfe eines Computers und eines Sprachsynthesizers verständigen, den er mit einem einzigen Finger bedient.
'Wir müssen die Menschen über die modernen Versionen solch grundlegender Konzepte wie Raum und Zeit informieren', schreibt Hawking in seinem Buch Einsteins Traum. Eine überaus bedeutende Aussage, die die Naturwissenschaften so darstellt, wie sie seiner Meinung nach sein sollten: Eine Wissenschaft, die jeder verstehen kann und die nicht bloß einem kleinen Kreis hochspezialisierter Akademiker zugutekommt. Zu erreichen gedenkt Hawking dieses Ziel durch eine umfassende Theorie, die buchstäblich ALLES erklären können soll. Obwohl er in dieser Hinsicht recht optimistisch ist, glaube ich persönlich nicht, daß schon in naher Zukunft damit zu rechnen ist. Bei der Vereinigung von Allgemeiner Relativitätstheorie und Quantenmechanik könnten sich allerdings schon bald Erfolge einstellen - damit wäre ein wichtiger Schritt in Richtung einer Allumfassenden Theorie getan.
An dieser Stelle muß auch gesagt werden, daß man die Aussagen Hawkings und anderer Wissenschaftler, die sich mit diesem Bereich der Physik beschäftigen, keinesfalls als unantastbar und absolut richtig auffassen darf! Sie liefern uns im Grunde genommen nur Vorschläge, die aber in vielerlei Hinsicht noch verfeinert werden müssen. Des öfteren muß eine Theorie sogar vollständig aufgegeben werden. Allerdings sollte man daraus nicht schließen, daß die Naturwissenschaften mit Erklärungen esoterischer oder religiöser Natur auf eine Stufe zu stellen sind. Wissenschaftler gehen nämlich auf die Beobachtungen und auf neue Erkenntnisse ein. Mit anderen Worten: Der beobachtete Zustand (nicht irgendein übersinnliches Prinzip) wird den Berechnungen zugrunde gelegt. Diese wiederum stützen sich auf die durchaus verläßliche Sprache der Mathematik. Die Beobachtungsdaten oder die Mathematik selbst in Frage zu stellen, hätte in diesem Fall überhaupt keinen Sinn, weil prinzipiell alles, von der Wissenschaft bis hin zu unserer Gesellschaft, darauf aufgebaut ist.
Das Aufstellen von Zukunftsprognosen ist trotzdem mit Vorsicht zu genießen. Diese Erfahrung hat Hawking persönlich auf recht eindeutige Weise erleben müssen: Er wollte einmal ein Buch mit Zukunftsprognosen schreiben, von denen sich später fast alle als falsch erwiesen. Dieses Beispiel zeigt, daß man in Bereichen fundamentaler Ungewißheit und ständig neuer Entdeckungen nur mit Maß und Ziel vorgehen darf.
Bevor ich in dieser Arbeit auf Stephen Hawkings Ideen über den Anfang und das mögliche Ende unseres Universums, sowie auf seine Erkenntnisse über Schwarze Löcher eingehe, ist es notwendig, die beiden bedeutendsten Theorien unserer Tage - Einsteins Relativitätstheorie und die Quantenmechanik - in relativ kurzer Form darzulegen. Sofern es mir möglich war, versuchte ich dabei, redundante Information weitestgehend zu vermeiden und 'nur' die wichtigsten Inhalte zu vermitteln.
Um den vorgegebenen Rahmen nicht zu sprengen, mußte ich auf die Behandlung einiger interessanter Themenbereiche, die ebenfalls recht gut in diese Arbeit gepaßt hätten, teilweise bzw. zur Gänze verzichten. Diese wären z. B.: Elementarteilchenphysik, Suche nach der Weltformel, Renormierung, Gottes Rolle beim Schöpfungsakt ('Gottes Plan'), Leben im Universum, Zukunft der theoretischen Physik.
Wer sich näher mit einem dieser Gebiete befassen möchte, sei auf das Quellenverzeichnis verwiesen.
Abschließend sei noch zu bemerken, daß ich mit dieser Arbeit in erster Linie Schüler und interessierte Laien ansprechen möchte, um ihnen einen Einblick in die Kosmologie im allgemeinen und in Hawkings Vorstellungen im besonderen zu geben.
T. K., Jänner 1995
Einsteins Relativitätstheorie
Die Spezielle Relativitätstheorie
Noch bis zu Beginn dieses Jahrhunderts war es den Physikern nicht gelungen, Newtons Gesetze der Mechanik mit der Maxwellschen Theorie des Elektromagnetismus in Einklang zu bringen. Laut Newton benötigt man nämlich ein Bezugssystem, um eine Bewegung überhaupt feststellen zu können. Maxwell wiederum sprach von der Lichtgeschwindigkeit als konstanter Größe. Die scheinbare Unvereinbarkeit dieser beiden Aussagen wird anhand des folgenden Beispiels deutlich.
Da sich das Licht ( z. B. das der Sonne) im Weltall ausbreiten kann, nahm man an, daß hierfür ein Medium vorhanden sein müsse, welches als Bezugssystem herhalten konnte. Diesem Medium gab man den Namen 'Ather' und die Wissenschaftler der damaligen Zeit (vor allem Albert A. Michelson und Edward W. Morley) machten sich sogleich daran, dessen Existenz nachzuweisen. Dem Michelson- Morley- Experiment lag die Überlegung zugrunde, daß die Geschwindigkeit des Lichts, in verschiedenen Richtungen gemessen, unterschiedlich groß sein müsse - je nachdem, ob es sich in der selben Richtung wie der Ather oder normal zu diesem stehend bewegt. Die Verwunderung war groß, als man bemerkte, daß der Wert für die Lichtgeschwindigkeit stets gleich blieb. Das Experiment hatte somit genau das Gegenteil von dem gezeigt, was man sich ursprünglich davon erhofft hatte: Es hatte praktisch nachgewiesen, daß nichts für das Vorhandensein eines Athers spricht.
Es dauerte allerdings noch bis 1905, bis einige Physiker wie H. A. Lorentz, Henri Poincaré und besonders Albert Einstein sich endgültig von der Denkweise Newtons und dem Glauben an einen Ather lösten und eine neue und damals sicher auch provokante Deutung[1]des Michelson- Morley- Experiments unternahmen.
Eine der beiden Hauptaussagen der Speziellen Relativitätstheorie lautet, daß die Naturgesetze in allen unbeschleunigten Bezugssystemen, die sich also gleichförmig und geradlinig bewegen, gleich sind. Es müssen somit alle Bezugssysteme als gleichwertig angesehen werden. Weiters ist es unmöglich festzustellen, ob ein Himmelskörper sich bewegt oder ob er im Universum stillsteht - schließlich ist alles relativ.
Die zweite wichtige Aussage ist, daß die Lichtgeschwindigkeit im Vakuum einen konstanten Wert annimmt, der unabhängig von der Geschwindigkeit der Quelle und des Beobachters ist.
Dieser Wert (299 792 458 m/s) kann auch nicht überschritten werden. Wenn sich, um ein Beispiel zu nennen, zwei Autos mit einer Geschwindigkeit von je 100 km/h aufeinander zubewegen, so ergibt sich eine Aufprallgeschwindigkeit von 200 km/h (v1 + v2 = v1+2). Nehmen wir jetzt an, daß beide Autos ihre Scheinwerfer eingeschaltet haben und sich die Lichtstrahlen mit je ca. 300 000 km/s nähern. Sie treffen dabei allerdings nicht mit 600 000 km/s aufeinander, sondern bloß mit 300 000 km/s (c1 + c2 = c1 = c2 = c). Auch wenn wir die Geschwindigkeit der Autos berücksichtigen, so ändert das nichts am Ergebnis (v1 + c1 + v2 + c2 = c). Es gibt auch noch einen weiteren Sonderfall, den ich hier erörtern möchte: Würden die Autos mit je 80 % der Lichtgeschwindigkeit zusammenstoßen, dann wäre die Aufprallgeschwindigkeit zwar größer als 80 % von c, sie würde aber trotzdem kleiner sein als c (0,8 c < 0,8 c + c < c).
Wenn sich die Lichtgeschwindigkeit also nicht ändert, so müssen dies andere Werte tun. Am naheliegendsten sind hier wohl die Länge und die Zeit, weil diese beiden in der Formel v = s/t direkt bzw. indirekt mit der (Licht-)Geschwindigkeit verknüpft sind.
Die Längenkontraktion ist schon durch zahlreiche Experimente bestätigt worden, vor allem in Versuchen mit my-Mesonen. Das sind Teilchen, die in der Atmosphäre durch kosmische Strahlung entstehen. Obwohl sie eine Zerfallszeit von nur 2*10-6 s haben und daher bloß 600 m zurücklegen können, erreichen einige von ihnen die Erdoberfläche. Der Grund liegt darin, daß sie sich beinahe mit Lichtgeschwindigkeit bewegen und der Weg durch die Atmosphäre deshalb verkürzt wird.
Natürlich gibt es auch Beispiele, in denen sich die Zeitdehnung nachweisen läßt. So vergeht die Zeit in Flugzeugen, die sich entweder mit oder gegen die Rotationsbewegung der Erde bewegen, verschieden schnell. Die Unterschiede spielen sich in solchen Fällen allerdings nur im Nanosekunden-Bereich ab, wodurch deutlich wird, daß das Relativitätsprinzip erst bei großen Geschwindigkeiten (bzw. großen Massen und Energien) richtig zur Geltung kommt. Deshalb arbeiten wir in Bereichen des 'täglichen Lebens' auch weiterhin mit den Newtonschen Bewegungsgesetzen. In der Theorie vergeht zwar die Zeit für einen Menschen, der sich in Bewegung befindet, langsamer als für einen ruhenden, doch dieser Wert liegt weit unterhalb jedes meßbaren Bereiches. Es kommt noch hinzu, daß sich die eine Person relativ zur anderen in Bewegungsrichtung verkürzt, aber auch hier kann man den Unterschied nicht wahrnehmen.
Ein weiterer Faktor, der sich mit zunehmender Annäherung an die Lichtgeschwindigkeit deutlich verändert, ist die Masse. Wird ein Körper beschleunigt, so erhöht sich seine Energie. Dieser Energiezuwachs ist allerdings nicht nur auf die gesteigerte Geschwindigkeit zurückzuführen, sondern auch auf den Massezuwachs, den dieser Körper erfährt. Je mehr sich der Körper nun der Lichtgeschwindigkeit nähert, desto größer wird seine Masse und desto mehr Energie wird benötigt, um ihn noch weiter zu beschleunigen. Um die Lichtgeschwindigkeit zu erreichen oder sie gar zu übertreffen, wäre ein unendlich großer Energiewert notwendig. Daß die Photonen ('Lichtteilchen') sich trotzdem mit fast 300 000 km/s durch das Vakuum bewegen können, liegt daran, daß sie keine Ruhemasse besitzen. Sie sind also masselose 'Teilchen' (auf die Welle/Teilchen-Problematik werde ich im Laufe dieser Arbeit noch genauer eingehen), aber sie befinden sich nie in einem Ruhezustand, weshalb die Ruhemasse nur ein fiktiver Wert ist. Anstelle einer Masse besitzen sie Energie, womit wir auch schon bei der nächsten wichtigen Schlußfolgerung Einsteins angelangt wären: Masse und Energie sind äquivalent - Masse kann in Energie umgewandelt werden (was z. B. auf der Sonne geschieht) und umgekehrt. All dies hat Einstein in seiner berühmten Formel E = mc2 sehr anschaulich zum Ausdruck gebracht. Diese Formel sagt auch aus, daß schon sehr kleine Massen riesige Energiemengen freisetzen können, was uns Atombombenabwürfe auf überaus schreckliche Weise demonstriert haben.
Die letzte Konsequenz aus der Speziellen Relativitätstheorie, die ich hier anführen möchte, ist die Verbindung von Raum und Zeit zur vierdimensionalen Raumzeit. Einstein sah Raum und Zeit erstmals als physikalische Größen an, die darüber hinaus noch untrennbar miteinander verbunden sind. Was die Zeitdimension am stärksten von den drei Raumdimensionen unterscheidet, ist die Tatsache, daß wir uns in ihr nur in eine Richtung bewegen können - nämlich von der Vergangenheit in die Zukunft. Wie vorhin schon erwähnt, kann die Geschwindigkeit, mit der wir in der Zeit fortschreiten, verändert werden, allerdings nur innerhalb bestimmter Grenzen: Die Relativitätstheorie verbietet uns, uns in der Zeit rückwärts zu bewegen. Das bleibt vorerst nur den Science Fiction - Autoren vorbehalten.
Die Allgemeine Relativitätstheorie
Nach 1905 machte sich Einstein daran, eine weitere Unvereinbarkeit zwischen seiner Speziellen Relativitätstheorie und den Aussagen Newtons zu untersuchen. Laut Newton breitete sich die Gravitationskraft nämlich mit sofortiger Wirkung, sprich schneller als das Licht, aus. Dies stand natürlich im Widerspruch zu Einsteins Untersuchungen. Das Ergebnis seiner Berechnungen - die Allgemeine Relativitätstheorie - veröffentlichte Einstein 1916. In dieser bahnbrechenden Arbeit gelang es ihm, die Widersprüche weitgehend zu beseitigen und eine vollkommen neue Theorie der Gravitation aufzustellen. Im folgenden möchte ich nun Einsteins Vorgehensweise in ihren wesentlichen Zügen beschreiben.
Begonnen hat Einstein mit einem Gedankenexperiment: Man stelle sich eine Person vor, die sich mit einem Fahrstuhl nach unten bewegt. Wenn nun die Beschleunigung des Fahrstuhls der Erdbeschleunigung entspricht, so müßte sich die Person in einem schwerelosen Zustand befinden. Dieser 'Versuch' könnte aber auch auf andere Weise gestaltet werden: Angenommen der Fahrstuhl befindet sich im leeren Raum, weitab von jeder Materie, die eine Anziehung auf ihn ausüben könnte. Wenn er nun durch eine fiktive Kraft aufgehoben, also nach oben beschleunigt wird, dann wirkt auf unsere Person eine Kraft, die der Anziehung eines Planeten entspricht. Die Person schwebt jetzt nicht mehr im Fahrstuhl, sondern sie steht (hoffentlich) mit beiden Beinen am Boden. Ein Gegenstand, den sie in der Hand gehalten hat und dann ausläßt, würde auf den Boden fallen, genau wie auf der Erde oder einem anderen Planeten. Es ist dabei übrigens egal, wie groß oder wie schwer der Körper ist - diese Kraft, wir nennen sie Gravitation, wirkt nämlich auf alle Körper gleich. Der einzige Grund, warum eine Feder trotzdem langsamer fällt als eine Eisenkugel, die in derselben Höhe fallengelassen wird, liegt am Luftwiderstand.
Diese Überlegung führte Einstein zu der Annahme, daß Beschleunigung (bzw. Trägheit) und Gravitation einander entsprechen. Dieses Aquivalenzprinzip stellt auch zugleich die Hauptaussage der Allgemeinen Relativitätstheorie dar. Im Grunde genommen kann man sagen, daß Einstein die Spezielle Relativitätstheorie auf beschleunigte Systeme anwandte und so zu seiner Gravitationstheorie gelangte. Die Gravitation selbst beschrieb er als eine Krümmung der Raumzeit, verursacht durch die Massen und Energien, die sich in ihr befinden. Die kürzeste Verbindung (Geodäte) auf einer gekrümmten Oberfläche ist eine gebogene Linie, keine Gerade. Zum besseren Verständnis kann man sich ein Flugzeug vorstellen, das angenommen auf der kürzestmöglichen Strecke von Wien nach New York fliegt. Aufgrund der Erdkrümmung ist diese Strecke allerdings nicht gerade, sondern gebogen. Und auf dieselbe Art verhalten sich auch die Planeten, wenn sie um die Sonne kreisen: Sie folgen dem kürzesten Weg in einer gekrümmten Raumzeit - daraus resultieren die Umlaufbahnen.
Um seine neue Theorie zu bestätigen, wandte er sie auf die Berechnung der Umlaufbahn des Merkur, des sonnennächsten Planeten, an. Die Bahnellipse verändert nämlich geringfügig ihren Scheitelpunkt (Perihelwanderung) - eine Tatsache, die dazu führte, daß Newtons Methoden bei der Berechnung versagten. Einstein jedoch gelangte zum richtigen Ergebnis und erhielt somit einen ersten Nachweis der Korrektheit seiner Aussagen.
Eine weitere Bestätigung fand die Theorie durch die Untersuchung einer Sonnenfinsternis im Jahre 1919. Dabei stellte man fest, daß das Licht von Sternen, die sich hinter der Sonne befinden, abgelenkt wird (schließlich besitzt das Licht, obwohl / oder gerade weil es nur aus Energie besteht, Masseeigenschaften und unterliegt somit der Gravitation).
Doch die Gravitation - oder besser gesagt die Krümmung der Raumzeit - hat auch Auswirkungen auf den Zeitablauf[2]: Je nachdem ob wir uns am Meer oder auf der Spitze eines sehr hohen Berges befinden, vergeht die Zeit verschieden schnell. Um genau zu sein, beschleunigt sich der Ablauf um 10-13 s pro Kilometer über der Meereshöhe. Aufgrund dieses äußerst kleinen Wertes hat dieses Phänomen auf unseren Alterungsprozeß praktisch keinen Einfluß. Würden wir uns allerdings auf der Sonne aufhalten, könnten wir unsere Lebenszeit um etwa 30 Sekunden pro Jahr verlängern.
Doch kehren wir wieder auf unsere Erde zurück bzw. 20 000 km darüber: In dieser Höhe befinden sich nämlich Navigationssatelliten, welche die Position auf der Erde bis auf wenige Meter genau bestimmen können (für militärische Zwecke ist sogar eine noch höhere Genauigkeit verfügbar). Obwohl die Verkürzung der Zeit durch die Eigengeschwindigkeit der Satelliten teilweise ausgeglichen wird, besteht trotzdem ein Unterschied von 38 Mikrosekunden pro Tag. Um dennoch exakte Standortbestimmungen durchführen zu können, muß der Zeitunterschied dementsprechend korrigiert werden.
Ein weiterer Punkt, den ich erwähnen möchte, ist, daß die Raumzeit durch die Allgemeine Relativitätstheorie zu einer dynamischen Größe wird. Das heißt also, sie wird von bewegten Körpern und von Kräften beeinflußt, sprich gekrümmt, aber durch ebendiese Verformung beeinflußt sie selbst die Bewegung von Körpern und die Wirkungsweise von Kräften. Die Raumzeit ist nicht länger ein passiver Hintergrund, in dem die Ereignisse stattfinden.
Daß auch so große Denker wie Albert Einstein irren können, zeigt sein Versuch, durch die Einführung der sogenannten kosmologischen Konstante die Gleichungen der Allgemeinen Relativitätstheorie teilweise künstlich zu beeinflussen. Laut seiner Theorie war es nämlich unmöglich, daß das Universum statisch ist - es mußte sich entweder ausdehnen oder zusammenziehen. Einstein war aber so sehr von einem gleichbleibenden Weltall überzeugt, daß er die (immer positiv wirkende) Gravitationskraft durch die kosmologische Konstante ausglich. Erst als Edwin Hubble 1929 beobachtete, daß ferne Galaxien sich fortbewegen, war Einstein von der Expansion überzeugt. Später nannte Einstein diesen kosmologischen Term 'die größte Eselei meines Lebens'.
Quantenmechanik
Der Welle/Teilchen-Dualismus
Schon zu Newtons Zeiten waren die Physiker sich nicht darüber einig, ob das Licht nun aus Wellen oder aus Teilchen bestehe. Newton selbst sprach vom Licht aber als Teilchenstrom, und seine damalige Autorität reichte aus, die meisten seiner Kollegen zu überzeugen. Doch seit Beginn des 19. Jahrhunderts wurden laufend Experimente durchgeführt, die diese These entweder zu bestätigen oder zu widerlegen schienen. Es kam zu einer regelrechten Krise in der Physik, die sich dadurch bemerkbar machte, daß oft ein und derselbe Universitätsprofessor sowohl die Teilchen- als auch die Wellennatur des Lichts lehrte.
Im Jahre 1905, als gerade wieder das Wellenbild vorherrschte, veröffentlichte Albert Einstein seine Arbeit über den photoelektrischen Effekt (wofür er 1921 mit dem Nobelpreis ausgezeichnet wurde). Darin konnte er glaubwürdig darlegen, daß das Licht aus einzelnen Energiepaketen (Lichtquanten; später: Photonen) besteht. Bei seinem Versuch ging er dabei folgendermaßen vor: Eine Metallplatte wird mit ultraviolettem, also hochfrequentem Licht bestrahlt. Bei diesem Vorgang lösen sich Elektronen aus der Platte. Verringert man nun die Frequenz des Lichtes, so lösen sich keine Elektronen mehr ab; sogar wenn man die Bestrahlungsdauer beliebig erhöht. Der Grund liegt darin, daß die langwelligen Photonen für solch einen Vorgang einfach zu wenig Energie besitzen.
Wer allerdings dachte, mit diesem Versuch eine ausreichende Erklärung gefunden zu haben, der wurde bald enttäuscht[3]: 1924 schrieb Louis de Broglie in seiner Doktorarbeit von der Wellennatur des Elektrons (!). Dieses hatte bisher stets als Teilchen im klassischen Sinn gegolten. Es ist also durchaus verständlich, daß er beim Prüfungsausschuß auf Skepsis stieß. Erst als Albert Einstein, dem die Arbeit ebenfalls vorgelegt wurde, die darin enthaltenen Ideen lobte, erhielt de Broglie seinen Doktortitel. Drei Jahre später wurde seine Theorie schließlich experimentell bestätigt.
Doch was versteht man eigentlich unter den Welleneigenschaften des Elektrons? Vorhin sprach ich noch von Photonen, jetzt ist auf einmal von Elektronen die Rede.
Um den Leser nicht zu verwirren, möchte ich darauf hinweisen, daß man diese beiden Begriffe keinesfalls verwechseln darf. Photonen sind masselose Teilchen, die sich nur mit Lichtgeschwindigkeit ausbreiten können. Elektronen hingegen besitzen sehr wohl eine Ruhemasse und können sich folglich auch nur langsamer als das Licht bewegen. Darüber hinaus bilden sie die Hülle der Atome. Trotz dieser scheinbar krassen Gegensätze verbindet diese beiden (und auch alle anderen mikroskopischen Objekte) eine Eigenschaft, die sich Dualität von Welle und Teilchen nennt.
Zur Verdeutlichung dieses Begriffes ist das Doppelspaltexperiment recht gut geeignet: Hierbei geht es darum, daß man Elektronen (man könnte genausogut Photonen verwenden!) durch zwei schmale Spalte einer Metallplatte schickt. Nach der klassischen Vorstellung werden sie also als Teilchen fortgeschickt. Nachdem sie die beiden Öffnungen, durch die sie verschieden stark abgelenkt (gebeugt) werden, passiert haben, werden sie von einem Detektorschirm aufgefangen und dadurch sichtbar gemacht. Die Elektronen kommen auf diesem Schirm einzeln, also wiederum in Teilchenform an. Doch entgegen unserer logischen Erwartung bilden sie ein für Wellen (!) typisches Interferenzmuster. Um wieder klassische Begriffe zu verwenden, könnte man sagen, daß die Fortpflanzung des Elektrons in Wellenform abgelaufen ist.
Ich denke der Leser sollte jetzt ausreichend verwirrt sein, um die 'Wahrheit' zu erfahren:
'Wir glauben, daß deutlich gesagt werden soll, was das Licht ist, nämlich 'Licht ist keines von beiden'; und genauso muß gesagt werden 'Das Elektron ist keines von beiden'. Denn beide Beschreibungen, Welle bzw. Teilchen, sind klassische Bilder und benutzen klassische, verständliche Größen zur Definition: Auf jeden Fall sind diese klassischen Begriffe nicht geeignet, ein quantenmechanisches Objekt vollständig zu beschreiben.' (Hubich/Mathelitsch/Kobler, Schrödinger-Gleichung in der Schule?, S.9)
'Wir müssen jegliche Hoffnung aufgeben, die Vorgänge auf atomarer Ebene mit unseren gängigen Begriffen und Vorstellungen wie Teilchen und Wellen anschaulich beschreiben zu können.' (Hey/Walters, Quantenuniversum, S.19)
Das alles heißt natürlich nicht, daß Sie die angeführten Beispiele, in denen von Wellen bzw. Teilchen die Rede war, wieder vergessen sollen, weil sie ja sowieso 'falsch' sind. Vielmehr sollten Sie sich bewußt werden, daß diese Begriffe nun einmal die einzigen sprachlichen Mittel sind, diese Phänomene darzustellen. Auf mathematische Weise können sie freilich viel besser erklärt werden, doch werden sie dadurch nur mehr für einen kleinen Personenkreis zugänglich und würden den Rahmen einer populärwissenschaftlichen Arbeit sprengen.
Aus diesem Grund werde ich hier auch weiterhin die klassischen Begriffe verwenden, in der Hoffnung, daß der Leser sie aus dem richtigen Blickwinkel betrachtet. Und falls Sie die Quantenmechanik immer noch für äußerst verwirrend halten, dann sei Ihnen ein Zitat des berühmten Physikers Richard Feynman ans Herz gelegt: 'ich denke, ich kann davon ausgehen, daß niemand die Quantenmechanik versteht.'
Die Unschärferelation
Es sind nicht nur die Vorstellungen von Elektron und Photon, die durch die Quantenmechanik umgekrempelt werden - auch der Glaube an eine absolute Vorhersagbarkeit (zumindest im Mikrokosmos, also der Welt des ganz Kleinen) wird durch sie zu Fall gebracht. Vielmehr herrscht im atomaren und subatomaren Bereich eine generelle Unbestimmtheit vor; es ist sozusagen eine Welt der Unsicherheit.
Um dies näher zu erläutern, möchte ich wieder auf das Doppelspaltexperiment zurückkommen. Stellen wir uns die Elektronen in diesem Fall als Teilchen vor, die auf den Detektorschirm auftreffen. Das Problem, das sich dabei zeigt ist, daß wir nicht vorhersagen können, an welcher Stelle sie den Schirm berühren werden. Wir können höchstens Wahrscheinlichkeitsaussagen, gemäß der Verteilung des Interferenzmusters, treffen. Wenn man nun versucht, den Weg eines einzelnen Elektrons genauer zu analysieren, so ist der erste Stolperstein, der einem dabei im Weg liegt, daß man gar nicht weiß und auch nicht wissen kann, durch welchen der beiden Spalte das Elektron hindurchgeht. Natürlich, so könnte man meinen, wäre dies durch eine Messung feststellbar: Wenn man die Elektronen nach dem Passieren der Öffnungen mit Licht (Photonen) bestrahlt, sollte man doch aufgrund der Reflexion der Lichtteilchen Aussagen über die Position des Elektrons erhalten[4]. Dies wäre also eine Ortsbestimmung nach klassischer Vorstellung, die in größeren Maßstäben ohne weiteres anwendbar ist. In unserem konkreten Fall ergeben sich allerdings gleich zwei Problempunkte:
Zum einen würden die Photonen, die auf das Elektron treffen, um es zu lokalisieren, dieses so stark beeinflussen (Rückstoßprinzip!), daß es von seiner ursprünglichen Bahn abkommen würde. Und zum anderen würde auf dem Sichtschirm nun kein Interferenzmuster mehr entstehen, sondern eine Häufigkeitsverteilung, wie man sie von einem klassischen Teilchen erwarten würde.
Der zweite Punkt bedeutet also, daß der Meßvorgang das Ergebnis beeinflußt und es für unsere Zwecke unbrauchbar macht. Der andere Punkt hingegen ist sogar noch grundlegender, weshalb ich ihn an dieser Stelle ausführlicher beschreiben möchte.
Das Elektron wird, wie schon erwähnt, von den Photonen weggestoßen. Das hat zur Folge, daß es seine Geschwindigkeit oder genauer gesagt seinen Impuls verändert. Der Impuls eines Körpers setzt sich aus seiner Geschwindigkeit und seiner Masse zusammen. So hat zum Beispiel eine Eisenkugel einen größeren Impuls als ein Tischtennisball, der sich mit gleicher Geschwindigkeit bewegt. Auch die masselosen Photonen besitzen einen Impuls, weil ihre Energie einer Masse äquivalent ist.
Würden wir die Frequenz und somit die Energie der Photonen erhöhen, um eine exaktere Positionsbestimmung zu erhalten, so würde das Elektron stärker abgestoßen werden und seine Geschwindigkeit um einen größeren Betrag verändern.
Wenn wir nun ein (Gedanken-)Experiment durchführen, in dem das Elektron seinen Wellencharakter zeigt, so könnten wir seinen Impuls mit Hilfe der Frequenz der Welle genau bestimmen. Allerdings besitzt eine Welle keinen festgelegten Ort - sie ist praktisch räumlich verteilt.
Man kann somit sagen, daß die Ortsbestimmung umso ungenauer (unschärfer) ist, je besser wir den Impuls bestimmen und umgekehrt. Der deutsche Physiker Werner Heisenberg war der erste, der diesen Zusammenhang erkannte und ihn in einer Formel zusammenfaßte. Diese lautet, daß das Produkt von Ortsunschärfe und Impulsunschärfe nie kleiner sein kann als das Plancksche Wirkungsquantum (h = 6,6*10-34 Js).[5] Da dieser Wert so klein ist, wird deutlich, warum die Unbestimmtheit nur in äußerst kleinen Bereichen zur Geltung kommt.
Die Heisenbergsche Unschärferelation dient nicht nur als wichtige Grundlage für die Quantenmechanik, sondern sie ist auch 'eine fundamentale, unausweichliche Eigenschaft' (Hawking, Eine kurze Geschichte der Zeit, S.77). Sie gilt also für alle Arten von Teilchen sowie für alle unterschiedlichen Meßmethoden.
Eine mögliche Berechnungsmethode für die Aufenthaltswahrscheinlichkeit wurde von Richard Feynman entwickelt und nennt sich Pfadintegralmethode oder auch Aufsummierung von Möglichkeiten. Vereinfacht dargestellt geht es darum, daß ein Teilchen (wie z. B. unser Elektron im Doppelspaltexperiment) jeden möglichen Weg zurücklegt. Jedem dieser Wege ist ein eigener Wahrscheinlichkeitswert zugeordnet. Addiert man nun alle diese Werte auf, so erhält man den Ort, an dem man das Teilchen vermutlich finden wird. Bei obengenanntem Experiment entspräche das also einem bestimmten Punkt auf dem Sichtschirm. Wie wir später noch sehen werden, ist diese Methode auch wichtig bei der Suche nach einer Theorie, in der die Quantenmechanik und die Gravitation zusammengefaßt werden sollen.
Das Universum
Anfang - Entwicklung - Zukunft
Manch einer fragt sich vielleicht, was Wissenschaftler dazu bewegt, sich mit Situationen zu beschäftigen, die kein Mensch jemals erleben wird. Sei es nun, weil sie schon längst vergangen sind (wie z. B. der Urknall) oder weil sie in unerreichbarer Zukunft liegen (wie z. B. das 'Verglühen' unserer Sonne oder das Ende des gesamten Universums). Einfach nur zu sagen, daß sie es aus purem Wissensdrang tun, wäre wahrscheinlich zu wenig. Wenn es auf den ersten Blick auch nicht so scheinen mag, so steckt doch eine Notwendigkeit dahinter, die auch uns einmal zugute kommen kann. Nur wenige wissen nämlich von der Tatsache, daß diese Grundlagenforschung in weiterer Folge auch für die Entwicklung im technischen Bereich ausschlaggebend ist.
In diesem Kapitel möchte ich mich nun mit den überaus erstaunlichen Entdeckungen und Erkenntnissen über unser Universum auseinandersetzen.
Obwohl eigentlich jedes Kind den Begriff Urknall kennt, ist es den Physikern bis heute noch nicht gelungen, ihn ausreichend zu erklären. Bei früheren Berechnungen, für die man nur die Allgemeine Relativitätstheorie heranzog, erhielt man stets eine sogenannte Singularität. Diese ist vergleichbar mit einer Division durch Null - also einem unmöglichen Wert. Für Physiker und Mathematiker ist solch ein Ergebnis wirklich zum Verzweifeln. Es bedeutet nämlich, daß alle bekannten Naturgesetze versagen, ja die Relativitätstheorie sich praktisch selbst ad absurdum führt.
In den 40er Jahren wollten einige Wissenschaftler dieses Problem umgehen, indem sie behaupteten, daß das Universum schon seit ewigen Zeiten bestehe und immer in einem gleichbleibenden Zustand verharre. Da man zu dieser Zeit bereits wußte, daß das Weltall expandiert und seine Dichte deshalb ständig kleiner werden muß, wollten sie diesen Vorgang durch eine ständige Bildung von Materie im All umgehen. In der Theorie wäre dies sogar möglich gewesen, weil diese Materieerzeugung unter jedem meßbaren Bereich gelegen wäre. Doch zwanzig Jahre später wurde diese Steady-State-Theorie endgültig widerlegt, als der Mikrowellen-Strahlenhintergrund entdeckt wurde, der nur mit Hilfe des Urknalls erklärt werden konnte.
Wissenschaftlern wie Stephen Hawking ist es nun zu verdanken, daß in den letzten Jahren und Jahrzehnten entscheidende Fortschritte bei der Erforschung des Urknalls gemacht worden sind. Wie wir aber noch sehen werden, stößt man immer wieder auf scheinbar unlösbare Probleme, die sich dabei ergeben.
Bevor ich allerdings auf Hawkings Ideen genauer eingehe, möchte ich das klassische Modell des Kosmos erklären, welches der sowjetische Mathematiker Alexander Friedmann in den 20er Jahren aufgestellt hat. Demzufolge begann das Universum vor etwa 15 Milliarden Jahren (Mittelwert, der durch die Fluchtgeschwindigkeit der Galaxien berechnet wird) mit dem Urknall. Die Raumzeit war damals unendlich stark gekrümmt und von unendlicher Dichte.[6] Daraufhin begann das Universum sich mit unglaublicher Geschwindigkeit auszudehnen. Auf die erste Sekunde nach dem Urknall, in der sich überaus viel ereignet hat, möchte ich ein wenig später eingehen; nicht zuletzt deshalb, weil es darüber kaum gesicherte Information gibt.
Beginnen wir unsere Reise durch die Raumzeit also eine Sekunde nach dem Punkt Null. Das Universum hatte damals bereits einen Radius von rund vier Lichtjahren. Dies ist deshalb möglich, weil die Expansion des Raumes nicht an die Lichtgeschwindigkeit gebunden ist - der Raum eilte dem Licht praktisch davon. Das Horizontproblem, welches sich daraus ergibt, wird im Laufe dieses Kapitels noch näher erläutert werden. Es herrschte eine Temperatur von mindestens zehn Milliarden Grad (1010 K) und die Dichte war etwa 500 000 mal so hoch wie die des Wassers. Die Elektronen, die zu dieser Zeit reichlich vorhanden waren, stießen meist mit ihren Antiteilchen, den Positronen zusammen und erzeugten auf diese Weise Strahlung in Form von Photonen. So entstanden noch mehr Photonen, als es damals ohnehin schon gab. Reste dieser Strahlung sind auch heute noch vorhanden - sie bilden den Mikrowellen-Strahlenhintergrund. Durch die starke Abkühlung (auf 3 Grad über dem absoluten Nullpunkt von -273,15deg.C) ist diese Strahlung allerdings nicht sehr energiereich - also nicht zu vergleichen mit jener im Mikrowellenherd. Eine dritte Art von Teilchen, die in großer Zahl vorkamen, waren die Neutrinos. Aufgrund zu schwacher Wechselwirkungen vernichteten sie sich nicht zusammen mit ihren Antiteilchen, sondern blieben bestehen. Daraus folgert man, daß sie auch heute noch stark vertreten sein müssen. Zwar ist ihr Nachweis, der sich aufgrund ihrer niedrigen Energie extrem schwierig gestaltet, schon gelungen, doch ist man sich noch nicht im klaren darüber, ob sie eine Ruhemasse besitzen oder ob sie wie die Photonen masselos sind.
Des weiteren gab es auch noch Protonen und Neutronen, also die Bausteine der Atomkerne. Nach etwa hundert Sekunden begannen diese, sich zu Deuteriumkernen (= Kerne des schweren Wasserstoffs) zusammenzuschließen. Durch Verbindung mit je einem weiteren Proton und Neutron bildeten sich schließlich Heliumkerne. Die übriggebliebenen Protonen (es gab etwa fünfmal mehr als Neutronen) zerfielen zu Kernen des gewöhnlichen Wasserstoffs. Bereits nach einigen Stunden war die Bildung der Atomkerne beendet. Das Universum expandierte ruhig vor sich hin, wobei Dichte und Temperatur ständig abnahmen und die Ausdehnungsgeschwindigkeit sich aufgrund der Gravitation zwischen der Materie immer mehr verlangsamte.
Als das Weltall ungefähr eine Million Jahre alt war und seine Temperatur nur mehr ein paar tausend Grad betrug, konnten sich die Atomkerne mit den herumschwirrenden Elektronen zu vollständigen Atomen verbinden. In erster Linie entstanden Wasserstoff und Helium und zwar im Verhältnis 3H : 1He. In regional dichteren Gebieten zeigte nun die Schwerkraft etwas stärkere Auswirkungen, und - für unsere Begriffe - riesige Gaswolken begannen sich zusammenzuziehen. Auf diese Weise bildeten sich, vereinfacht dargestellt, die Galaxien. Einige, wie z. B. unser Milchstraßensystem, wurden bei diesem Prozeß in Rotation versetzt, andere nahmen eine elliptische Form an und blieben in einer Ruheposition. Bei solch einer elliptischen Galaxis kreisen nur einzelne Teilbereiche in stabilen Bahnen um ein Zentrum.
Ebenfalls aufgrund lokaler Dichtefluktuationen und durch die Wirkung der Schwerkraft bildeten sich innerhalb der Galaxien die Sterne und schließlich auch die Planeten.
Dieses klassische Urknallmodell, wie ich es hier beschrieben habe, läßt allerdings noch einige Fragen offen. Es erklärt zum Beispiel nicht, warum das Universum in alle Richtungen mit derselben Geschwindigkeit expandiert und warum es, großräumig betrachtet, so gleichförmig ist. Letzteres schließt man daraus, daß die Mikrowellen-Strahlung (eine Art Rest des Urknalls) nahezu gleich ist, egal aus welcher Richtung sie kommt. Weiters gibt dieses Modell keinen Aufschluß über den Ursprung der Dichteschwankungen, ohne die es weder Galaxien, geschweige denn Sterne und Planeten geben würde. Hinzu kommt noch, daß es den Berechnungen zufolge nur etwa zehn Elementarteilchen geben würde. Heute weiß man allerdings, daß es mindestens 1085 Teilchen im beobachtbaren Universum gibt. Fast hat man den Eindruck, als würde das Standard-Urknallmodell mehr Fragen aufwerfen, als es beantwortet. Diese Überlegung ist eigentlich gar nicht so falsch, doch die Wissenschaftler bemühen sich ständig, ihre Theorien zu verbessern und auftretende Probleme zu lösen.
Eine mögliche Erklärung für den derzeitigen Zustand des Universums formulierte Stephen Hawking gemeinsam mit Barry Collins so: 'Wir sehen das Universum, wie es ist, weil wir existieren.' (Hawking, Eine kurze Geschichte der Zeit, S.157). Dieses sogenannte Anthropische Prinzip ist im Grunde genommen nur eine Feststellung, keine naturwissenschaftliche Erklärung. Es gibt sowohl eine schwache, als auch eine starke Form davon. Erstere besagt, daß in bestimmten Regionen des Universums menschliches Leben prinzipiell möglich sein muß. Wenn dem nicht so wäre, gebe es uns schließlich nicht. Selbst für Naturwissenschaftler ist es kein Problem, diese Formulierung zu akzeptieren. Anders ist die Situation jedoch beim starken Anthropischen Prinzip. Jenes verlangt nämlich, daß das Universum so beschaffen ist, daß sich menschliches Leben entwickeln mußte. Demzufolge müßten also die Anfangsbedingungen mit höchster Sorgfalt gewählt worden sein - eine Annahme, die Hawking für äußerst unwahrscheinlich hält.
Oft versuchen Wissenschaftler, einzelne Naturgrößen zu verändern und diese in ihre Berechnungen einzubauen. Als Ergebnis erhalten sie dann meist ein vollkommen anderes Modell des Weltalls, welches unter Umständen nicht einmal die Entstehung von Galaxien zuläßt. Daraus nun den Schluß zu ziehen, daß die Anfangsbedingungen speziell für uns Menschen ausgewählt wurden und daß es uns nur aus diesem Grund gibt, ist wohl kaum zulässig. Der Fehler liegt darin, nur eine einzige Größe abzuwandeln und alle anderen beizubehalten, obwohl sie durch die Anderung eigentlich beeinflußt werden. Verdeutlichen läßt sich diese Tatsache anhand eines Beispiels aus der Elektrizität: Um einen stromdurchflossenen Leiter baut sich sowohl ein elektrisches als auch ein magnetisches Feld auf. Da die beiden Felder in direktem Zusammenhang stehen, ist es nicht möglich, eines zu verändern und gleichzeitig das andere konstant zu halten. Versucht man trotzdem, eine derartige Berechnung anzustellen, wird man auf große mathematische Schwierigkeiten stoßen und ein ungültiges Ergebnis erhalten.
Nachdem wir nun die Schwierigkeiten des Urknallmodells und das Anthropische Prinzip, welches keine zufriedenstellende Erklärung liefert, kennengelernt haben, wollen wir uns im Folgenden einer relativ neuen und durchaus vielversprechenden Hypothese zuwenden - der Inflationstheorie. Ansätze dafür fanden sich 1979 in der Sowjetunion; im Westen war es Alan H. Guth, der 1981 vorschlug, daß sich das Universum in der Anfangsphase für kurze Zeit inflationär, also mit steigender Geschwindigkeit, ausgedehnt hätte. Dies würde bedeuten, daß seine Größe exponentiell zunahm.
Das von Guth vorgeschlagene Modell wurde in den darauffolgenden Jahren von Andreas Albrecht und Paul J. Steinhardt und unabhängig davon von dem russischen Kosmologen Andrei Linde in wesentlichen Punkten verbessert.
Die Inflation ereignete sich etwa in den ersten 10-35 s und ging wenig später in das Urknallmodell über. Obwohl Aussagen über einen solch frühen Zeitpunkt stets mit Vorsicht zu genießen sind und dieses Modell eng mit der (nur mäßig erforschten) Elementarteilchen-Theorie verbunden ist, liefert es uns dermaßen viele Antworten, daß die Wissenschaftler es für sinnvoll halten, sich eingehend damit zu beschäftigen.
Als erster wichtiger Punkt wäre die Lösung des Horizontproblems zu nennen: Der gleichzeitige Beginn und die Gleichförmigkeit der Expansionsbewegung sind nur dann zu erklären, wenn das Universum zum Zeitpunkt der Entstehung so klein war, daß eine ausgleichende Wirkung stattfinden konnte. Verfolgt man das Friedmann-Modell bis zum Punkt Null zurück, so muß man feststellen, daß das Weltall nie klein genug gewesen wäre, um die notwendigen Bedingungen zu erfüllen.
Abb. 1: Das Diagramm zeigt die ersten Sekundenbruchteile des Universums. Die durchgehende Linie stellt die Ausdehnung gemäß dem Inflationsmodell dar. Der Horizont gibt an, wie weit sich das Licht und andere Signale in der jeweiligen Zeit ausbreiten konnten. Eine ausgleichende Wirkung konnte nur dann stattfinden, wenn der Horizont im Frühstadium größer war als der Radius des Universums.
Wie in Abb. 1 dargestellt, sind zu Beginn des Universums die Zeit mit 10-43 s und die Größe (=Radius) mit 10-33 cm definiert. Die beiden Werte bezeichnet man als Plancksche Zeit und Plancksche Länge, und sie ergeben sich aus der Unschärferelation. Diese läßt nämlich keine genauere Zeit- bzw. Längenbestimmung zu - wir haben es hier also mit fundamentalen Größen zu tun. Selbst wenn wir Meßinstrumente besitzen würden, die in der Lage wären, auch solche Bereiche noch zu erfassen (eine vollkommen illusorische Idee), könnten wir die Genauigkeit nicht mehr verbessern, weil es einfach keine kleineren Intervalle für diese beiden Einheiten gibt.
Zum Zeitpunkt 10-43 s wäre das Universum gemäß dem Friedmann-Modell viel größer als die Plancksche Länge. Es hätten niemals alle Bereiche zueinander in Beziehung stehen und eine ausgleichende Wirkung stattfinden können. Geht man umgekehrt vor, indem man mit den Planckschen Einheiten beginnt und die weitere Entwicklung mit dem Standard- Urknallmodell berechnet, so erhält man ein viel zu kleines Weltall. Hier wird die Bedeutung der Inflation offensichtlich: Mit ihrer Hilfe erreicht man die notwendige Größe, und anfängliche Unregelmäßigkeiten werden ausgeglichen. Darüber hinaus stellen sich auch noch die Werte für die kritische Dichte (die unser Universum ungefähr besitzt) sowie für die kritische Geschwindigkeit (mit der sich das Universum möglicherweise ausdehnt) automatisch ein.
Was die Gleichförmigkeit betrifft, darf der Zustand nicht zu geordnet sein, weil kleine Unregelmäßigkeiten für die Entstehung von Galaxien unbedingt notwendig sind. Es traten daher aufgrund der Unschärferelation Dichteschwankungen im Quantenbereich auf, die allerdings so klein wie möglich gewesen sind. Während der Inflationsphase vergrößerten sich diese Quantenfluktuationen und führten in weiterer Folge zur Bildung von Galaxien, wie sie oben schon beschrieben wurde.
In dem Diagramm (Abb. 1) habe ich bewußt darauf verzichtet, die Größe des Universums nach Beendigung der Inflation anzugeben. Der Grund liegt darin, daß man sich darüber alles andere als einig ist - die errechneten Werte für die Größenzunahme bewegen sich zwischen 1030 und 101 000 000 000 000 Einheiten. In jedem Fall liegt die Ausdehnung aber über dem Horizont. Mit anderen Worten: Das Universum ist um vieles größer, als der von uns beobachtete Bereich von 1028 cm. Wir sind nämlich bei unseren Untersuchungen an die Lichtgeschwindigkeit gebunden, die durch den Horizont repräsentiert wird.
Eine weitere Folgerung, die sich aus der Inflationstheorie ergibt, lautet, daß durch die Beseitigung großräumiger Unregelmäßigkeiten viele verschiedene Anfangszustände möglich sind. Das starke Anthropische Prinzip, dem Hawking und die meisten anderen Wissenschaftler abneigend gegenüberstehen, wird somit als Erklärungsversuch ausgeschlossen.
Aus Beobachtungen wissen wir, daß das Universum beinahe flach ist. Auch diese Tatsache läßt sich dank der Inflation erklären. Im Prinzip kann man sich diese Flachheit anhand eines einfachen Beispiels besser vorstellen: Wenn wir uns auf einer ebenen Wiese befinden, so käme sicher niemand auf die Idee, diese als gewölbt anzusehen. Trotzdem wissen wir, daß die Erdoberfläche gekrümmt ist. Ein Beobachter auf der Wiese hat aber aufgrund seiner eingeschränkten Sichtweise nicht die Möglichkeit, diese Krümmung zu erkennen. Im Falle des Weltalls verhält es sich fast genauso. Wie schon erwähnt, können wir nur einen Bruchteil des gesamten Universums erkennen, weil uns das Licht von extrem weit entfernten Bereichen (noch) nicht erreichen kann. Allerdings sind wir in der Lage, mit Hilfe von Theorien gewissermaßen über den Horizont 'hinauszublicken'. Das Problem dabei ist, daß sich die verschiedenen Hypothesen des öfteren als unvereinbar erweisen.[7]
Zur Zeit ist Andrei Linde der führende Wissenschaftler im Bereich der Inflationstheorie. Der neueste Stand seiner Forschungen besagt, daß das Gesamtuniversum unendlich in seiner Ausdehnung ist und aus blasenähnlichen Teiluniversen besteht. In einem von diesen würden wir uns befinden. Weiters würden sich aus den bereits vorhandenen Blasen immer wieder neue bilden. Solch ein Vorgang wäre nichts anderes als ein Urknall. Linde behauptet auch, daß diese Entstehungsprozesse fast ständig stattfinden. Er spricht von einem selbstreproduzierenden inflationären Universum.
Eine ebenso interessante wie unwahrscheinliche Idee Lindes ist es, Modell-Universen in Labors herzustellen. Berechnungen zufolge könnte es nämlich möglich sein, durch Komprimieren von Materie Quantenfluktuationen zu erzeugen und auf diese Weise ein mikroskopisches Universum zu erschaffen. Das würde allerdings die Frage aufwerfen, ob nicht auch unser Universum von einem Wissenschaftler hervorgebracht wurde (Gott als Mathematiker?!).
Einmal abgesehen von solch spekulativen Gedanken haben die einzelnen Physiker unterschiedliche Auffassungen von der Inflationstheorie. So findet John D. Barrow, daß sie 'nicht so sehr eine neue kosmologische Theorie als vielmehr eine Erweiterung der Urknalltheorie' ist (J. D. Barrow, Theorien für Alles, S.174). Aus dem oben beschriebenen Modell Lindes geht jedoch hervor: 'Der Urknall ist ein Teil der inflationären Theorie' (A. Linde, Spektrum der Wissenschaft 1/1995: Das selbstreproduzierende inflationäre Universum, S.39).
Wie auch immer - fest steht, daß die Forschungen in diesem Bereich noch lange nicht beendet sind und die Modelle und Berechnungen ständig erweitert und modifiziert werden (müssen).
Die Urknall-Singularität stellt für die Wissenschaftler noch immer ein großes Problem dar. Es wird versucht, sie mit allen erlaubten mathematischen Mitteln zu umgehen. Stephen Hawking führte aus diesem Grunde den Begriff der imaginären Zeit ein. Vom mathematischen Standpunkt aus betrachtet, ist es eigentlich nicht schwierig, diesen Begriff zu definieren: Die imaginäre Zeit wird mit komplexen Zahlen (z. B.: Wurzel einer negativen Zahl) gemessen. Die Erklärung in Worte oder Bilder zu fassen, gestaltet sich aber wesentlich komplizierter. Sogar Hawking selbst gibt zu, daß 'die imaginäre Zeit [] den Lesern [] die meisten Probleme bereitet hat' (S. W. Hawking, Einsteins Traum, S.77). Nichtsdestotrotz möchte ich versuchen, diesen Begriff etwas verständlicher zu machen: Zuerst muß man davon ausgehen, daß das Weltall unbegrenzt und endlich ist. Zur Verdeutlichung stellen wir uns vor, mit einem Flugzeug die Erde zu umrunden. Vorausgesetzt uns steht ausreichend Treibstoff zur Verfügung, werden wir, wenn wir immer geradeaus fliegen, früher oder später wieder an unseren Ausgangspunkt gelangen. Aus dieser Tatsache folgt, daß die Erde unbegrenzt ist. Die Endlichkeit wiederum ergibt sich daraus, daß wir die Größe unseres Planeten messen können.
Hawking legt diese Begriffe nun auf den Kosmos um[8], wobei allerdings vier Dimensionen berücksichtigt werden müssen. Die eigentliche Bedeutung der imaginären Zeit wird einem bewußt, wenn man sich wiederum die Erde als Modell vor Augen führt: Der Nordpol repräsentiert in diesem Fall den Urknall. Von hier aus dehnt sich das Universum in der imaginären Zeit aus, bis es den Punkt maximaler Expansion (=Aquator) erreicht. Dann beginnt es wieder zu kontrahieren, bis es schließlich in einem Punkt (=Südpol) zusammenstürzt. Wenn wir dieses Szenario ein wenig genauer betrachten, so fällt auf, daß die Anfangs- und Endsingularitäten verschwunden sind: Selbst wenn wir uns im Punkt Null befinden (Nord- bzw. Südpol), behalten die Naturgesetze ihre Gültigkeit. Doch diese Tatsache allein macht die imaginäre Zeit bestenfalls zu einem Gedankenexperiment - ein konkreter Nutzen ist hier noch nicht erkennbar. Erst wenn es darum geht, Quantenmechanik und Gravitation in Einklang zu bringen, werden wir uns ihrer Bedeutung bewußt. Auf der Suche nach einer Quantengravitation bedient man sich nämlich unter anderem der Feynmanschen Aufsummierung von Möglichkeiten. In diesem Fall wird sie allerdings auf die gesamte Raumzeit angewendet. Zu diesem Zweck verwendet man die imaginäre Zeit, weil es mit ihrer Hilfe einfacher ist, die einzelnen Geschichten aufzusummieren.
Bei all diesen gedanklichen Weltreisen darf man natürlich nicht darauf vergessen, daß wir uns immer in der realen Zeit befinden. Darum ist es laut Hawking auch vollkommen legitim, die oben genannte Vorgehensweise als bloßen mathematischen Trick zu bezeichnen - hier gilt vielmehr 'gut ist, was nützt'.
Nachdem Hawking von mehreren Seiten kritisiert wurde, weil er die imaginäre Zeit, einen Begriff, der künstlicher und realitätsferner gar nicht sein kann, eingeführt hat, versuchte er, sich auf einem Vortrag im Juli 1991 zu rechtfertigen, indem er auf berühmte Vorgänger wie Kopernikus und Galilei verwies. Ein wenig übertreibend sagte er schließlich: 'Es ist ein geistiger Sprung von der gleichen Art wie die Erkenntnis, daß die Erde rund ist. Eines Tages werden wir die imaginäre Zeit für ebenso selbstverständlich halten wie heute die Rundung der Erde.' (S. W. Hawking, Einsteins Traum, S.77)
Über die Zukunft des Universums gibt es eigentlich noch spekulativere Behauptungen als über die Anfangsphase. Dies zeigt sich besonders deutlich in den vielen verschiedenen Aussagen, die einzelne Wissenschaftler darüber machen. Natürlich soll hier versucht werden, in erster Linie Hawkings Standpunkt darzulegen, es wäre allerdings völlig falsch und intolerant, nicht auch andere ernstgemeinte Hypothesen zu erwähnen.
Einig sind sich die Wissenschaftler darüber, daß das Schicksal unseres Universums von der mittleren Materiedichte und in weiterer Folge von der Expansionsgeschwindigkeit abhängt. Für beide gibt es einen kritischen Wert, der eine Art Grenze zwischen dem offenen und dem geschlossenen Modell des Kosmos darstellt. Ersteres bedeutet, daß die vorhandene Masse nicht groß genug wäre, um die Ausdehnung des Weltalls jemals zu stoppen und eine Kontraktionsbewegung einzuleiten. Das Universum würde sich also ins Unendliche, was auch immer das sein mag, ausbreiten. Beim zweiten Modell allerdings würde es zu einem Zeitpunkt in ferner Zukunft kollabieren und schließlich wieder in einen Punkt zusammenstürzen - eine Art umgekehrter Urknall also. Als drittes ist auch noch der Grenzfall möglich, daß exakt der kritische Wert vorliegt. Dann würde zwar nie eine Kontraktion einsetzen, aber die Expansion würde schneller abgebremst werden als beim offenen Modell und letztlich gegen Null streben. Welches Modell wirklich zutrifft, werden wir vermutlich niemals erfahren. Der Grund liegt darin, daß die Endlichkeit der Lichtgeschwindigkeit uns nur einen begrenzten Teil des Kosmos sehen läßt. Wir können daher nicht wissen, wie groß die Ausdehnung außerhalb dieses Bereiches ist. Es ist also weder möglich noch sinnvoll, Gebiete, die sich unserer Beobachtung entziehen in den Berechnungen zu berücksichtigen. Alle diesbezüglichen Untersuchungen sind deshalb nur auf einen Teil des gesamten Universums bezogen.
Die kritische Dichte liegt bei etwa 5*10-30 g/cm3. Obwohl es sich hier um eine derart kleine Größe handelt, stellen die von uns beobachtbaren Sterne und Gaswolken lediglich 1 % dieses Wertes dar. Eine höhere Dichte ist nur unter der Voraussetzung zu erreichen, daß es auch sogenannte dunkle Materie gibt. Darunter versteht man eine Materieform, die für uns nicht sichtbar ist. Als genaue Bestandteile dafür kommen mehrere Möglichkeiten in Frage: Da wären zum einen die Elementarteilchen. Besonders das sogenannte Neutrino wird von den Wissenschaftlern als vielversprechend angesehen. Bis heute konnte allerdings noch nicht bestätigt werden, ob dieses Teilchen überhaupt Masse besitzt. Experimente mit Neutrinos sind äußerst schwierig durchzuführen, weshalb man über ihre Masse bisher nur weiß, daß sie von Null bis zu einem maximalen Grenzwert reichen könnte. Obwohl selbst ihre maximal mögliche Masse nur knapp über Null liegt, könnten die Neutrinos aufgrund ihrer Häufigkeit (auf ein Kernteilchen kommen zirka eine Milliarde Neutrinos!) erheblich zur Dichte beitragen.
Außerdem wären da noch die Schwarzen Löcher, die eine extrem hohe Dichte besitzen und, sofern sie in ausreichender Zahl vorhanden sind, ebenfalls die Gesamtmasse des Universums erhöhen würden. Hierbei steht man jedoch vor dem Problem, daß es noch niemandem gelungen ist, ein Schwarzes Loch nachzuweisen.
Trotz ihrer Unsichtbarkeit gibt es einige Anzeichen, die auf das Vorhandensein von dunkler Materie schließen lassen. Zum einen geht aus Beobachtungen von Spiralgalaxien hervor, daß diese schneller rotieren als es mit der sichtbaren Materie möglich wäre. Um solch ein Phänomen zu erklären, muß in den Galaxien wesentlich mehr Masse vorhanden sein. Zum anderen trifft dies auch in einem größeren Rahmen betrachtet zu: Die Galaxien haben sich zu Haufen zusammengeschlossen, in denen sie sich um ein Zentrum bewegen. In diesem Fall müssen sie von dunkler Materie umgeben sein, die auch hier die notwendige Masse bzw. Schwerkraft zur Verfügung stellt, um sie zusammenzuhalten. Mit Hilfe relativ zuverlässiger Schätzungen darf man annehmen, daß durch diese unsichtbare aber nachweislich vorhandene Materie etwa ein Zehntel der kritischen Dichte erreicht wird.
Woher nehmen wir nun aber die restlichen 90 Prozent? Aussagen über die Existenz weiterer Materie sind nicht anhand herkömmlicher Messungen überprüfbar. Sie befindet sich außerhalb der Galaxienhaufen und kann deshalb nicht einmal indirekt wahrgenommen werden. Daher muß man sich in diesem Bereich meist mit Vermutungen oder bestenfalls mit Berechnungen zufriedengeben. Für letzteres möchte ich hier ein Beispiel anführen: Die Menge der leichten Elemente im Frühstadium steht in einem bestimmten Verhältnis zur Materiemenge im heutigen Universum. Da sich diese leichten Elemente berechnen lassen (in wie weit die Ergebnisse zutreffen, ist eine andere Frage) und da das Verhältnis ungefähr bekannt ist, kann man so auf die derzeitige Dichte schließen. Auf diese Weise ist man zu der Erkenntnis gelangt, daß eigentlich zehnmal mehr Materie vorhanden sein müßte, als wir nachweisen können. Das ist also der Grund dafür, daß viele Wissenschaftler vermuten, das Universum müsse annähernd die kritische Dichte besitzen. Anderen Berechnungen zufolge wäre es sogar möglich, daß die tatsächliche Dichte doppelt so groß ist wie die kritische. Wir können somit als Grenzwerte 10 % und 200 % annehmen.
Obwohl Hawking keine andere Wahl hat, als beide (oder besser gesagt alle drei) Möglichkeiten zu akzeptieren, kommt für ihn im Grunde genommen nur das geschlossene Modell in Frage, weil er meint, daß für ein Universum mit geringerer Dichte die Anfangsbedingungen zu genau hätten gewählt werden müssen.
Interessant ist übrigens auch der Zusammenhang zwischen kritischer Dichte und Inflation. Nach dieser Theorie würde nämlich die tatsächliche Dichte ungefähr dem kritischen Wert entsprechen. Um sein geschlossenes Modell zu begründen beruft sich Hawking teilweise auf die Inflation. Andrei Linde hingegen spricht von einem Universum mit unendlicher Ausdehnung, das aus zahllosen Teiluniversen, aus denen immer wieder neue entstehen, aufgebaut ist. Zwar erwähnt er nicht explizit, daß für seine Annahme eine kleinere Dichte als die kritische vorausgesetzt werden muß, doch sein Modell ist nur unter dieser Bedingung möglich.
Diese beiden grundverschiedenen Aussagen sind aber bei weitem nicht der einzige Widerspruch, den uns die moderne Kosmologie zu bieten hat. Im Gegenteil: In diesem Fall kann nämlich schon der geringste Unterschied in den Anfangsbedingungen darüber entscheiden, ob die heutige Dichte dem einen oder dem anderen Modell entspricht. Wenn es allerdings um die Frage geht, wie lange das Universum noch 'sein' wird, liegen zwischen den verschiedenen Antworten oft Welten - und das im wahrsten Sinne des Wortes. Die größten Unterschiede sind bei den Angaben über das geschlossene Universum zu erkennen. Die Tabelle soll anhand der Aussagen von drei Wissenschaftlern diese Differenzen verdeutlichen:
Hawking |
Hiller |
Barrow |
|
Sonne verbraucht Kernbrennstoff |
5 Mrd. Jahre |
5 Mrd. Jahre |
5 Mrd. Jahre |
Alle Kerne verbrauchen ihren Kernbrennstoff |
10 Mrd. Jahre |
100 000 Mrd. Jahre |
85 Mrd. Jahre |
Expansion kommt zum Stillstand |
10 Mrd. Jahre |
1000 Mrd. Jahre |
1000 Mrd. Jahre |
Endsingularität |
15 Mrd. Jahre |
2000 Mrd. Jahre |
2000 Mrd. Jahre |
Was das Schicksal des Universums gemäß dem offenen Modell betrifft, herrscht
unter den in diesem Bereich tätigen Forschern weithin Einigkeit. Untenstehende
Tabelle spiegelt diese generell vorherrschende Meinung wider.
alle Sterne und Galaxien sind zu Schwarzen Löchern geworden 1018 Jahre
die meisten Protonen und Neutronen sind zerfallen 1030 - 1032 Jahre
alle Kernteilchen sind zerfallen 1032 - 1034 Jahre
auch die letzten Schwarzen Löcher verdampfen 10100 Jahre
Aus dieser Übereinstimmung darf allerdings nicht geschlossen werden, daß diese
Angaben auch richtig sind. Gerade in diesem Bereich dominiert (noch) eine große
Ungewißheit. Besonders was die Zerfallszeit der Protonen betrifft, kann man zur
Zeit noch keine experimentell gesicherten Aussagen treffen. Es ist also
durchaus möglich, daß die Wissenschaftler in einigen Jahren auf völlig andere
Werte kommen und sich über die für uns aktuellen Daten nur wundern können oder
sich vielleicht sogar darüber lustig machen. Doch diese Entwicklung, auch
Fortschritt genannt, ist gerade für die Naturwissenschaften von immenser
Bedeutung.
Schwarze Löcher
Das letzte Kapitel möchte ich nun einem Bereich widmen, in dem Stephen Hawking wohl seine herausragendsten Entdeckungen gemacht hat. Es handelt sich hierbei um die sogenannten Schwarzen Löcher. Obwohl sie bisher nur als mathematisches Modell existieren, weil es noch niemandem gelungen ist, sie zu entdecken, beschäftigen sich gerade heute immer mehr Wissenschaftler damit. Sie sind ein Phänomen, das in gewisser Weise eng mit dem Urknall zusammenhängt und genau wie dieser viele Fragen aufwirft, um deren Beantwortung Hawking und seine Kollegen bemüht sind.
Zuerst wollen wir das 'klassische' Modell des Schwarzen Loches untersuchen: In solch einem Fall stellt es das Endstadium eines Sternes dar, der mehr als doppelt so schwer wie die Sonne ist bzw. war. Ein Stern leuchtet, indem er Wasserstoff in Helium umwandelt. Bei diesem Prozeß wird Energie in Form von Strahlung abgegeben. Darüber hinaus erzeugt diese Energie den nötigen Druck, der den Stern davor bewahrt, aufgrund seiner eigenen Gravitation in sich zusammenzustürzen. Ist der Kernbrennstoff aufgebraucht, was bei unserer Sonne in rund 5 Mrd. Jahren zu erwarten ist, so zieht sich der abkühlende Stern zusammen und erreicht schließlich einen stabilen Zustand. Je nach Masse ergibt sich entweder ein Weißer Zwerg, ein Neutronenstern oder eben ein Schwarzes Loch. Die Existenz der ersten beiden konnte schon nachgewiesen werden, doch bei letzterem gestaltet sich dieses Vorhaben etwas schwieriger. Ein Schwarzes Loch hat nämlich die Eigenschaft, nicht zu leuchten. Wir könnten es lediglich infolge seiner Wirkung auf benachbarte Objekte erkennen.[9] Die Anziehungskraft eines Schwarzen Loches ist dermaßen stark, daß nicht einmal das Licht, das einmal davon eingefangen worden ist, die Möglichkeit hat zu entkommen. Dies kann man sich so vorstellen, daß die Lichtteilchen ständig um das Zentrum kreisen, ohne jemals in den leeren Raum zu entweichen. Diejenigen Photonen, welche sich dabei am weitesten vom Mittelpunkt entfernen können, bilden die Grenze des Schwarzen Loches - den Ereignishorizont. Jedes Objekt, das diese Grenze überschreitet, ist unwiederbringlich verloren.
Laut Hawking können Schwarze Löcher aber auch noch auf andere Art und Weise entstehen als es eben beschrieben wurde. Prinzipiell ist es nämlich möglich, daß alles so stark komprimiert werden kann, daß es selbst das Licht einfängt. Der Druck, der dazu notwendig wäre, herrschte aber bloß in der Entstehungsphase des Universums. Daraus schließt Hawking, daß damals zahlreiche solcher urzeitlicher Schwarzer Löcher (auch Minilöcher genannt) entstanden sein müssen. Sie haben etwa die Masse eines großen Berges und den Durchmesser eines Protons.
Eine besonders bemerkenswerte Eigenschaft aller Schwarzen Löcher, egal ob groß oder klein, besteht darin, daß sie eigentlich überaus simpel aufgebaut sind und sich deshalb auch so gut zur mathematischen Beschreibung eignen. Lediglich Masse, Drehimpuls und elektrische Ladung sind dabei ausschlaggebend. Man kann sich natürlich vorstellen, wieviel Information verlorengehen muß, wenn ein Stern oder gar eine ganze Galaxie zu einem Schwarzen Loch zusammenstürzt. Wir können allerdings nicht erklären, was mit dieser Information geschieht, sobald sie hinter dem Ereignishorizont verschwindet, weil uns von dort nichts mehr erreichen kann. Diese Reduktion wird von den Wissenschaftlern auch als 'Keine-Haare-Theorem' bezeichnet, weil jegliche Details nicht mehr relevant sind.
1970 gelangte Hawking zu der für ihn so aufregenden Erkenntnis, daß die Fläche des Ereignishorizonts (und somit das Schwarze Loch selbst) nie kleiner werden kann. Sobald Materie 'hineinfällt', vergrößert es sich. Auch wenn zwei Schwarze Löcher sich verbinden, ist das resultierende stets größer oder zumindest genauso groß wie die beiden einzelnen zusammen. Diese Eigenschaft erinnerte Hawking an den Begriff der Entropie. Diese stellt ein Maß für die Unordnung dar und kommt im zweiten Hauptsatz der Thermodynamik zum Ausdruck, der vom österreichischen Physiker Ludwig Boltzmann aufgestellt wurde. Einfach ausgedrückt besagt dieser Hauptsatz, daß die Entropie im Universum ständig zunimmt. Irgendwann einmal, in ferner Zukunft, wird schließlich ein Maß maximaler Unordnung erreicht sein. Anhand eines unkomplizierten Beispiels läßt sich dieser Begriff leicht verstehen: Während Sie diesen Text lesen, werden von Ihnen Informationen aufgenommen und gespeichert. Dabei tritt im Gehirn zwar ein geordneterer Zustand ein, allerdings wird gleichzeitig ein erheblich größeres Maß an Wärme abgegeben und die Unordnung in Bezug auf die gesamte Umwelt (und in weiterer Folge auf das Universum) erhöht.
Obwohl Hawking eine Analogie zwischen der Entropie und der Fläche des Ereignishorizonts erkannte, erschien es ihm zu weit hergeholt, diese beiden zu verbinden. Als der Doktorand Jacob Bekenstein vorschlug, den Horizont als Maß für die Entropie eines Schwarzen Loches anzusehen, zeigte sich Hawking darüber verärgert und machte sich sogleich daran, diese Behauptung zu entkräften. Dabei ging er folgendermaßen vor: Wenn ein Körper eine endliche Entropie besitzt, mußte er auch eine endliche Temperatur haben und Strahlung abgeben können. Zu dieser Zeit war man aber generell der Ansicht, daß ein Schwarzes Loch Strahlung nur aufnehmen, nicht jedoch abgeben konnte, und es somit eine Temperatur von Null Kelvin (-273,15deg. C) haben mußte. Allerdings war auch Hawkings Argumentation nicht frei von Widersprüchen, denn was geschah nun wirklich mit der Strahlung, die in den Ereignishorizont eintritt? Diese Frage beschäftigte Hawking so sehr, daß er seine Forschungen verstärkt auf Schwarze Löcher konzentrierte. Anfang 1974 gelangte er schließlich zu der haarsträubenden Erkenntnis, daß sie, entgegen allen bisherigen Vorstellungen, Strahlung abgeben. Wenig erfreut (!) über diese Entdeckung, die ja seinen vormaligen Aussagen widersprach, wollte er sie sogleich widerlegen. Nach weiteren Berechnungen mußte er sich aber damit abfinden.
Der entscheidende Schritt auf dem Weg zu Hawkings neuer Entdeckung war, daß er die Quantenmechanik auf die Schwarzen Löcher anwendete. Um dies ausreichend erklären zu können, muß ich etwas weiter ausholen: Im leeren Raum knapp außerhalb des Ereignishorizonts befinden sich zahlreiche virtuelle Teilchen. Es ist nicht möglich, diese direkt zu messen; man kann sie nur aufgrund ihrer Wirkung auf andere Objekte erkennen. In der Nähe von Schwarzen Löchern bilden sich nun laufend solche Teilchen und deren Antiteilchen. Diese besitzen zwar dieselbe Masse, unterscheiden sich jedoch in ihren Vorzeichen (z. B. die Ladung und den Spin betreffend). Aufgrund der Unschärferelation, die Energie und Zeit ebenso verbindet wie Ort und Impuls, können solche Teilchenpaare nur in einem äußerst kurzen Zeitraum entstehen. Für diesen Prozeß benötigen sie allerdings Energie, die in diesem Fall vom Schwarzen Loch zur Verfügung gestellt wird. Nun geschieht aber etwas Bemerkenswertes: Das Teilchen mit der umgekehrten Ladung wie das Schwarze Loch wird von diesem angezogen und taucht in den Ereignishorizont ein. Sein Partner jedoch wird abgestoßen und verschwindet in den leeren Raum. Hierdurch wird der Eindruck erweckt, das Schwarze Loch emittiere Strahlung. Man darf sich dies allerdings nicht als Strahlung im herkömmlichen Sinne vorstellen, weil das freie Teilchen nämlich nicht direkt aus dem Inneren des Schwarzen Loches kommt. Das Entscheidende dabei ist vielmehr, daß nur die Hälfte der zur Verfügung gestellten Energie wieder zurückgegeben wird. Der Rest verschwindet mit dem abgestrahlten Teilchen auf nimmerwiedersehen.
Als Hawking seine neuen Erkenntnisse auf einer Tagung präsentierte, äußerten die anwesenden Physiker Mißtrauen gegenüber seinen Vorschlägen. Der Leiter der Sitzung, ein gewisser John G. Taylor, verfaßte sogar einen speziellen Artikel, in dem er seine Ablehnung zum Ausdruck brachte. Das half jedoch alles nichts - letzten Endes mußten die Wissenschaftler die aufgestellte Behauptung akzeptieren. Heute ist dieses Phänomen unter dem Namen Hawking-Strahlung bekannt.
Es gibt nun einige interessante Konsequenzen, welche sich daraus ergeben: Bei einem Schwarzen Loch, das infolge eines Gravitationskollapses entstanden ist, sind die Auswirkungen nicht allzu schwerwiegend, weil der geringe Energieverlust durch die Aufnahme von Materie weit mehr als ausgeglichen wird. Bei Minilöchern ist aber sehr wohl mit einschneidenden Folgen zu rechnen, weil sie nämlich nicht in der Lage sind, genügend Materie aufzunehmen - sie verlieren also zunehmend an Energie. Aus der Formel E = mc2 folgt, daß die Energieabgabe auch einen Masseverlust nach sich zieht. Da der Proportionalitätsfaktor (c2 = 9 x 1010 (km/s)2) extrem hoch ist, benötigt man enorme Energiemengen, um die Masse zu verringern und somit das Schwarze Loch schrumpfen zu lassen. Aus diesem Grund erfolgt die Verkleinerung auch dementsprechend langsam. Sie läuft jedoch mit fortschreitender Dauer immer schneller ab, weil die geringere Masse eine höhere Temperatur bewirkt und diese wiederum die abgegebene Menge an Röntgen- und Gammastrahlung steigert. Es handelt sich hier um einen Kreislauf, der sich selbst immer mehr verstärkt. Das Schwarze Loch wird also fortlaufend kleiner und kleiner, bis es schließlich, so vermutet Hawking, sein Dasein in einer Explosion beendet.
Von den meisten urzeitlichen Schwarzen Löchern nimmt man an, daß sie bereits explodiert sind. Es könnte allerdings durchaus einige geben, die ihr Ende noch vor sich haben bzw. deren Strahlung uns bisher noch nicht erreichen konnte. Es wäre zweifellos eine der großartigsten Entdeckungen in der Astronomie, wenn es den Wissenschaftlern gelänge, ein Schwarzes Loch anhand von Beobachtungsdaten nachzuweisen. Obwohl es für überaus unwahrscheinlich gehalten wird, daß wir jemals die Reste einer Explosion sehen werden, geben die Forscher die Hoffnung nicht auf und warten auch weiterhin auf ein derartiges Ereignis. Der große Vorteil einer Explosion eines Schwarzen Loches liegt nämlich darin, daß dabei eine gewaltige Strahlungsmenge frei wird, die natürlich wesentlich besser aufzuspüren ist, als die permanent abgegebene Strahlung. Darüber hinaus wäre eine solch auffällige, weil konzentrierte, Emission ein relativ konkreter Hinweis darauf, daß wirklich ein urzeitliches Schwarzes Loch die Quelle ist. Bei dem derzeit gemessenen, ziemlich gleichmäßig verteilten Gammastrahlen- Hintergrund ist nicht genau bekannt, wodurch er verursacht wird. Als Detektor für diese Strahlung dient übrigens die äußere Schicht der Atmosphäre: Dort reagieren die einfallenden Gammastrahlenquanten mit Atomen und erzeugen Elektron-Positron- Paare. Es folgt eine wahre Kettenreaktion, auch Elektronenschauer genannt, die sich durch beobachtbare Lichtblitze bemerkbar macht.[10]
Der bedeutendste Aspekt der Hawking-Strahlung, zumindest was die theoretische Physik betrifft, ist sicher die teilweise Verbindung von Allgemeiner Relativitätstheorie und Quantenmechanik. Die daraus resultierende Theorie wird treffend als Quantengravitation bezeichnet. Die Strahlung Schwarzer Löcher ist eines der wenigen Beispiele, wo beide großen Theorien des 20. Jahrhunderts gemeinsam zur Anwendung kommen und trotzdem keine gravierenden Widersprüche auftreten: Der die Gravitation und darüber hinaus auch die Allgemeine Relativitätstheorie betreffende Aspekt äußert sich darin, daß die Energie für die Bildung virtueller (Anti-)Teilchen von der Gravitationsenergie des Schwarzen Loches erbracht wird. Das quantenmechanische Merkmal kommt in der Anwendung der Energie- und Zeitunschärfe zum Ausdruck. Bis die Gravitation vollständig in die Quantenmechanik integriert ist, wird es zwar noch einige Zeit dauern, doch derartige (Teil-)Ergebnisse stimmen die Wissenschaftler optimistisch und sind essentiell für die Entwicklung einer ausgefeilten oder, wie Einstein sagen würde, 'schönen' Theorie.
Nachdem Hawking sich schon längere Zeit mit Schwarzen Löchern beschäftigt hatte, entdeckte er eine weitere Eigenschaft, die ihnen offenbar innewohnt: Jedes Schwarze Loch ist Ausgangspunkt für ein neues Universum, genannt Baby- Universum. Im Prinzip beschreibt Hawking damit dasselbe Modell wie Andrei Linde mit seinen selbstreproduzierenden Blasenuniversen (siehe S.21). Er verwendet allerdings andere Begriffe und bedient sich unterschiedlicher Erklärungsmethoden. Laut Hawking krümmt ein Schwarzes Loch die Raumzeit so stark, daß eine bestimmte Region vom ursprünglichen Weltall abzweigt und ein in sich geschlossenes Baby- Universum bildet. Es besteht sogar die Möglichkeit, daß sich dieses Baby- Universum wieder mit der Raumzeit des Mutter- Universums verbindet. Die Aussichten, auf diese Art durch Raum und Zeit zu reisen, stehen allerdings äußerst schlecht. Zum einen würde schon allein der Eintritt in ein Schwarzes Loch aufgrund der extrem hohen Gravitationskräfte katastrophale Folgen für jeden Möchtegern- Zeitreisenden haben - Hawking verwendet in diesem Zusammenhang gerne den Ausdruck, daß man dadurch zu Spaghetti verarbeitet werden würde. Des weiteren existiere das Baby- Universum ausschließlich in der imaginären Zeit - in der realen würde es an einer Singularität enden. Es würde somit auch das Leben eines Astronauten ein jähes Ende finden.
Obwohl Schwarze Löcher sich somit nicht als Transportmittel eignen, lassen sich aus Hawkings Annahme einige verblüffende Folgerungen ableiten. So besteht zum Beispiel die Möglichkeit, daß unser eigenes Universum aus einem anderen entstanden ist. Erfahren werden wir dies jedoch nie, weil es unmöglich ist, Informationen aus einem anderen Weltall zu erhalten. Wir werden uns in dieser Hinsicht vermutlich immer nur auf die Gültigkeit der mathematischen Modelle verlassen müssen. Doch gerade in diesem Bereich können wir selbst mit deren Hilfe nur vage Aussagen treffen.
Meiner Meinung nach ist Lindes Modell einfacher zu verstehen als jenes von Hawking. Einer der Gründe liegt sicher darin, daß er auf den Begriff der imaginären Zeit, der gedanklich relativ schwer zu fassen ist, verzichtet. Er erwähnt lediglich, daß in den verschiedenen Teiluniversen andersartige Naturgesetze herrschen können. Außerdem muß noch gesagt werden, daß Lindes graphische Darstellungen der Blasenuniversen sehr stark simplifiziert sind und man somit den Eindruck erhält, sein Modell sei wesentlich einfacher. Die graphische und somit zweidimensionale Umsetzung einer vierdimensionalen Wirklichkeit ist allerdings wieder ein anderes, viel grundlegenderes Problem, das die Wissenschaftler nicht einmal dann lösen könnten, wenn sie es wollten. Doch egal, welches der beiden Modelle man nun bevorzugt, im Grunde genommen beschreiben beide dasselbe Phänomen und müssen außerdem noch in einigen Punkten verfeinert werden. Wir brauchen also nicht zu befürchten, daß die Forschung auf dem Gebiet der Schwarzen Löcher und des Universums im allgemeinen in absehbarer Zeit erlahmen oder gar zum Stillstand kommen wird.
Schluß
Mit dem Wissen wächst der Zweifel.
Goethe
Der aufmerksame Leser dieser Arbeit hat nun einen Überblick über die wahrscheinlich interessantesten Bereiche der Physik erhalten. Ausgegangen sind wir von Einsteins Relativitätstheorien, die vor allem den Makrokosmos beschreiben und auch immer dann zur Anwendung kommen, wenn sehr hohe Geschwindigkeiten im Spiel sind. Anschließend wurden die wichtigsten Aspekte der Quantenmechanik behandelt. Diese beschäftigt sich in erster Linie mit den Abläufen im Mikrokosmos und stellt seit den 20er Jahren die klassische Physik immer wieder auf den Kopf. Der Einblick in die Grundlagen dieser beiden Theorien ermöglicht es sogar dem Laien, die Vorgänge im Universum besser zu verstehen und die Denkweise der Wissenschaftler in mancher Hinsicht nachzuvollziehen.
Vor allem Leser, die erst begonnen haben, sich mit den hier behandelten Stoffgebieten zu beschäftigen, werden bemerkt haben, daß neue Erkenntnisse stets neue Fragen aufwerfen (siehe Zitat Goethes). Damit müssen sich Schüler, denen erst die Grundkenntnisse vermittelt werden, ebenso abfinden wie hochspezialisierte Wissenschaftler, die den letzten Stand der Forschungen kennen. Daß es Hawking wirklich gelingt, ein Modell zu finden, welches weitere Fragen überflüssig macht, halte ich deshalb für höchst zweifelhaft.
Zur Zeit stößt man besonders dann auf Schwierigkeiten, wenn sowohl die Allgemeine Relativitätstheorie als auch die Quantenmechanik zur Beschreibung ein und desselben Phänomens notwendig sind. Wie die Geschichte uns gelehrt hat, entwickelt sich unser physikalisches Weltbild weiter, indem wir alte, experimentell überprüfte Theorien in umfassendere Zusammenhänge einbinden. Früher oder später wird dies bestimmt zur Quantengravitation führen. Doch bei der Diskussion über kosmologische Fragen sollte man freilich stets bedenken, daß alle physikalischen Theorien nur Annäherungen an die Wirklichkeit darstellen und daß sie versagen können, wenn man sie zu stark strapaziert.
Ein weiterer Bereich, der die Wissenschaftler gegenwärtig vor Probleme stellt, betrifft, wie wir erfahren haben, die Bestimmung der mittleren Masse des Universums. Falls das Weltall sich für immer ausdehnt, wird es irgendwann in ewiger Finsternis und eisiger Kälte versinken. Sollte seine Masse allerdings so groß sein, daß die Gravitation die Ausdehnung im Laufe der Zeit umkehrt, wird der Raum mitsamt aller Materie und Energie wieder in sich zusammenstürzen. Innerhalb des nächsten Jahrzehnts, so hoffen die Forscher, wird die Masse des Universums so genau bestimmt sein, daß wir wissen werden, welcher Zukunft es entgegensteuert.
Welche Entwicklungen die nächsten Jahre auch bringen mögen - die Kosmologie hat sich von einer Spielart der Philosophie zu einer physikalischen Wissenschaft gemausert, in der Hypothesen der Überprüfung durch Beobachtung und Experiment stand- halten müssen. Um diese Wissenschaft erfolgreich betreiben zu können, müssen die Forscher eine Eigenschaft besitzen, für deren Erklärung ich zum Abschluß noch einmal Goethe zitieren möchte: 'Der Mensch muß bei dem Glauben verharren, daß das Unbegreifliche begreiflich sei; er würde sonst nicht forschen.'
Quellenverzeichnis
Barrow, John D., Theorien für Alles: die philosophischen Ansätze der modernen Physik (Spektrum Akademischer Verlag, Heidelberg, 1992).
Barrow befaßt sich in seinem Buch nicht nur mit rein wissenschaftlichen Fragen, sondern läßt auch immer wieder (gezwungenermaßen?) philosophische Gedanken einfließen. Das macht sein Buch zu einem interessanten und kurzweiligen Lesevergnügen - manchmal fragt man sich während des Lesens sogar, ob das nun tatsächlich ein naturwissenschaftliches Werk ist.
Bublath, Joachim, Das neue Bild der Welt: Chaos, Relativität, Weltformel (Ueberreuter, Wien, 1992).
Leicht verständlich und zahlreich illustriert beschreibt Bublath die Themen Chaos, Relativitätstheorie und Weltformel. Für Einsteiger durchaus empfehlenswert. Wer sich allerdings näher mit den angeführten Themen auseinandersetzten möchte, ist mit der jeweiligen Spezialliteratur besser beraten.
Davies, Paul und Brown, Julian R., Superstrings: eine Allumfassende Theorie der Natur in der Diskussion (Deutscher Taschenbuch Verlag, München, 1992).
Bevor die Autoren auf die String- Theorie eingehen, beschreiben sie in kurzer Form die Relativitätstheorie, die Quantentheorie und die wesentlichen Aspekte der Elementarteilchenphysik. Der Leser erhält eine für den Einstieg gut geeignete Darstellung des Themas. Zu fast zwei Drittel besteht das Buch aus recht interessanten Interviews mit neun verschiedenen Wissenschaftlern (darunter Richard Feynman und Steven Weinberg).
Hawking, Stephen W., Anfang oder Ende? (Heyne, München, 1991).
Das Buch enthält eine mehr oder weniger informative Inauguralvorlesung, die Hawking im April 1980 anläßlich der Übernahme des Lucasischen Lehrstuhls für Mathematik an der Universität Cambridge gehalten hat. Besonders zu empfehlen ist das Nachwort von Guido Kurth, in dem dieser sehr prägnant die wichtigsten, in irgendeiner Form mit Hawking in Verbindung stehenden Bereiche der Physik zusammenfaßt. Weiters ist das Buch mit einer Kurzbiographie Stephen Hawkings versehen.
Hawking, Stephen W., Eine kurze Geschichte der Zeit: die Suche nach der Urkraft des Universums (Rowohlt, Reinbek bei Hamburg, 1988).
Standardwerk der populärwissenschaftlichen Literatur, millionenfach verkauft. Hawking beschreibt seine Vorstellungen auf gut verständliche Weise und oft mit subtilem Humor. Obwohl Hawking jetzt nicht mehr so sehr von der Superstring- Theorie überzeugt ist wie zum Zeitpunkt der Buchveröffentlichung, haben die meisten anderen Themen nichts von ihrer Aktualität und Faszination eingebüßt. Die Kurze Geschichte ist auch für all jene empfehlenswert, die normalerweise keine wissenschaftlichen Bücher lesen - hier sollte man ruhig eine Ausnahme machen.
Hawking, Stephen W., Einsteins Traum: Expeditionen an die Grenzen der Raumzeit (Rowohlt, Reinbek bei Hamburg, 1993).
Das Buch ist zum Großteil eine Sammlung von Vorträgen, die Hawking im Zeitraum von 1977 bis 1991 gehalten hat. Daraus ergeben sich natürlich einige Überschneidungen mit der Kurzen Geschichte (1988), doch auch neue Bereiche (z. B.: Baby-Universen) finden Erwähnung. Auffallend ist die Fülle an autobiographischen Daten, die eine eigene (Auto-)Biographie beinahe überflüssig erscheinen lassen. Zusätzlich ist noch ein Interview enthalten, welches Hawking in einer britischen Radiosendung gegeben hat.
Hey, Tony und Walters, Patrick, Quantenuniversum: die Welt der Wellen und Teilchen (Spektrum Akademischer Verlag, Heidelberg, 1990).
Ein absolutes Muß für alle, die beginnen, sich für die Welle/Teilchen- Dualität und andere quantenmechanische Phänomene zu interessieren - sie werden von diesem Buch begeistert sein.
Hiller, Horst, Die Evolution des Universums: eine Geschichte der Kosmologie (Umschau, Frankfurt am Main, 1989).
Hiller, ein Autor der etwas älteren Generation, versteht es wie kaum ein anderer, den Leser in die Geheimnisse der Kosmologie einzuweihen. Sachlich, kritisch - ein beispielhaftes Buch.
Hubich, B./ Mathelitsch, L./ Kobler, O., Schrödinger-Gleichung in der Schule?
Klein aber fein! Den Autoren dieser nur 20 Seiten umfassenden Arbeit gelingt es auf ausgezeichnete Weise, das in der Überschrift festgelegte Thema abzuhandeln.
Kahan, Gerald, E = mc2: Einsteins Relativitätstheorie (DuMont Buchverlag, Köln, 1983).
Sehr einfach und mit vielen Illustrationen versehen - damit werden die grundlegendsten Prinzipien der Relativitätstheorien sogar für den kompletten Neuling verständlich.
Linde, Andrei, 'Das selbstreproduzierende inflationäre Universum', Spektrum der Wissenschaft, Jänner 1995, S.32 - S.40.
Ein überaus interessanter Artikel von einer Koryphäe auf dem Gebiet der Inflationstheorie. In relativ kurzer Form legt Linde seine Ideen dar und gibt dem Leser Einblick in besonders aktuelle Forschungsergebnisse.
White, Michael und Gribbin, John, Stephen Hawking - Die Biographie (Rowohlt, Reinbek bei Hamburg, 1994).
Neben den biographischen Daten sind auch viele wissenschaftliche Informationen enthalten. Das Buch eignet sich hervorragend als Ergänzung zu Hawkings eigenen Büchern. Mit anderen Worten: Bevor man zu dieser Biographie greift, sollte man unbedingt die Kurze Geschichte und Einsteins Traum gelesen haben.
Referate über:
|
Datenschutz |
Copyright ©
2024 - Alle Rechte vorbehalten AZreferate.com |
Verwenden sie diese referate ihre eigene arbeit zu schaffen. Kopieren oder herunterladen nicht einfach diese # Hauptseite # Kontact / Impressum |