Betriebstechnik | Biographien | Biologie | Chemie | Deutsch | Digitaltechnik |
Electronica | Epochen | Fertigungstechnik | Gemeinschaftskunde | Geographie | Geschichte |
Informatik | Kultur | Kunst | Literatur | Management | Mathematik |
Medizin | Nachrichtentechnik | Philosophie | Physik | Politik | Projekt |
Psychologie | Recht | Sonstige | Sport | Technik | Wirtschaftskunde |
Ähnliche Berichte:
|
Projekte:
|
Papers in anderen sprachen:
|
physik referate |
Vorgeschichte:
Das Licht fasziniert die Menschen schon seit Beginn ihrer Existenz. Als Gegenspieler der Dunkelheit und als Lebensspender spielt es in der Mythologie aller Kulturen eine wichtige Rolle. Abgesehen davon beschäftigt sich die Menschheit schon lange mit der wissenschaftlichen Erforschung des Lichts. Bereits frühe Hochkulturen, wie die Agyptens oder Mesopotamiens besaßen bereits schlüssige Erkenntnisse über die Eigenschaften des Lichts. 200 n. Christus fasste Ptolemäus die Erkenntnisse seiner Vorgänger Heron und Euklid zusammen. Sie erkannten die geradlinige Ausbreitung des Lichts, und als gute Geometriker konnten sie so die Reflexion korrekt skizzieren und berechnen, das Gesetz der Brechung gab er jedoch nicht an. Der einzige wichtige Wissenschaftler des Mittelalters (in Zusammenhang mit Licht) war der um 1000 in Kairo lebende Ibn Alhazen. Er kannte die vergrößernde Wirkung von Linsen und konnte beweisen, dass das Licht des Mondes von der Sonne kommt.
Erst im 17. Jahrhundert wurden die Forschungen wieder aufgenommen. Der Anlass für diesen Aufschwung war die Entdeckung der Interferenzerscheinung.
Die Interferenzerscheinung zeigte sich in einem Experiment, bei dem Lichtwellen, die geringfügige Wegunterschiede aufweisen, auf einen Schirm projiziert werden. Dabei entsteht kein homogener weißer Fleck sondern je nach Versuchsanordnung abwechselnd helle und dunkle Streifen oder Kreise. Diese erklären sich aus dem Superpositionsprinzip, welches besagt, dass sich die Amplituden zweier Wellen bei Überlagerung entweder addieren (Wellenberg trifft auf Wellenberg; hell) oder subtrahieren (Wellenberg trifft auf Wellental; dunkel). Der Holländer Christiaan Huygens beschrieb als erster die Wellentheorie des Lichtes. Er stellte sie sich vor wie eine dreidimensionale Wasserwelle deren Medium ein allgegenwärtiges, statisches ist: der Ather. Jeder von einer Lichtwelle angeregter Punkt des Athers bildet das Zentrum einer neuen sich kugelförmig ausbreitenden Welle. Anfangs war es schwierig für die Anhänger der Wellentheorie das Vertrauen der Öffentlichkeit zu gewinnen, da niemand Geringerer als Isaac Newton die Teilchentheorie anpries, der mit ihr die Spektralverteilung des weißen Lichts erklären konnte. Anfang des 18.Jahrhunderts war die Teilchentheorie allerdings nicht mehr haltbar, da Phänomene wie die Polarisation$ mit ihr nicht zu erklären sind.
Früher oder später kam natürlich der Zeitpunkt an dem die Lichtwelle neu definiert werden musste, da die Existenz des Athers ja widerlegt wurde. 1831 untersuchte man den elektrischen Strom und fand dabei heraus, dass er immer von einem Magnetfeld umgeben wird. Wenig später entdeckte man das Induktionsgesetz, dass das Wechselspiel von magnetischem und elektrischem Feld (in dem eine einstige Spannung gespeichert ist) erklärt. Die berechnete Geschwindigkeit einer elektromagnetischen Welle entspricht der Lichtgeschwindigkeit, woraus gefolgert werden kann, dass das Licht ebenfalls eine elektromagnetische Welle ist.
Die Wellentheorie versagte aber, wenn es darum ging die Emissions- und Absorptions- Vorgänge in Atomen$ zu beschreiben, außerdem war es nach der klassischen Methode unmöglich, das Spektrum schwarzer Strahler rechnerisch mit den Messwerten überein zu stimmen.
Der Grund dafür liegt darin, dass, angenommen ein solcher Strahler verfüge über ein gleichmäßiges Spektrum, er Strahlung mit praktisch unendlich hoher Frequenz abgeben müsse (in dem Fall tragen wir von unserem Glühbirndel sofort ein Hautkrebserl davon), die Energieabgabe wäre somit auch unendlich. Die Lösung zu diesen Problemen lieferte Max Planck mit der Theorie des gequantelten$ Lichts.
Klassisches Licht:
Unter klassischem Licht versteht man Licht mit Wellencharakter. Alle Phänomene die damit in Verbindung stehen fallen in den Bereich der klassischen Physik.
Polarisation:
Die Entdeckung der Polarisation offenbarte die Erkenntnis, dass Licht eine Transversal- und keine wie bisher angenommen Longitudinalwelle (wie die Schallwelle) ist. Unter polarem Licht versteht man eine elektromagnetische Welle, deren Amplitude nur in eine Richtung 90° zur Ausbreitungsachse verläuft. Natürliches Licht ist grundsätzlich unpolar, d.h. es schwingt in alle Richtungen gleichermaßen. Durch sogenannte Polarisationsfilter kann man die Welle zwingen eine bestimmte Form anzunehmen, klarerweise verringert sich dadurch die Energie beträchtlich. Legt man zwei Polarisationsfilter übereinander sodass der Zweite das Licht um 90° von dem Ersten verschoben polarisiert, ist die Welle entgültig zerstört und kein Licht dringt mehr durch.
Brechung:
Die Lichtwelle wird beim Übergang in ein verschieden dichtes Medium gebrochen, d.h. wenn beispielsweise Licht von Luft in Wasser übergeht wird der Eintrittswinkel an der Übergangsfläche kleiner sein als der Austrittswinkel (wenn der Winkel genau 90° ist geschieht natürlich nichts). Der Grund dafür ist simpel: der Teil der Welle, der früher auf das dichtere Medium trifft muss sich länger im langsameren Medium bewegen als der, der erst später eintritt und damit weg "gut macht", dadurch wird der Winkel stumpfer.
Unter Dispersion versteht man die Abhängigkeit des Brechungsindex von der Wellenlänge des Lichts. So wird beispielsweise der Austrittswinkel von Licht geringer Wellenlänge ein anderer sein als der großer Wellenlänge.
Bei der Reflexion findet nur in einem Medium statt, in dem Fall der Einfallswinkel gleich dem Ausfallswinkel, es kommt immer auf die Kriterien Polarität, Frequenz und Brechungsindex des Mediums an ob Reflexion oder Brechung stattfindet. Ein Spezialfall der Reflexion ist die Totalreflexion und das besondere dabei ist, dass ja die Welle nicht von vornherein "weiß", dass sie sich total zu reflektieren hat. Sie dringt etwa eine Wellenlänge in das neue Medium ein, bevor sie ganz reflektiert wird.
Beugung:
Sie tritt dann auf, wenn wir beobachten können, dass ein Lichtstrahl keine scharfen Kanten erzeugt oder, wenn er durch einen schmalen Spalt verläuft, sich nicht wie man meinen könnte geradlinig ausbreitet, sondern auch "um die Ecke" in den Raum der schattig sein müsste geht. Die Beugung kann man sich am Besten mit dem Huygenschen Prinzip vorstellen: Die Welle muss sich durch einen schmalen Spalt zwängen, wobei an jedem Punkt, an dem sie den Spalt berührt, sich eine neue Welle bildet, die sich kugelförmig ausbreitet. Daraus lässt sich auch erkennen, dass polares und gebündeltes Licht weniger Beugung aufweist als unpolares und gestreutes Licht.
Kohärenz:
Die Kohärenz ist die Grundvoraussetzung dafür, dass zwei Lichtwellen miteinander interferieren können. Licht ist kohärent wenn eine feste Phasenbeziehung zwischen ihnen bestehtist. Man unterscheidet zwischen räumlicher und zeitlicher Kohärenz.
Die räumliche Kohärenz leuchtet ein, da die Wellen eine ähnliche Richtung haben müssen, um miteinander interferieren zu können. Die zeitliche Kohärenz ist wieder eine spezielle Wellenerscheinung: Wellen unterschiedlicher Frequenz interferieren nicht miteinander, da sie sich kaum überlagern. Eine weitere wichtige Eigenschaft, die eine kohärente Welle besitzen muss, ist die gleiche Polarität, sonst nützt uns weder die zeitlich noch die örtliche Kohärenz. Diese Erkenntnisse waren für die Anhänger der Wellentheorie ein überzeugender Beweis zugunsten ihrer Anschauung, da ja aufeinander zulaufende Teilchen auf jeden Fall interferieren müssten.
Die Koherenz kann mit dem Michelson Interferometer gemessen werden, aus den Messungen ergibt sich das Beispielsweise eine Glühbirne eine Kohärenz von nur wenigen tausendstel mm hat, während mit Laserlicht mehrere km erreicht werden können.
Streuung:
Darunter versteht man die Ablenkung von Lichtwellen beim Aufprall auf Teilchen. Aus der klassischen Betrachtung ergibt sich der Grund, weshalb sich bestimmte Spektren Streuen und andere an den selben Teilchen wieder nicht. Bei großen Wellenlängen ist die Wahrscheinlichkeit größer, dass die Welle dem Hindernis ausweicht, wobei kurzwelliges Licht unvermeidlich kollidiert. Mit der Streuung lässt sich die beliebte Frage erklären mit der kleine Kinder gelegentlich ihre Eltern ins Schwitzen bringen: Warum ist der Himmel blau? Das blaue Spektrum des Lichts wird an der Atmosphäre gestreut, wodurch sich je nach Lage zur Sonne eine blaue oder eine rote Färbung des Himmels ergibt. Wenn das Sonnenlicht einen kurzen Weg durch die Atmosphäre macht sehen wir den Himmel blau, das Licht in diesem Fall zwar gestreut, erreicht uns aber dennoch. Hat das Licht einen langen Weg durch die Atmosphäre, so wird der blaue Anteil des Spektrums weggestreut und es erreicht uns vor allem der rote Anteil.
Die Theorie Plancks, dass das Licht seine Energie nicht kontinuierlich, sondern in "Paketen" (Quanten) abgibt war eine Revolution in der Lichtforschung, sie vereinte Wellen und Teilchentheorie. Die Quantentheorie besagt dass jedem Quantum eine Frequenz zuzuschreiben ist, je höher diese Frequenz ist umso mehr Energieaufwand ist nötig um ein solches Quantum zu emittieren und damit ist die Energieabgabe eines schwarzen Strahlers auf jeden Fall endlich. Das ist auch die Erklärung weshalb die ultraviolette Katastrophe nicht stattfindet, eine Glühbirne beispielsweise, die mit 2000°C leuchtet, hat ihr Maximum im infraroten Bereich, daher können wir einerseits froh sein, dass sie uns nicht verstrahlt, aber anderseits muss man auch ihre Ökonomie in Frage stellen, denn es ist nicht ihre primäre Aufgabe die Luft aufzuheizen.
Die logische Konsequenz aus Plancks Theorie, ist das jedem Körper eine Welle zugeschrieben werden muss, und so ist es in der Tat, so ist es beispielsweise gelungen einzelne Ione bis auf wenige Tausendstel über dem absoluten Nullpunkt abzukühlen in dem man sie in ihrer Frequenz, eine halbe Phase verschoben, mit einem Laser bestrahlt hat.
Den Beweis für Plancks Annahme lieferte Albert Einstein, indem er den Photoeffekt erklärte. Es geht dabei um Elektronen die durch Lichteinstrahlung aus einer Aluminiumplatte (?) herausgelöst werden. Das Rätselhafte an der Sache ist, dass dieser Versuch ab einer gewissen Frequenz funktioniert, was mit wellenförmigem Licht nicht zu erklären ist. Einstein erkannte, dass nur ein Teilchen die Ursache für diesen Effekt sein können, wobei es eine gewisse Masse besitzen muss um den Photoeffekt auszulösen (eine höhere Frequenz bedeutet mehr Energie und das wiederum bedeutet gemäß der Energie-Masse-Aquivalenz mehr Masse). Die Symbiose von Wellen- und Teilchencharakter war perfekt, und Einstein bekam seinen Nobelpreis.
Wie wir heute wissen kommt es auf die Versuchsanordnung an ob Wellen- oder Teilchencharakter in Erscheinung treten.
Absorption und Emission von Photonen:
Nils Bor entwickelte angeregt von den neuen Erkenntnisse ein neues Atommodell, das dem Atom erlaubt von Zuständen niederer Energie in die höherer zu springen und umgekehrt. Man erkannte die Wechselwirkung von Elektronen und Photonen:
Das Borsche Modell beschreibt das Atom eingeteilt in Atomkern und Elektronen die sich in Bahnen bewegen. Die nahe am Kern gelegenen Bahnen werden in Zustanden geringer Energie benützt und die in größerem Abstand zum Kern in Zuständen hoher Energie.
Bewegt sich das Elektron nahe am Kern kann es Photonen aufnehmen. Diese gewonnene Energie benützt es um auf eine höhere Bahn zu springen (Quantensprung), umgekehrt emittiert ein Elektron ein Photon wenn es sich in einem energetisch hohem Zustand befindet und springt dabei auf die tiefergelegene Bahn. Bors Modell ist zwar sehr anschaulich und ich werde später noch darauf zurückkommen wenn von der Erzeugung von Laserlicht die Rede ist, geht aber an den beobachtbaren Vorgängen vorbei und ist obendrein bei komplizierteren Atomen nicht mehr nachvollziehbar. Richard Feynman liefert eine bislang unwiderlegte Theorie die beschreibt was wirklich zwischen Atom und Elektron, und Elektron und Umwelt vorgeht. Aus diesem Grund will ich zunächst die Heisenbergsche Unschärferelation vorziehen, die Notwendig ist um Feynman besser zu verstehen und dieses Kapitel später fortsetzen.
Früher dachte man, man könne alles exakt berechnen, diese Selbstsicherheit wird Determinismus genannt. Einige physikalische Errungenschaften in Folge reichten aus um eine Art Größenwahnsinn bei den Wissenschaftlern hervorzurufen. Sie waren überzeugt, dass man mit den Berechnungsmethoden und Formeln die man der Natur abgewann die Zukunft exakt berechnen könne, nur wussten sie damals noch nichts von den Quanten. Um die Zukünftige Position eines Teilchens oder eines Körpers berechnen zu können benötigt man die exakte Position, die exakte Geschwindigkeit und die Richtung des Selbigen. Dabei entstehen, selbst wenn man die Theorie ganz außer Acht lässt, größte Probleme: Wir wollen Beispielsweise die genaue Position eines Elektrons für die Zukunft berechnen, also müssen wir seine Geschwindigkeit und seine Position feststellen. Vermessen wir seine Positionen mit Hilfe kurzwelligen Lichts, um seine Position genau zu ermitteln, verfälschen wir seine Geschwindigkeit aufs gröbste. Umgekehrt, wenn wir langwelliges Licht nehmen um seine Geschwindigkeit genau festzustellen, tun wir uns schwer etwas über seine genaue Position zu sagen. Allein aus diesem Gedankenexperiment ergibt sich, dass der Determinismus Illusion ist, auch wenn es schwer ist sich damit abzufinden, es gibt einfach einen Bereich ab dem die Natur Narrenfreiheit hat. Dieses praktische Beispiel ist quasi der Beweis für die Theorie, dass alle Teilchen eine gewisse Unschärfe umgibt, das heißt, dass man in einem kurzen Bereich die Teilchen einen Spielraum haben über den sich nichts sagen lässt, was Beispielsweise Photonen in diesem Bereichen machen bleibt allen ihnen (oder dem Zufall) überlassen, es ist alles möglich. Die Heisenbergsche Unschärferelation besagt, dass die Unbestimmtheit der Position eines Teilchens mal der Unbestimmtheit der Geschwindigkeit und der Masse des Teilchens nie einen bestimmten Wert unterschreiten darf: die Plancksche Konstante.
Feynman geht sogar einen Schritt weiter: das Einzige was er als Sicher annimmt ist das ein Teilchen sich zu einer gewissen Zeit sich an einem Ort A und zu einer anderen Zeit an einem Ort B aufhält. Wie es von A nach B kommt lässt Feynman offen, es gibt unzählige Wege die das Teilchen nehmen kann (die geradlinige Ausbreitung des Lichts ist zwar eine nette Möglichkeit anschauliche Graphen im Physikunterricht zu malen, entspricht aber von einem quantenmechanischem Standpunkt aus nicht den Tatsachen). Es kann den geraden Weg zwischen den beiden Punkten nehmen, aber auch eine Kurve einschlagen, aber genauso gut könnte ein Photon auf seiner Reise von einem Elektron absorbiert werden und etwas später (oder auch früher; sogar die Zeitrichtung die ein Teilchen nimmt, bleibt ihm überlassen) wieder emittiert werden. Ein Elektron könnte ein Photon emittieren, das in ein Elektron-Positron Paar zerfällt. Dieses Paar vernichtet sich wieder und trifft dann wieder als Photon auf das Elektron, wird von ihm absorbiert und beendet erst dann den Weg von A nach B. Das Einzige was uns übrigbleibt ist laut Feynman die Berechnung von Wahrscheinlichkeiten, mit denen man die Wege der Teilchen dann doch einigermaßen einschränken kann. Jeder Weg den das Teilchen einschlagen kann, bekommt in der Berechnung einen Pfeil, und jeder Pfeil hat eine bestimmte Richtung und eine bestimmte Länge. Die Richtung dieses Pfeils hängt von der Frequenz seines Lichts ab, und in welcher Wellenphase er an einem bestimmten Ort eintrifft. Ein Pfeil mit der Länge 1 hat eine Wahrscheinlichkeit des Quadrates seiner Länge, in diesem Fall also ein Wahrscheinlichkeit von 1, in Prozent ausgedrückt 100%, ein Pfeil mit 0,9 hat 81% etc.. Nun gibt es ja wie wir bereits wissen für ein Photon zahllose Wege und daher gibt es auch nicht so etwas wie einen 100% wahrscheinlichen Weg. Die Variationen der Pfeillängen hängt im Grunde davon ab mit wie vielen Teilchen unser beobachtetes Objekt interagiert. Jede dieser Interaktionen bewirkt eine Verkürzung, dabei wird der Pfeil mit der Kopplungszahl j (ca. 0,1) multipliziert.
Außer der Länge des Pfeils ist seine Richtung ausschlaggebend. Bei der Ermittlung der Richtung (dieser Vorgang ist zugegebenermaßen äußerst abstrakt und erscheint wirklichkeitsfremd) bedient sich Feynman eines Tricks: er stellt sich eine fiktive Uhr vor, deren Geschwindigkeit analog zur Frequenz des beobachteten Teilchens ist (je höher die Frequenz ist um so schneller dreht sich die Uhr). In dem Moment, in dem das Teilchen mit einem anderen gekoppelt wird, bleibt die Uhr stehen (dieser Zustand entspricht der Phase der Welle in genau diesem Moment) und je nachdem in welche Richtung der Zeiger zeigt Zeichnen wir unser Pfeilchen auf.
Wozu nun diese mühsame Pfeilzeichnerei? Das tolle an den Pfeilen ist das man sie "addieren" und "multiplizieren" kann (so die Fachausdrücke für den folgenden Vorgang) kann. Möchte man die Wahrscheinlichkeiten einiger Wege der Teilchen kombinieren, oder einfach nur möglichst viele Wege berücksichtigen, kann man die ermittelten Pfeile aneinander zeichnen. Aus der Reihenfolge in der man sie zeichnet, ergibt sich eine meist kurvige Pfeilchenfolge. Als nächstes verbinden wir den Schaft des ersten Pfeils mit der Spitze des Letzten, die resultierende Gerade nehmen wir zum Quadrat und was wir erhalten ist die Wahrscheinlichkeit des kompletten Vorgangs (addieren). Wenn wir uns einen Vorgang ansehen bei dem es darauf ankommt, mehrere Stationen ein und des selben Weges zu berücksichtigen, multiplizieren wir die Amplituden (Länge der Pfeile). Nun können wir auch mehrere dieser multiplizierten Pfeile addieren, womit wir wieder zu einem Diagramm mit vielen Pfeilchen die aneinander hängen kommen. Auf diese Weise ist es Feynman gelungen Brechung, Beugung und Reflexion neu zu beschreiben.
Das beste Beispiel für die Totalreflexion ist der Spiegel, dem wir uns zunächst einmal widmen wollen.
Wie wir es aus der klassischen Physik kennen ist der Einfallswinkel gleich dem Ausfallswinkel. Das kann nur dann der Fall sein, wenn das Licht den kürzesten Weg geht. Hier kommt die berechtigte Frage: warum sollte es, was zwingt es dazu? Woher weis es was der kürzeste Weg ist? Feynman behauptet, dass all diese Fragen überflüssig sind, da das Licht sowieso tut wozu es Lust hat. Es erscheint uns lediglich so als ob sich das Licht geradlinig ausbreitet:
Die Randteile des Spiegels reflektieren das Licht ebenso wie die, die weiter im Zentrum liegen und unserer Logik nach für die Reflexion verantwortlich sind. Das Licht vom Rand des Spiegels hat einen viel längeren Weg als das, welches den direkten Weg geht. Daher werden sich die Pfeile, die den Weg des Lichts an den Randbereichen beschreiben, gegenseitig aufheben (der Weg wird überproportional größer je weiter weg das Licht von der "Ideallinie" entfernt ist), da die fiktive Stoppuhr annähernd in die entgegengesetzte Richtung zeigt (das "Aufheben" ist ein abstrakter Begriff, der die Pfeile auf dem Blatt Papier beschreibt, doch in Wirklichkeit entspricht es der negativen Interferenz). Je weniger der Richtungsunterschied der Pfeile, d.h. je geringer die Wegunterschiede der Photonen werden, desto mehr wirkt sich dieser letztendlich auf die resultierende Linie, mit der die Wahrscheinlichkeit berechnet wird aus. Jeder Lichtstrahl hat seine Nebenpfade, die annähernd die gleiche Zeit brauchen wie der gerade Strahl. Wenn wir einem Spiegel nicht genug Platz geben um seine Nebenpfade zu benützen wird er uns kein Spiegelbild geben, sondern verstreut das Licht in alle Richtungen. Dieser Vorgang hat wenig mit der eigentlichen Streuung zu tun, sondern viel mehr mit der Beugung.
Wie wir also sehen können spielen die Bereiche am Rand des Spiegels sehr wohl eine Rolle, nur fallen sie nicht ins Gewicht (klingt zwar sehr unlogisch, ergibt aber doch Sinn).
Man könnte nun meinen, dass es zwar einen nette Geste ist, diesem Teil des Spiegels eine Bedeutung zuzuschreiben, aber es ist doch im Grunde nichts weiter als eine Gedankenspielerei. Feynman beweist seine Theorie jedoch auf eine sehr verblüffende Art:
Bei diesem Experiment wird ein großer Spiegel so platziert, dass die Reflexion von Punkt A nach Punkt B nicht funktioniert. Klassisch kann man sich das so vorstellen, dass der geradlinige weg zwischen A und B irgendwie versperrt ist, quantenmechanisch ergibt sich diese Nicht-Reflexion dadurch, dass die Pfeilchen aneinandergereiht einen Kreis ergeben.
Unterteilt man den Spiegel nun in vier Teile und schneidet z.B. den zweiten und vierten Teil raus, ändert sich nach der klassischen Theorie gar nichts. Doch bei der quantenmechanischen Betrachtung offenbart sich Unglaubliches: die Teile des Lichts, die sich beim kompletten Spiegel gegenseitig aufgehoben haben, erreichen nun ihr Ziel plötzlich ihr Ziel. Anstatt einem Kreis ergeben die Pfeile zwei, nebeneinander liegende Halbkreise. Die resultierende Wahrscheinlichkeits-Gerade ist zwar nicht sonderlich lang, aber Fakt ist, dass Licht Punkt B erreicht, vorausgesetzt man zerstückelt den Spiegel vorher. Das klingt zwar verrückt, aber solche Spiegel gibt es wirklich, man nennt sie Beugungsgitter. Sie funktionieren logischerweise jeweils nur für eine Wellenlänge, da bei einer Anderen die Wellen wieder negativ interferieren würden. Strahlt man weißes Licht auf eine gerillte Oberfläche (wenn man z.B. eine Schallplatte schräg gegen die Sonne hält), bricht es sich in seine Spektralfarben auf.
Auch die Brechung am dichteren Medium kann mit der Quantentheorie logisch erklärt werden. Die einfachste Erklärung ist, dass Licht im Wasser ja scheinbar langsamer ist als in der Luft und daher die Wahrscheinlichkeit höher ist, dass mehr Photonen an einem Ort im Wasser ankommen, wenn sie denn schnellsten Weg dorthin nehmen.
Der schnellste Weg zu einem Punkt im Wasser, ist der Kompromiss zwischen dem kürzesten Weg und dem der am kürzesten im Wasser läuft. Auch wenn diese Darstellung nicht ganz korrekt ist, so ist gibt sie einem wenigstens eine gut nachvollziehbare Erklärung wie die Brechung der Quantenmechanik funktioniert.
An dieser Stelle möchte ich den Aufbau der Atome fortsetzen, da er wichtig ist um zu verstehen wie Beispielsweise die Brechung zum dichteren Medium oder die partielle Reflexion wirklich funktionieren (nach quantenmechanischer Ansicht). Als Anschauliches Beispiel nehmen wir uns wieder das Wasserstoff Atom her. Wir nehmen jetzt einmal an, dass das Proton im Kern stationär ist, und von einem Elektron umgeben ist. Die Position die dieses Elektron dabei hat ist nicht definiert, es kann sich innerhalb eines gewissen Rahmens überall aufhalten, d.h. von Bahnen kann nicht die Rede sein. Das Elektron ist "unscharf" und es macht auch daher keinen Sinn sich den Kopf zu zerbrechen wo und mit welcher Distanz zum Proton es sich bewegt, es ist für uns nicht klar definiert und vermittelt uns den Eindruck einer Welle. Der Grund weshalb sich das Photon in der Nähe des Protons aufhält ist der, dass sie Photonen austauschen. Natürlich kann das Elektron auch Photonen von außen absorbieren, was dann zu dem führt, was Bohr einen Zustand höherer Energie beschreibt, und es früher oder später wieder emittieren (führt zu einem Zustand niedriger Energie). So, oder so ähnlich kann man sich auch kompliziertere Atome vorstellen, nur muss man dabei aufpassen, dass die Elektronen auf ihrer Umlaufbahn nicht negativ interferieren.
So erklärt sich dann auch das scheinbar langsamere Licht im Wasser: dadurch das ein Photon im Wasser auf viel mehr Atome trifft als in der Luft, muss es mehr Wege innerhalb von Atomen zurücklegen (bis es wieder "freigelassen" wird) und braucht somit länger.
Bisher habe ich ausgelassen zu erklären wie man denn auf die Länge eines solchen Pfeils kommt, der dann je nach Route dementsprechend verkürzt wird. Feynman nennt diesen Pfeil (wenn es sich um ein Photon handelt) P(A nach B) und er hängt von der Differenz der Zeit und der Entfernung zwischen Punkt A und B ab. Wir dürfen jetzt nicht vergessen, dass sich A und B in verschiedenen Zeiten befinden daher nimmt man für die Berechnung der Differenz der Entfernung die neutralen Punkte X1 und X2 . Die Rechnung lautet, angenommen das Photon nimmt den Primitivsten Weg von A nach B, und das ganze mit Lichtgeschwindigkeit (ein Photon hat auch Amplituden sich langsamer oder schneller als mit Lichtgeschwindigkeit auszubreiten, die sich im Endeffekt, auf längere Distanzen, gegenseitig aufheben. Auf kurze Distanzen jedoch können diese Geschwindigkeitsunterschied entscheidend sein.):
(X1 - X2) und (T1 - T2). Bei den beschriebenen Bedingungen erreicht man von allen Möglichkeiten den größten Betrag, doch wird sich dieser nie mit den experimentell Beobachtbaren Daten decken. Je mehr Wege wir in unsere Berechnungen mit einschließen und addieren, umso genauer wird das errechnete Ergebnis, doch wird es nie 100%ig mit den Messdaten übereinstimmen (wenn doch ist es nichts weiter als purer Zufall), da es unendlich viele Möglichkeiten gibt die das Licht zufälligerweise wahrnimmt.
Wie diese Möglichkeiten konkret aussehen werde ich später noch anhand einiger Graphen veranschaulichen.
Dieses einfache Experiment wurde zum ersten Mal 1802 von dem englischen Physiker Thomas Young realisiert und diente als Grundlage für die Wellentheorie. Jagt man monochromatisches Licht durch zwei schmale Schlitze entstehen nach klassischer Vorstellung, aufgrund der Beugung neue Kugelwellen, welche dann je nach Frequenz früher oder später mit den anderen Kugelwellen interferieren. Daher ergibt sich dann auf einem Auffangschirm ein gestreiftes Muster, das mit Teilchen nicht erklärbar ist.
So weit ist alles klar, nun haben aber jüngere technische Errungenschaften diesem Experiment eine neue Dimension geben, die das Ergebnis auf einmal absurd erscheinen lassen.
Feynman bedient sich furchtbar gerne seinen Photonendetektoren (basierend auf dem Photoeffekt), also tauschen wir zunächst den Auffangschirm mit einem solchen Gerät im Punkt D. Die Lichtquelle L befindet sich in gleicher Höhe mit dem Detektor und zwischen ihnen ist der Schmale Spalt S und schließlich, nicht auf der Höhe der Lichtquelle liegend, der schmale Spalt A. Wir wissen ja, dass sich Feynman die Photonen als neugierige Teilchen vorstellt, die sich nicht gerne immer geradlinig ausbreiten sondern gerne auch auf Nebenbahnen. Wenn man den Photonen nicht genug Platz lässt sich auf diesen Bahnen fortzubewegen, werden plötzlich all die Wege wichtig denen man normalerweise keine Bedeutung geben muss. Das merkt man daran, dass wenn man den schmalen Spalt S zumacht, das Licht sich in der selben Wahrscheinlich über den Umweg über A nach D bewegt.
Nun treten die bekannten Interferenzen auf, die Wahrscheinlichkeiten, dass Licht in D ankommt schwankt je nach Abstand der Spalt zwischen 0% und 4% (das Experiment funktioniert auch mit Elektronen, die ja Massereich Teilchen sind!). Da man ja auch nachgewiesen hat, dass das Licht beide Spalte benützt (selbst einzelne Photonen oder Elektronen interferieren mit sich selbst), könnte man folgern, dass das Licht beide Spalte gleichzeitig benützt (sonst gebe es keine Interferenzen, und die Wahrscheinlichkeit wäre konstant höher als wenn nur ein Spalt geöffnet wäre, was ja nicht der Fall ist). Um das Nachzuweisen platziert man in jeden Spalt einen Photonendetektor, und wartet, dass beide gleichzeitig klicken. Sie klicken aber nie gleichzeitig, sondern immer nur der Eine oder der Andere. Nun haben wir das, was wir uns eigentlich von einem Teilchen erwartet hätten: die Wahrscheinlichkeit, dass ein Photon in D ankommt hat sich verglichen mit der, wenn nur ein Spalt geöffnet wird, verdoppelt.
Das Ergebnis dieses Experiments ist äußerst verwirrend, man neigt dazu dem Licht ein Bewusstsein zuzuschreiben, da man sich nicht erklären kann woher es weiß ob ein Detektor im Spalt platziert ist oder nicht. Lässt man dem Licht beide Möglichkeiten offen, wird es diese auch nützen, es nimmt Wellenform an. Will man jedoch wissen, welchen Spalt es benützt, zwingt man das Photon sich für einen der beiden Wege zu entscheiden.
Das Doppelspalt-Experiment beinhaltet die Essenz der Quantenmechanik, es veranschaulicht und beweist die absurde Theorie am besten. Sie gibt dem Beobachter mehr Bedeutung als dem vielleicht lieb ist, denn er verändert mit seiner Beobachtung bereits den Verlauf des Experiments.
Hinsichtlich des Doppelspaltexperiments stellt sich die Frage, ob es reicht Photonendetektoren in die Spalte zu stellen um aus der Welle ein Teilchen zu machen, oder ob jemand dabei sein muss um das Ergebnis zu analysieren. Es ist meiner Ansicht nach auch fraglich, ob jemand, der nie in die Schule ging und sich auch über Licht und seine Beschaffenheit nie den Kopf zerbrochen hat, die Welle zu einem Teilchen macht. Auf der einen Seite ist ihm der Sinn der Versuchanordnung Schleierhaft, noch weiß er was von der Apparatur zu erwarten ist, für das Licht besteht also eigentlich keine Veranlassung sich zu "verstellen". Auf der anderen Seite reicht vielleicht schon allein die Möglichkeit, dass jener Mensch einem Anderen, der dieses Experiment interpretieren kann erzählt, um die Welle zu einem Teilchen zu machen, so dass dieser quasi zum passivem Medium der Beobachtung wird.
Die Frage Einsteins, ob sich das Universum verändert, wenn es von einer Maus beobachtet wird bleibt ungeklärt und lässt genügend Raum für abendfüllende Diskussionen (meine Meinung ist "Nein", aber ich will hier jetzt nicht näher darauf eingehen *g*).
Der Laser:
Mit einem Laser ist es möglich, auch über große Distanzen kohärentes Licht zu erzeugen. Im Gegensatz zu heißen Lichtquellen (schwarze Strahler), senden Laser nur in einem Frequenzbereich (monochromatisch).
Zur Erklärung der Funktionsweise eines Lasers eignet sich am besten das Borsche Atommodell. Atome werden angeregt und so in einen Zustand höherer Energie gebracht bis das stimulierte Lasermedium ein Photon ausstrahlt, dieses wird dann mittels einer komplizierter Anordnung von Spiegeln (Resonator) mit dem Lasermedium rückgekoppelt, bis das Licht gebündelt genug ist.
Durch die Abkühlung von einigen Ionen auf wenige Millionstel grad über den Nullpunkt, ist es gelungen sogenannte Mini-Kristalle zu erzeugen, die man als Lasermedium verwenden kann. Mit diesem Laser kann das Photonen-Bunching zu vermieden werden. Darunter versteht man die Wahrscheinlichkeit, dass die Photonen nicht gleichmäßig ausgesendet werden, sondern dass Einem gleich ein Nächstens folgt, bei nicht-klassischem Licht (dem der Mini-Kristalle) ist diese Wahrscheinlichkeit gleich null. man nennt das anti-Bunching (man spricht auch von einer"Sub-Poisson Verteilung", da Poisson die Verteilung von Photonen einer perfekten Welle beschrieben hat, und diese bei nicht-klassischem Licht sogar noch unterschritten wird). Eine weitere Eigenschaft nicht klassischen Lichts, ist das es quantisiertes ist. Wenn zwei Photonendetektoren nebeneinander aufgestellt werden, und Beide Quanten registrieren handelt es sich um klassisches Licht (Welle), bei nicht klassischem treffen die Photonen nur in einem Detektor auf. Anfangs dachte man, dass diese neue Technologie hervorragend für die Nachrichtenübertragung genützt werden könnte, da bei solch regelmäßigem Licht weniger Informationen verloren gehen. Es hat sich aber früh gezeigt, dass diese Technologie noch zu unausgereift ist um wirklich genützt zu werden, da das Licht der Mini-Kristalle zu schwach ist und außerdem sehr leicht kaputt geht (d.h. leichte Störungen führen zur Vernichtung der erwünschten, nicht-klassischen Eigenschaften). Wissenschaftler glauben (möglicherweise ist solch ein Versuch auch schon gelungen), dass sie bald einzelne Atome isolieren und kühlen können um damit ein mögliches Lasermedium zu erzeugen. Ein Einsatzgebiet für solche Laser, könnte eine neue Generation Computer-Prozessoren werden, die Anstatt mit 1 und 0, mit angeregten und nicht angeregten Atomen rechnen, doch solche Ideen sind noch Zukunftsmusik.
Die Theorie, für ein solches Experiment existiert schon länger (ein Experiment dazu wurde erstmals 1935 von Einstein, Podolsky und Rosen vorgeschlagen, daher werden sie EPR-Experimente genannt), aber der erste erfolgreiche Versuch dazu gelang erst 1993(?) dem Team von Anton Zeilinger der Universität-Innsbruck.
Für das Erstellen der Theorie für dieses Experiment, hat man angenommen, dass zwei Photonen, die aus dem selben energiereicheren Photon entstanden sind, in allen Punkten, außer ihrer Polarisation (90° zueinander) identisch sind (man nennt solche Photonen verschränkt). Gemäß der Quantendynamik können die beiden Photonen jede Eigenschaft annehmen, bis man sie anhand eines anderen Photons analysiert, wobei es gleich ist, welches der Beiden man dazu hernimmt. In dem Moment, in dem der Zustand eines Photons festgestellt wird, ist auch der des Zweiten festgelegt. Die Information des ersten Photons hat sich in unendlicher Geschwindigkeit aufs Zweite übertragen.
Referate über:
|
Datenschutz |
Copyright ©
2024 - Alle Rechte vorbehalten AZreferate.com |
Verwenden sie diese referate ihre eigene arbeit zu schaffen. Kopieren oder herunterladen nicht einfach diese # Hauptseite # Kontact / Impressum |