wissen.de
Total votes: 242
BILDWB

Physik – unbelebte Natur hinterfragt

Niemand würde heute mehr bezweifeln, dass die Erde eine (annähernd) kugelförmige Gestalt besitzt, dass sie sich um die Sonne dreht und von dort mit unvorstellbaren Mengen an Licht und anderen Energieformen versorgt wird. Doch warum ist die Erde rund? Was hält sie auf ihrer Bahn? Was lässt die Sonne leuchten? Solche »Warum«-Fragen haben zu allen Zeiten Menschen dazu getrieben, sich mit physikalischen Problemen zu beschäftigen und immer ausgefeiltere Theorien als Erklärung zu entwickeln. Die Reihe reicht von den griechischen Philosophen über die Naturforscher im Barock bis zu den Nobelpreisträgern unserer Zeit, aber auch den Teilnehmern am Wettbewerb »Jugend forscht«, kleinen Kindern und schlichtweg allen Menschen, die mit Neugier ihre Umwelt betrachten: Sie alle sind Meister in der Frage nach dem »Warum«.

Im Wahrig-Wörterbuch ist Physik die »Wissenschaft von den Gesetzmäßigkeiten der unbelebten Natur«. Bei den alten Griechen bedeutete physis »Natur, Naturkraft, Naturgeschehen«. Und tatsächlich ist auch heute noch die Erforschung der fundamentalen Naturkräfte wie Schwerkraft, Elektromagnetismus oder Kernkraft ein zentrales Anliegen der Physik, auch wenn man lieber von »Wechselwirkungen zwischen Objekten« spricht. Doch damals wie heute gibt es auch die praktische Seite: Von der Voraussage von Sonnenfinsternissen oder dem Bau von Mühlen und Pumpen über Dampfmaschine und Stromversorgung bis zu Computer und Sonnenkollektoren – stets haben physikalische Erkenntnisse sich auch unmittelbar auf den Alltag der Menschen ausgewirkt.

Doch Physik ist mehr. Physikalische Vorstellungen und Denkmodelle waren und sind für die Geistesgeschichte nicht weniger einflussreich als Luthers Bibelübersetzung, Goethes Gedichte oder Kants kategorischer Imperativ. Insbesondere Kopernikus' Weltbild mit der Sonne im Mittelpunkt, Einsteins Relativitätstheorie oder die immer noch Rätsel aufgebende Quantentheorie haben Denken und Sprache der Menschen verändert. Selbst in der Umgangssprache finden sich Sätze wie »Alles ist relativ« oder das Modewort vom »Quantensprung«.

Geniale Wissenschaftler: Die Stars der Physik

Wer ist der berühmteste Nachfolger Isaac Newtons?

Stephen Hawking, heutiger Inhaber von Newtons früherem Lehrstuhl. Hawking wurde am 8. Januar 1942 geboren, auf den Tag genau 300 Jahre nach dem Tod Galileo Galileis. Er studierte bereits mit 17 Jahren Physik und Chemie in Oxford und ging nach seiner Promotion an die Universität Cambridge, wo er seit 1973 Theoretische Physik lehrt. Sein Spezialgebiet ist die Kosmologie, die Wissenschaft, die Entwicklung und Strukturen des Weltalls beschreibt. Er verbesserte die Theorie der Entstehung des Weltalls (»Urknall«) und fand heraus, dass extrem verdichtete Materie, die beim Urknall sowie in Schwarzen Löchern auftritt, völlig unerwartete Eigenschaften hat.

Bekannt wurde Hawking durch seine populärwissenschaftlichen Werke (»Eine kurze Geschichte der Zeit«, 1988, und »Das Universum in der Nussschale«, 2001), aber auch, weil er trotz einer unheilbaren Krankheit forscht, Vorlesungen hält und in der Öffentlichkeit auftritt. Er leidet an amyotropher Lateralsklerose (ALS), welche die Bewegungsnerven angreift und mit der Zeit zur völligen Lähmung mit Herz- und Atemstillstand führt. Mit Ausnahme der Augen hat er schon jede Bewegungsmöglichkeiten verloren. Er kommuniziert über einen speziellen Computer, der seine Augenbewegung erfasst. Hawkings 2005 erschienenes Buch »Giganten des Wissens« handelt von fünf großen Physikern, die unser westliches Weltbild am meisten geprägt haben: Kopernikus, Galilei, Kepler, Newton und Einstein.

Wer war der erste Superstar der Physik?

Albert Einstein (1879–1955), der als der bedeutendste Physiker des 20. Jahrhunderts gilt. Nachdem seine Allgemeine Relativitätstheorie (veröffentlicht 1916, die Spezielle Relativitätstheorie veröffentlichte er schon 1905) bei der totalen Sonnenfinsternis von 1919 glänzend bestätigt worden war, überschlug sich die Presse fast mit ihrer Berichterstattung über die unverständliche Theorie und ihren merkwürdigen Urheber – dem das durchaus gefiel. Als Einstein dann 1921 den Nobelpreis erhielt, übrigens nicht für seine Relativitätstheorie, sondern für seine ebenfalls 1905 erschienene Deutung des Lichtelektrischen Effekts, hatte er in der Öffentlichkeit endgültig das Image des genialen, aber unverständlichen Professors.

Als entschiedener Gegner der Faschisten kehrte Einstein 1933 nicht mehr von einer USA-Reise in das nationalsozialistische Deutschland zurück. Er wurde Professor in Princeton (USA), wo er an einer allgemeinen Feldtheorie aller bekannten Kräfte arbeitete.

Der Pazifist Einstein setzte sich für das friedliche Miteinander der Menschen ein. Dennoch wies er zusammen mit anderen Physikern den US-Präsidenten 1939 auf die Möglichkeit einer Atombombe hin – was mit zu ihrer Entwicklung führte. An der Realisierung war er jedoch nicht beteiligt.

Wer gab dem Weltall seine heutige Größe?

Der US-amerikanische Astronom Edwin Powell Hubble (1889–1953). Er untersuchte 1923 am damals weltgrößten Observatorium, dem Mt. Wilson Observatory in Kalifornien, den Andromeda-Nebel und fand dort einen sog. Cepheidenstern (Kennzeichen: im festen Rhythmus schwankende Helligkeit). Daraus berechnete er die Entfernung des Andromeda-Nebels. Mit weit über eine Million Lichtjahren war sie erheblich größer, als nach damaliger Lehrmeinung der Durchmesser des ganzen Universums sein sollte.

Hubbles folgenreichste Entdeckung aber ist die, dass die Wellenlänge von Licht ins Rote verschoben wird, wenn sich der das Licht aussendende Himmelskörper mit hoher Geschwindigkeit von uns entfernt. Aus dem Ausmaß dieser »Rotverschiebung« lässt sich die Geschwindigkeit direkt errechnen. Die eigentliche Sensation ergab sich aber erst, als Hubble Entfernung und Geschwindigkeit vieler Spiralnebel ermittelt hatte: Je weiter sie von uns entfernt sind, desto schneller bewegen sie sich von uns fort. Er folgerte, dass sich das Weltall als Ganzes ausdehnt und dass es vor vielen Milliarden Jahren in einem unendlich dichten und heißen Urzustand seinen Anfang genommen haben muss. Das war der erste beobachtbare Hinweis auf den »Urknall«.

Wer entdeckte, dass die Natur Sprünge macht?

Der deutsche Physiker Max Planck (1858–1947), der 1900 bei Untersuchungen zur Strahlung submikroskopischer Körper die Quantelung der Energie entdeckte. Energie wird von solchen Körpern (zu denen die Atome zählen) nicht kontinuierlich, sondern in winzigen Portionen, den Quanten, abgegeben. Dies bildete die Grundlage für die neben der Relativitätstheorie zweite große physikalische Theorie des 20. Jahrhunderts, die Quantenmechanik. – Stetige Würdigung erfährt Planck als Namensgeber der Max-Planck-Gesellschaft.

Wussten Sie, dass …

Einstein gar nicht so unpraktisch und abgehoben war, wie er oft dargestellt wird? Er hat 1930 sogar einen neuartigen Kühlschrank erfunden.

Einstein zwar die Lichtquantenhypothese aufgestellt hat, die Folgerungen, dass es in der Quantenmechanik nur statistische Aussagen gibt, aber nicht mittragen wollte? In diesem Zusammenhang fiel der berühmte Satz »Der Alte (bzw. Gott) würfelt nicht.«

Einstein mit seiner Theorie von der induzierten Lichtemission auch die Grundlage für den Laser schuf?

man Stephen Hawking auch als »Popstar der Physik« bezeichnen könnte? Auf dem Pink-Floyd-Album »The Division Bell« (1994) spricht er mithilfe seines Sprachcomputers die einleitenden Worte zu dem Stück »Keep Talking«.

das Hubble-Weltraumteleskop nach Edwin Hubble benannt ist? Da es von der Erdatmosphäre ungestört ist, kann es feinste Details auch sehr entfernter Planeten und Sternsysteme aufnehmen.

das Hubble-Weltraumteleskop anfangs einen »Sehfehler« hatte? Durch einen Fabrikationsfehler war der Rand des 2,4 m großen Spiegels um 2,5 μm verbogen. Ende 1993 reisten zwei Astronauten im Spaceshuttle ins All und korrigierten den Fehler.

Kräfte und Energien: Grundbegriffe der Physik

Was ist Kraft?

Eine Kraft erkennt man nur an ihrer Wirkung. In unserem Alltag erfahren wir Kräfte, indem sie die Geschwindigkeit oder die Bewegungsrichtung von Gegenständen verändern. Man spricht von der Kraft eines Automotors, der Schwerkraft, von Reibungskräften und von der Superwaschkraft. Alle diese Kräfte bewirken etwas: schnellere Fahrt, den Fall von Obst oder eine Trennung von Schmutz und Stoff.

Die Beschleunigung eines Körpers ist umso stärker, je stärker die angreifende Kraft ist. Andererseits bewirkt die gleiche Kraft bei einem schweren Körper eine schwächere Beschleunigung als bei einem leichten. Dass ein Körper beim Einwirken einer Kraft nicht zerstört wird, verhindern andere Kräfte, etwa diejenigen die zwischen Atomen herrschen.

Gemessen werden Kräfte u. a. durch die Wirkung, die sie auf Federn ausüben. Diese werden gedehnt oder gestaucht, je nachdem, wie die Kraft auf die Feder wirkt, bis sich ein Gleichgewicht zwischen den inneren Kräften in der Feder und der äußeren Kraft einstellt. Auch die Waage beruht auf diesem Prinzip.

Die moderne Physik führt solche alltäglichen Kräfte auf die Wirkung von Kräften im Inneren von Molekülen und Atomen und zwischen Elementarteilchen zurück: Wenn zwei solche Teilchen aufeinander eine Kraft ausüben, dann tauschen sie untereinander spezielle sog. Wechselwirkungsteilchen aus (dass die sich in der Regel mit Lichtgeschwindigkeit fortbewegen, sei nur erwähnt). Eine abstoßende Kraft zum Beispiel kann man sich wie die Kraft vorstellen, die zwei Menschen spüren, die sich eine schwere Kugel zuwerfen: Sowohl beim Abwerfen als auch beim Fangen erfahren die beiden Menschen je eine Kraft, die sie auseinander treibt.

Wie viele Kräfte gibt es?

Zurzeit kennt die Physik vier verschiedene Grundkräfte: die Gravitation, die Elektromagnetische Kraft, die Schwache und die Starke (Kern-)Kraft.

Die Gravitation (Schwerkraft), die schwächste aller Kräfte, wirkt zwischen Massen. Sie wirkt als einzige Kraft stets anziehend – es gibt keine »Antigravitation« (höchstens in der Science Fiction). Daher ist sie bei großen Entfernungen, z. B. im Weltall, das dominierende Phänomen. Das für die Gravitation notwendige Wechselwirkungsteilchen, das Graviton, konnte allerdings noch nicht gefunden werden. Der Grund: Die Entfernungen, über die wir Menschen bislang Messungen vornehmen können und auch die Massen, die wir dabei aufeinander wirken lassen, sind sehr klein, zu klein, als dass heutige Geräte die minimale Wirkung von Gravitonen feststellen könnten.

Die Elektromagnetische Kraft wirkt zwischen elektrisch geladenen Teilchen. Verglichen mit der Gravitation ist sie sehr stark. Allerdings existieren sowohl abstoßende Kräfte (zwischen gleichnamigen Ladungen) als auch anziehende Kräfte (bei ungleichnamigen Ladungen). Sie bewirkt den Zusammenhalt – oder das Trennen – von Molekülen und somit alle Reaktionen der Chemie.

Die beiden weiteren Kräfte unterteilen sich in Schwache und Starke (Kern-)Kraft. Sie treten nur bei äußerst kleinen Abständen auf und liegen unter anderem radioaktiven Zerfallsprozessen zugrunde. Wichtig sind sie in der Theorie der Elementarteilchen.

Kann man Energie vernichten?

Nein, denn das Besondere an Energie ist, dass sie zwar in vielen verschiedenen Formen auftritt – z. B. als Rotationsenergie, Bewegungsenergie, Reibungsenergie, Wärmeenergie usw. –, dass diese sich aber nur ineinander umwandeln lassen, sie können nicht verloren gehen. Diese Erkenntnis, die sog. Energieerhaltung, ist eines der wichtigsten Naturgesetze.

In jedem Körper stecken enorme Energiemengen: Wenn sich beispielsweise ein Kohlenstoffkügelchen mit einer Masse von einem Gramm einmal pro Sekunde um sich selbst dreht, hat es eine Rotationsenergie von 2 J (Joule) oder 0,002 kJ (Kilojoule). Wird dieses Gramm Kohlenstoff bei Zimmertemperatur und normalem Luftdruck um zehn Grad erwärmt, so wird ihm eine Wärmeenergie von etwa 0,007 kJ zugeführt.

Bringt man das Gramm Kohle in den dritten Stock eines Gebäudes, das heißt auf zehn Meter Höhe, so gewinnt es eine Gravitationsenergie von etwa 100 J oder 0,1 kJ. Wenn das Kohlestück von dort auf den Erdboden fällt, wird diese Energie während des Fluges in Bewegungsenergie umgewandelt. Am Boden geht sie durch den Aufprall in Deformations- (Verformungs-) und Wärmeenergie über.

Wenn man das eine Gramm Kohle dagegen verbrennt, so wird eine (chemische) Energie von 36 kJ frei, also ein Vielfaches der im letzten Absatz angesprochenen Schwereenergie. Und wäre es möglich, die gesamte Masse des Kohlekörnchens nach Einsteins berühmter Formel E = mc² in Strahlungs- oder Wärmeenergie umzuwandeln, so ergäbe sich die unvorstellbar große Energiemenge von 9 • 1010 kJ. Damit könnte der Bedarf an elektrischer Energie einer Millionenstadt wie Berlin etwa 23 000 Jahre lang gedeckt werden!

Wussten Sie, dass …

zwei gleich große Kräfte nicht im Gleichgewicht stehen müssen? Wenn sie teilweise in dieselbe Richtung wirken, erzeugen sie eine Verschiebung, wenn sie an zwei verschiedenen Punkten angreifen, rufen sie eine Drehung hervor.

man nur als Mitfahrer die Fliehkraft beispielsweise eines Karussells wahrnehmen kann, dass ein außen stehender Zuschauer sie aber nicht spürt?

die Gewichtskraft eines Gegenstands vom Ort abhängt? Man kann diese (auf der Erde allerdings nur winzigen) Unterschiede nutzen, um Lagerstätten von Bodenschätzen zu finden.

Hieß Energie schon immer Energie?

Nein. Der Begriff wurde im 18. Jahrhundert aus dem Französischen entlehnt, und er bedeutet dort wie hier ursprünglich so viel wie »wirkende Kraft« und kann auf das griechische »ergos« (Arbeit) zurückgeführt werden. Damit wollte man die Energie begrifflich von der Kraft unterscheiden. Was genau unter Energie und Kraft zu verstehen ist, klärte sich erst im Lauf des 19. Jahrhunderts. Das Werk von Hermann Ludwig Ferdinand von Helmholtz (1821 – 1894) über die Energieerhaltung aus dem Jahre 1847 trug zum Beispiel noch den Titel »Über die Erhaltung der Kraft«.

Relativitätstheorie: Ganz schön abstrakt

Ist alles relativ?

Im Prinzip ja, doch es gibt eine Ausnahme: die Lichtgeschwindigkeit. Anders als in der klassischen Newton' schen Vorstellung sind nach Albert Einsteins Relativitätstheorie Zeit, Raum und Masse veränderlich, also »relativ«. Sogar die Frage, ob zwei Ereignisse gleichzeitig ablaufen oder nicht, ist nach Einstein vom Bewegungszustand des Beobachters abhängig. Die Lichtgeschwindigkeit hingegen, die für Newton davon abhängig war, ob man sich auf eine Lichtwelle zubewegt, sich von ihr entfernt oder mit ihr »Schritt hält«, ist nach Einstein absolut unveränderlich. Und dies ist nicht nur eine theoretische Vorstellung, sondern wurde schon vor über hundert Jahren durch Präzisionsmessungen bestätigt: Die Lichtgeschwindigkeit ist in allen Richtungen gleich groß und unabhängig vom Bewegungszustand eines Beobachters.

Was ist Bewegung?

Ebenfalls eine relative Größe. Manchmal sitzen wir in einem Zug, der in einem Bahnhof steht und blicken auf einen direkt benachbarten Waggon. Bewegt sich einer der beiden Züge nur langsam, dann können wir zunächst nicht entscheiden, welcher Zug fährt: der, in dem wir sitzen, oder derjenige, den wir betrachten. Erst wenn eine Beschleunigung spürbar wird, wissen wir, dass unser Zug angefahren ist. Fehlt diese Beschleunigung, muss es der andere Zug sein. Unsere Beobachtung ist somit nicht absolut, sondern sie bezieht sich auf etwas, nämlich auf den Bewegungszustand unseres Wagens. Ein System, auf das man seine Beobachtungen beziehen kann, wird Bezugssystem genannt. Ein am Bahndamm stehender Beobachter würde, bezogen auf seine Umgebung, etwas anderes beobachten. Er befindet sich in einem anderen Bezugssystem als wir.

Von ganz besonderer Bedeutung sind Bezugssysteme, die sich gleichförmig bewegen, die also nicht beschleunigt werden. Man spricht auch von Inertialsystemen. Auf den ersten Blick trivial, aber nicht selbstverständlich: Ein Abstand von einem Meter wird immer als ein Meter gemessen, egal, in welchem Inertialsystem man sich aufhält. Ebenso ist in einem solchen System eine Zeit von einer Sekunde überall genau eine Sekunde.

Ist schnell plus schnell gleich doppelt schnell?

Das gilt genau genommen nur in Inertialsystemen und hier auch nur, wenn die betrachteten Geschwindigkeiten klein im Vergleich zur Lichtgeschwindigkeit sind.

Eine in einem mit konstanter Geschwindigkeit x dahingleitenden Zug in Fahrtrichtung abgefeuerte Kugel besitzt bezüglich des Zuges zum Beispiel die Geschwindigkeit y. Ein Beobachter am Bahnsteig dagegen würde für die Kugel die Geschwindigkeit x + y messen (wenn er über das geeignete Messgerät verfügte). Zug und Bahnsteig sind beides Inertialsysteme: In ihnen sind daher die Maßstäbe für Länge (Raum) und Zeit identisch, und nur deswegen kann die Geschwindigkeit in dem einen System einfach zur Geschwindigkeit im anderen System addiert werden.

Kann man das Licht einholen?

Nein, und zwar weil die Lichtgeschwindigkeit konstant ist. Im Vakuum beträgt sie 299 792 km/s. Albert Einstein erkannte das revolutionäre Potenzial dieses Resultats: Wenn ich bei Licht, dem ich »entgegenfliege«, genau die gleiche Geschwindigkeit messe wie bei Licht, dem ich »hinterhereile«, dann können die bisherigen Vorstellungen von Zeit, Raum und Geschwindigkeit nicht stimmen. Einstein zog die radikale Konsequenz, dass diese Größen nicht absolut definiert werden können. Stattdessen hängen die Dauer eines Vorgangs, die Größe eines Körpers und die Frage, ob Prozesse gleichzeitig ablaufen oder nicht, vom Bewegungszustand des Beobachters (oder abstrakt: vom Bewegungszustand des Bezugssystems) ab. Ein absolutes Bezugssystem (wie etwa den »Äther«) gibt es nicht. Das ist die Relativität, die Einstein meinte.

Laufen Uhren langsamer, wenn sie sich bewegen?

Ja. Dies ist eine der Konsequenzen des Relativitätsprinzips. Fliegt ein Raumschiff an einem Beobachter auf der Erde mit einer Geschwindigkeit knapp unter Lichtgeschwindigkeit vorbei, so scheint von ihm aus gesehen die Zeit auf dem Raumschiff langsamer zu vergehen (Zeitdilatation). Gleichzeitig erscheint dessen Länge dem Beobachter in Flugrichtung gestaucht (Längenkontraktion)! Das mag für unsere Ohren seltsam klingen, aber es ist eine der inzwischen vielfach überprüften Aussagen der Speziellen Relativitätstheorie. Äußerst erstaunlich ist auch, dass die Masse (!) und nicht etwa die Geschwindigkeit eines knapp unterlichtschnell fliegenden Objekts zunimmt, wenn man versucht, es zu beschleunigen. Solche Objekte sind Elementarteilchen in einem Beschleuniger (z. B. Elektronen); bei ihnen wurde die Massenzunahme tatsächlich gemessen. Zusammengefasst: Messungen zu Raum und Zeit sind abhängig davon, ob sich das Bezugssystem, von dem aus gemessen wird, bewegt oder nicht.

Ist Masse gleich Masse?

Ja und nein. Mit dem Begriff »Masse« werden eigentlich zwei ganz verschiedene Dinge bezeichnet: einerseits die »schwere Masse«, die die Ursache der Schwerkraft (auch Massenanziehung oder Gravitation genannt) ist, andererseits die »träge Masse«, die jeder Beschleunigung einen Widerstand entgegensetzt.

Einsteins Spezielle Relativitätstheorie erklärt die Natur von Zeit und Raum bei gleichmäßiger, unbeschleunigter Bewegung auf verblüffende Weise. Was passiert aber bei einer beschleunigten Bewegung, etwa beim freien Fall aufgrund der Massenanziehung zwischen Erde und fallendem Körper? Hier kompensieren sich Massenanziehung und Trägheit mit der Konsequenz, dass der Körper fällt (würde die Trägheit nicht kompensiert, bliebe der Körper in der Luft stehen). Einstein nahm diese scheinbar triviale Erkenntnis zur Grundlage seiner Allgemeinen Relativitätstheorie: »Schwere und träge Masse« sind dasselbe.

Daraus leitete er abstrakt ab, dass sich lokal nicht mehr entscheiden lässt, ob man von einer äußeren Kraft beschleunigt wird oder sich ruhend in einem Gravitationsfeld aufhält. Noch einschneidender ist sein Schluss, dass jede Masse den umgebenden Raum auf komplizierte Weise verzerrt, gleichzeitig vergeht die Zeit in der Umgebung einer großen Masse langsamer als bei einer kleinen Masse. So fantastisch die Verbiegung des Raums klingt: Schon kurz nach Bekanntwerden dieser Theorie wurde sie zweifelsfrei bewiesen. Zwei Astronomen beobachteten bei einer Sonnenfinsternis einen Stern, der sich in Wirklichkeit hinter der Sonne befand. Der Grund dafür liegt einfach darin, dass die Masse der Sonne den Raum derart krümmte, dass das Licht des Sterns um die Sonnenkugel herumgelenkt wurde. Heute dient dieser Effekt sogar zum Nachweis von Planeten um andere Sterne. Es geht aber noch kurioser. Diese Raumverzerrungen müssen nicht stationär bleiben, sondern können sich unter besonderen Umständen in alle Richtungen ausbreiten. Sie heißen dann Gravitationswellen. Einer ihrer möglichen Auslöser sind Schwarze Löcher.

Sind Masse und Energie das Gleiche?

Ja und nein. Einstein zeigte, dass Masse und Energie zwar nicht gleich, aber einander äquivalent sind. Jeder kennt die Formel:

E = mc²

Links steht die Energie E, rechts die Masse m und das Quadrat der Lichtgeschwindigkeit c. Theoretisch kann eine Masse vollständig in Energie umgewandelt werden. Genutzt wird diese Erkenntnis in Kernkraftwerken und Atombomben, wobei es mit den heutigen Techniken aber nur gelingt, einen Teil der Masse umzuwandeln.

Kann man Schwarze Löcher sehen?

Ja. Lange Zeit galten Schwarze Löcher als unbeobachtbar, weil sie keine Strahlung aussenden. Ihre hohe Schwerkraft wirkt aber auf ihre Umgebung. Sie beschleunigen z. B. nahe vorbeiziehende Sterne oder saugen Gaswolken auf. Letztere heizen sich dabei auf, so dass sie im Röntgenlicht zu beobachten sind. So verraten sich Schwarze Löcher dann doch.

Schwarze Löcher entstehen, wenn besonders massereiche Sterne am Ende ihrer Lebensdauer durch ihre eigene Schwerkraft zu einem Himmelskörper extremer Dichte zusammenfallen. In ihnen ist so viel Materie auf so kleinem Volumen konzentriert, dass die von ihnen ausgehende Schwerkraft sogar das Licht aufhält, das von ihnen entweicht. Deshalb der Name »Schwarzes Loch«. In Inneren eines Schwarzen Lochs hören Raum und Zeit in der uns bekannten Form auf zu existieren. Der Grund dafür ist ein sich selbst verstärkender Effekt: Durch die hohe Massenkonzentration wird der Raum um den Sternüberrest extrem gekrümmt. Dadurch sammelt sich noch mehr Materie an, wodurch aber auch die Gravitation anwächst. Das wiederum führt zu einer noch stärkeren Massenkonzentration in einem immer kleiner werdenden Volumen – vergleichbar mit den Verhältnissen zu Beginn des Universums, also beim »Urknall«.

Wie wird die Zeit »gemacht«?

Relativitätstheorie hin und Zeitdehnung her – im Alltag braucht man eine »genormte« Zeit. In Deutschland ist dafür die Physikalisch-Technische Bundesanstalt (PTB) in Braunschweig zuständig. Die Atomuhren der PTB sind die genauesten Uhren der Welt. Sie nutzen aus, dass Atome des Elements Cäsium unter bestimmten Bedingungen eine Radiowelle einer ganz bestimmten Frequenz ausstrahlen. Diese Frequenz wird elektronisch mit höchster Präzision gemessen. Und weil die Zeit der Kehrwert der Frequenz ist, bedeutet die exakte Frequenzmessung gleichzeitig die Ermittlung der amtlichen Zeit. Das Zeitsignal wird mit dem Langwellensender DCF77 in ganz Europa verbreitet. Und auch über das Internet kann das Braunschweiger Zeitsignal zur Synchronisation des PC-Prozessortakts herangezogen werden.

Wussten Sie, dass …

eine Konsequenz der Relativitätstheorie ist, dass schwingende Körper großer Masse sog. Gravitationswellen abstrahlen? Bislang sind sie allerdings noch nie direkt nachgewiesen worden.

man schon im Gravitationsfeld der Erde eine minimale Zeitdehnung nachweisen kann? Eine Uhr in 100 m Höhe über dem Erdboden geht pro Tag etwa eine milliardstel Sekunde schneller als eine Uhr direkt am Boden.

die Zeitdehnung merkliche Auswirkungen beispielsweise bei Satelliten hat? Bei der Auswertung von GPS-Signalen ist daher immer eine »relativistische Korrekturrechnung« nötig.

durch die Raumkrümmung das Licht sehr weit entfernter Sterne gesammelt werden kann? Die Astronomen sprechen von sog. Gravitationslinsen.

Wussten Sie, dass …

die Effekte, die die Relativitätstheorie voraussagt, ganz alltäglich wären, wenn die Lichtgeschwindigkeit nur 100 km/h betrüge? Wir würden dann bereits bei zügigem Radfahren einem Beobachter um einige Kilogramm schwerer und dazu in Fahrtrichtung deutlich gestaucht erscheinen.

Hatte Einstein Vorgänger?

Ja, den niederländischen Physiker Hendrik Antoon Lorentz (1853 – 1928), der schon mit 25 Jahren auf einen der ersten europäischen Lehrstühle für Theoretische Physik berufen wurde. 1875 erklärte Lorentz Lichtbeugung und Lichtbrechung mithilfe der Maxwell'schen Gesetze und zeigte 1895, dass eine elektrische Ladung, die sich in einem elektrischen oder magnetischen Feld bewegt, eine zusätzliche Kraft (»Lorentz-Kraft«) erfährt. Seine theoretischen Vorstellungen zur Struktur der Materie brachten ihm 1902 den Nobelpreis ein.

Zum Wegbereiter der Relativitätstheorie wurde Hendrik Lorentz mit einer mathematischen Beschreibung der Längenverkürzung und Zeitdehnung. Einstein griff diese auf, interpretierte sie aber anders. Lorentz war nicht nur Wissenschaftler, sondern bemühte sich auch um die Völkerverständigung in der schweren Zeit des Ersten Weltkriegs.

Atome, Kerne, Teilchen: Kleiner, immer kleiner

Sind Atome Elementarteilchen?

Nein. Atome bestehen aus einem Kern, der von einer Hülle aus Elektronen umgeben ist. Der Kern wiederum ist aus zwei Bausteinen aufgebaut: den Protonen (positiv geladenen Teilchen) und den Neutronen (neutral).

Atome sind schon winzig, der Atomkern ist zehntausendmal kleiner und Protonen und Neutronen sind noch eine Stufe kleiner. Trotzdem bestehen auch sie aus weiteren Teilchen, und zwar aus solchen, deren Größe man gar nicht angeben kann: den Quarks. Von denen gibt es sechs verschiedene Sorten, und zwei davon, das »Up-Quark« (u) und das »Down-Quark« (d), bilden in unterschiedlichen Kombinationen das Proton (uud) und das Neutron (udd). Das Besondere an Quarks: Als freie Teilchen existieren sie nicht, sondern nur als »eingeschlossene«. Sie sind überhaupt seltsam, denn die elektrische Ladung eines Quarks ist nicht ganz, sondern »gebrochen«: Sie beträgt immer entweder genau 1/3 oder genau 2/3 der Elementarladung (der Ladung des Elektrons).

Die Quarks bilden die eine Gruppe der »eigentlichen« Elementarteilchen (man spricht auch von Fundamentalteilchen). Das Elektron ist der wichtigste Vertreter einer zweiten Gruppe von Elementarteilchen, der Leptonen.

Gibt es einen »Kitt der Materie«?

Ja, das sind die Elektronen, denn sie bringen fast allein alle Erscheinungsformen der uns bekannten Materie hervor. Sie halten die Atome eines Körpers auf Abstand, neutralisieren die positive Ladung der Atomkerne, so dass sich Atome überhaupt zu Festkörpern zusammenfinden können, und sie bestimmen die unterschiedlichen Eigenschaften der chemischen Elemente sowie die Natur und Stärke der Bindungen, welche die Elemente untereinander eingehen. Dabei sind die Elektronen so winzig, dass noch nicht einmal ihr Durchmesser bekannt ist.

Können Fusionsreaktoren unseren Energiebedarf decken?

Ja, aber nicht in unmittelbarer Zukunft. Zwar können wir durch die Fusion (Verschmelzung) leichter Atomkerne Energie gewinnen – ganz so, wie die Sonne, die uns dies Tag für Tag vormacht: Sie setzt unvorstellbare Mengen an Energie durch die Fusion von Wasserstoffkernen frei. Der winzige Bruchteil, den sie davon jährlich auf die Erde strahlt, ist 7000-mal größer als der Jahresenergieverbrauch der Weltbevölkerung!

Leider gibt es aber auch nach 50 Jahren Fusionsforschung immer noch viele ungelöste technische Probleme. So muss der Fusionsbrennstoff auf über zehn Millionen Grad aufgeheizt werden, weil erst dann Kernverschmelzungen möglich sind. Er darf dabei die Wände der Brennkammer nicht berühren. Dieser extreme, Plasma genannte Materiezustand konnte zwar in Testreaktoren wie dem »Joint European Torus« (JET, Culham) erreicht werden, allerdings immer nur für kurze Zeit. Die Frage nach einer möglichen radioaktiven Belastung der Umwelt stellt sich bei Fusionsreaktoren zwar auch, ist aber wegen der kurzen Halbwertszeiten der radioaktiven Materialien (z. B. 2,73 Jahre für Eisen-55) nicht so brisant wie bei Kernkraftwerken. Radioaktiv werden v. a. die aus Metall bestehenden Wände.

Was ist Kernspaltung?

Enthält ein Atomkern zu viele Protonen, ist er wegen deren gegenseitiger elektrischer Abstoßung instabil. Solche Kerne wandeln sich in stabile um, indem sie kleine Teilchen (»♋-«oder »♌-Teilchen«) und hochenergetische Strahlung (»♑-Quanten«) aussenden.

Einige schwere Kerne, zum Beispiel Uran-235 oder Plutonium-239, spalten sich in zwei mittelgroße Kerne auf. Hierzu müssen sie zwar zunächst ein freies Neutron »einfangen«, doch bei dieser so genannten Kernspaltung werden neben großen Mengen von Energie auch Neutronen freigesetzt – so dass im Prinzip ein einziges Neutron genügt, um in einer unkontrollierten Kettenreaktion große Mengen von Uran zu spalten. Dieser Fall wäre eine Atombombe. In einem Kernkraftwerk verhindern Neutronen-absorbierende Regelstäbe, dass pro Spaltung mehr als ein Neutron eine neue Reaktion auslösen kann.

Wussten Sie, dass …

der Atomdurchmesser nur ein Hunderttausendstel einer biologischen Zelle beträgt?

man die Masse von Elementarteilchen mithilfe einer Energieeinheit angibt? Dies ist möglich, da wegen der Einstein-Beziehung E = mc² die Masse m und die Energie E gleichwertig sind.

die Elektronenhülle eines Atoms sehr kompliziert aufgebaut ist? Sie besteht ähnlich einer Zwiebel aus mehreren übereinanderliegenden Schalen, die jeweils komplizierte Formen (»Orbitale«) zeigen.

die Physiker in den 1960er-Jahren Dutzende »Elementarteilchen« nachgewiesen hatten? Erst dem US-Amerikaner Murray Gell-Mann gelang es mit seiner Theorie der Quarks, Ordnung in diesen »Teilchenzoo« zu bringen. Dafür erhielt er 1969 den Nobelpreis.

der größte Teilchenbeschleuniger LHC in einem Ringtunnel mit einem Umfang von 27 km installiert wird? Der 2007 fertiggestellte Beschleuniger am europäischen Kernforschungszentrum CERN bei Genf hat einen Energieverbrauch wie eine Kleinstadt.

bei Beschleunigerexperimenten so unvorstellbare Datenmengen anfallen, dass dort die schnellsten Computer der Welt zum Einsatz kommen?

Teilchen, Wellen, Quanten: Nichts ist so, wie es scheint

Besteht Licht aus Teilchen oder Wellen?

Beides ist richtig, und das auch noch gleichzeitig!

In den vergangenen Jahrhunderten war sich die Wissenschaft nie einig, ob Licht ein Teilchenstrom oder eine Wellenerscheinung ist. Isaac Newton, einer der größten Physiker aller Zeiten, hielt es aufgrund seiner Experimente für einen Teilchenstrom, und die meisten Wissenschaftler schlossen sich dieser Meinung an. Es gab beim Licht jedoch Erscheinungen, die nur bei Wellen auftreten: Interferenz und Beugung. Dies veranlasste Newtons Zeitgenossen Christiaan Huygens, Licht als Welle aufzufassen. Um 1900 ließ die Entdeckung des sog. Photoeffekts wieder auf Teilchen schließen; sie wurden Photonen genannt. Übrigens: Für die Erklärung des Photoeffekts erhielt Albert Einstein 1921 seinen Nobelpreis!

Schließlich brachte die Quantentheorie in den 1920er-Jahren endgültig des Rätsels Lösung. Licht ist beides: Welle und gleichzeitig ein Strom von Photonen. Deren Energie ist mit der Frequenz der Welle über eine Beziehung verknüpft, die im Kern das von Max Planck bereits 1900 postulierte Wirkungsquantum (auch als Planck'sche Konstante bezeichnet) enthält.

Können Messungen »unscharfe« Ergebnisse liefern?

Ja, und zwar nicht nur im Alltag. In der Welt der Quanten führt die Frage zu einem der grundlegendsten Probleme der Physik überhaupt. Unsere Alltagserfahrung zeigt, dass mit den entsprechenden Instrumenten im Prinzip eine beliebig große Messgenauigkeit erreicht werden kann. Werner Heisenberg kam 1926 für die Quantenwelt zu einer anderen Aussage, die nach ihm Heisenberg'sche Unschärferelation genannt wird: »Bestimmte Größen lassen sich nicht gleichzeitig beliebig genau beobachten.« Zu diesen Größen gehören beispielsweise Zeit und Energie eines Teilchens – eines Quantenteilchens eben. Genauer ausgedrückt ist das Produkt aus den Messwerten von Energie und Zeit (oder von Ort und Impuls) stets größer als die Planck'sche Konstante. Wird eine der beiden Größen mit hoher Genauigkeit gemessen, muss sich die Genauigkeit der zweiten Größe verkleinern, sie muss unscharf werden. Beide Größen lassen sich nacheinander beliebig genau messen, aber nie gleichzeitig! Der Zahlenwert der Planck'schen Konstanten ist so extrem klein, dass die Unschärferelation für unseren Alltag direkt keine Rolle spielt. Ganz anders sieht es aber bei atomaren Größenordnungen aus. Und die sind z. B. bei den Strukturen von Computerchips schon bald erreicht: Zukünftige Computer müssen mit der Heisenberg'schen Unschärferelation zurechtkommen!

Aber auch makroskopische Wellen zeigen eine ähnliche Unschärfebeziehung. Erkennen lässt sich das z. B., wenn man einen Dauerton gleichbleibender Frequenz und einen Knall miteinander vergleicht. Der Dauerton hat eine genau bestimmbare Frequenz (Tonhöhe), es gibt aber keinen exakten Zeitpunkt, zu dem er stattfindet. Ganz anders der Knall: Er ereignet sich in einem sehr kurzen Zeitabschnitt. Dafür hat er keine genaue Tonhöhe, also keine genau angebbare Frequenz. Das durch die Heisenberg'sche Unschärferelation aufgeworfene Grundproblem der Physik lautet: Was ist eine Messung? An dieser Frage beißen sich die Forscher auch heute noch die Zähne aus.

Ist »Beamen« wirklich möglich?

Noch nicht, aber in der Quantenwelt sind erste Experimente dazu bereits gelungen.

Lichtquanten (Photonen), Elektronen oder Moleküle lassen sich in einer Weise verknüpfen, die »Verschränkung« genannt wird. Wenn die Quantenzustände von zwei Photonen verschränkt sind, dann sind bestimmte physikalische Größen wie die sog. Polarisation nur für beide gemeinsam definiert – etwa derart, dass die Summe der Einzelpolarisationen immer gerade Null ergeben muss. Dies scheint nicht sonderlich beunruhigend zu sein, hat aber dramatische Konsequenzen: Nehmen wir an, ein Atom sende zwei verschränkte Photonen in unterschiedliche Richtungen aus. Bestimmen wir nun an einem von ihnen die Polarisation, kennen wir augenblicklich auch die Polarisation des anderen, egal wie weit es sich zwischenzeitlich entfernt hat! Solch eine – wie Albert Einstein formulierte – »spukhafte Fernwirkung« widerspricht dem Grundgesetz der Relativitätstheorie: Nichts, auch keine Information, kann sich schneller als das Licht ausbreiten, schon gar nicht darf dies mit unendlicher Geschwindigkeit geschehen.

Und doch ist Anton Zeilinger von der Universität Wien diese Quantenteleportation von Photonen gelungen! Erste praktische Anwendungen erhofft man sich in der Quantenkryptographie, also dem abhörsicheren Datenverkehr. Alles andere bleibt – vorläufig – Science-Fiction.

Können »rechts« und »links« immer unterschieden werden?

Nein, denn in der Welt der Quanten ist beides gleichzeitig möglich! Aber die Quantenmechanik, welche die Gesetzmäßigkeiten der Quantenwelt beschreibt, liegt außerhalb unserer alltäglichen Erfahrungen und ist daher für uns »makroskopische« Menschen sehr ungewohnt. Um ihre Eigentümlichkeiten besser zu verstehen, wollen wir uns vorstellen, dass sich ein Kollege von uns seit einem missglückten Experiment wie ein quantenmechanisches Teilchen verhält. Damit ist er sowohl Teilchen als auch Welle. Der Haupteingang unseres Labors habe zwei nebeneinander befindliche Türen. Wird der Kollege beobachtet, wie er durch den Haupteingang kommt, so verhält er sich wie ein Teilchen und betritt das Labor – wie erwartet – durch eine der beiden Türen. Sieht aber niemand hin, so kann er als »Welle« durch beide Türen gleichzeitig ins Foyer gelangen!

Wussten Sie, dass …

Max Planck sein »Wirkungsquantum« im Jahr 1900 als rein hypothetische Größe einführte? Erst Einstein nahm die Quantenhypothese ernst und rechnete mit Teilchen.

Werner Heisenberg eine Art physikalisches Wunderkind war? Schon mit 26 Jahren wurde er Professor und schuf die theoretischen Grundlagen der Quantenmechanik.

sich auch Teilchen wie eine Welle verhalten können? Victor de Broglie forderte 1924 theoretisch solche »Elektronenwellen«, die 1927 auch nachgewiesen wurden (Nobelpreis 1929).

die Quantenwelt durch »Zufälle« bestimmt ist? Anders als in der Alltagswelt (z. B. beim Wurf eines Würfels) gibt es dabei aber keinerlei Möglichkeit einer Voraussage. Quantenmechanische Einzelereignisse unterliegen keiner Kausalität.

Anfang und Ende der Welt: Urknall und Feuerwerk

Wie entstand die Welt?

Wissenschaftlich anerkannt ist heute die Theorie vom »Urknall«: Zu seinem Beginn – vor etwa 14 Milliarden Jahren – befand sich die Materie in einem Zustand nahezu unendlich hoher Dichte und Temperatur, die mit heutiger Physik kaum zu erfassen ist. Seitdem dehnt sich das Weltall aus und kühlt dabei fortwährend ab. Nach etwa 10–35 Sekunden begannen die vier fundamentalen Kräfte aufzutreten. Es wurden Unmengen an Energie frei, wodurch sich der Kosmos blitzartig aufblähte, sein Radius wuchs dabei um das 1030-bis 1050-Fache! Dieser Prozess wird als »kosmische Inflation« bezeichnet.

Anschließend bildeten sich die Elementarteilchen (Elektronen, Quarks, …) sowie deren Antiteilchen. Noch in den ersten Minuten vereinten sich zunächst Quarks zu Protonen und Neutronen und dann diese zu Atomkernen. Erst 300 000 Jahre später aber war das All mit »nur noch« 3000 Kelvin so weit abgekühlt, dass die Atomkerne zusammen mit den Elektronen neutrale Atome bilden konnten. Diese absorbieren, anders als die elektrisch geladenen »nackten« Kerne, Licht nicht vollständig – das All wurde schlagartig »durchsichtig«.

Spätestens nach einigen Millionen Jahren hatten sich winzige Schwankungen in der zunächst praktisch gleichförmigen Materieverteilung so verstärkt, dass die ersten Sterne und Galaxien entstanden. Knapp neun Milliarden Jahre später – das heißt fünf Milliarden Jahre vor der Gegenwart – bildete sich schließlich unser Sonnensystem.

Existieren Paralleluniversen?

Möglicherweise ja. Sie könnten bereits vor dem Urknall vorhanden gewesen sein! Beim Urknall begann sich nicht nur das Universum auszudehnen – auch die Zeit selbst nahm ihren Anfang. Ein »Davor« gibt es im kosmologischen Standardmodell nicht: Über Ereignisse außerhalb von Zeit (und Raum) lässt sich wissenschaftlich keine Aussage treffen. Allerdings: Moderne kosmologische Theorien wagen es, über den Urknall hinaus zurückzublicken. So sieht man den sich seit dem Urknall aufblähenden Raumbereich nur als eine Blase in einer größeren Struktur, denkt sich den Urknall als Zusammenstoß von höherdimensionalen Objekten, über deren Eigenschaften noch nichts bekannt ist, oder spekuliert, dass unendlich viele Universen mit anderen Naturgesetzen parallel existieren.

Wird das Ende der Welt der Kältetod oder ein Feuerwerk sein?

Darauf sind prinzipiell zwei Antworten möglich: Entweder setzt sich die Expansion des Weltalls bis in alle Zeiten fort, oder sie kehrt sich eines Tages um. Falls Ersteres passiert, stirbt die Welt einen Kältetod, denn je weiter die Sternsysteme voneinander entfernt sind, um so kälter wird es. Im zweiten Fall wäre ein spektakulärer »Big Crunch«, eine allumfassende Implosion quasi als Spiegelbild des Urknalls, in ferner Zukunft zu erwarten. Dies käme in der Tat einem Feuerwerk gleich. Ein Punkt ist für das Schicksal der Welt sehr wichtig: Wie viel Masse enthält das Universum als Ganzes? Überschreitet diese nämlich einen gewissen Wert, dann reicht die Massenanziehung aus, um die Expansion zu stoppen, andernfalls nicht.

Was ist »Dunkle Materie«?

Die Frage lässt sich nicht genau beantworten. Die Existenz Dunkler Materie wurde postuliert, weil Vieles dafür spricht, dass das Universum mehr Masse enthält als sichtbar ist. Die Bewegung von einigen Spiralgalaxien und Galaxienhaufen lässt sich z. B. nur erklären, wenn man annimmt, das gesamte Universum sei mit dieser Dunklen Materie erfüllt. Diese sendet kein sichtbares Licht aus, sondern verrät sich nur über ihre Schwerkraft. Ein ähnliches Ergebnis liefern Galaxienhaufen: Auch bei diesen reicht die Masse der sichtbaren Bestandteile nicht aus, um die Bewegung der Galaxien umeinander zu erklären. Die Dunkle Materie besteht wahrscheinlich aus exotischen, noch unentdeckten Elementarteilchen, die im Standardmodell der Teilchenphysik gar nicht vorgesehen sind.

Dennoch ist sie nicht das größte Rätsel der modernen Kosmologie. Es gibt nämlich noch einen verblüffenderen Befund: Das Weltall dehnt sich nicht gleichmäßig, sondern immer schneller aus! Dies lässt sich nur mit einer weiteren, noch seltsameren Substanz erklären: der »Dunklen Energie«.

Die Dunkle Energie ist eine Eigenschaft des leeren Raums, also eine »Vakuumenergie«. Ihr Wert ist negativ, das bedeutet, dass sie alle Raumpunkte gleichmäßig auseinander treibt. Das aber könnte beim Ende der Welt von entscheidender Bedeutung sein. Der »Big Rip« ist ein Szenarium, in dem die Dunkle Energie in 22 Milliarden Jahren so stark wird, dass sie Sterne, Planeten, Steine, Moleküle und schließlich alle Teilchen zerreißt.

Wussten Sie, dass …

die kosmische Hintergrundstrahlung das einzige »Bild« des Urknalls ist? Ihre winzigen Schwankungen lassen die Dichte des Universums erkennen, als dieses etwa 300 000 Jahre alt war.

die am weitesten entfernten Galaxien auch die ältesten sind? Wenn man mit einem Teleskop eine zehn Milliarden Lichtjahre entfernte Galaxie betrachtet, dann blickt man zehn Milliarden Jahre in die Vergangenheit – so lange war ihr Licht bis zu uns unterwegs.

die gesamte bekannte Welt im Grunde aus »Sternenstaub« besteht? Nach dem Urknall gab es im Universum nur Wasserstoff und Helium, alle anderen chemischen Elemente wurden im Laufe von Jahrmilliarden im Innern der Sterne »erbrütet«.

sich die Zusammensetzung eines Sterns mit seinem Alter ändert? Durch die Kernfusion in seinem Innern wird zunächst Wasserstoff zu Helium umgewandelt, später das Helium verbraucht. Ist der Brennstoff am Ende, implodiert der Stern.

die Astronomen das Alter eines Sterns aus seinem Spektrum, d. h. der Farbe seines Lichts herleiten können? Man kann anhand bestimmter Spektrallinien die Zusammensetzung des Sterns bestimmen – und damit sein Alter.

Wann kommt das Ende der Erde?

Das Ende der Erde kommt, lange bevor das Universum seinem Schicksal entgegengeht. Herbeigeführt wird es durch die Sonne. In fünf bis sieben Milliarden Jahren ist der Wasserstoffvorrat der Sonne erschöpft. Sie bläht sich dann zu einem Roten Riesen auf. Zunächst hängt sie noch als riesiger roter Ball über dem Horizont, bis sie so sehr angewachsen ist, dass die äußere Sonnenatmosphäre die Erde verschluckt. Da deren Temperatur bei über 1000 °C, der Schmelztemperatur von Stein, liegt, werden Luft und Wasser ins All verdampfen, Leben ist nicht mehr möglich.

Astrophysik: Planeten, Sterne, Galaxien

Woraus besteht unser Sonnensystem?

Um die Sonne, Zentrum unseres Sonnensystems, kreisen neun Planeten (mit zahlreichen Monden), Hunderttausende Felsen und Kometen, unzählige Steinchen sowie Staub und Gas.

Die Reihenfolge der Planeten von innen nach außen ist: Merkur, Venus, Erde, Mars, Jupiter, Saturn, Uranus, Neptun, Pluto. Um sich diese Reihenfolge zu merken, gibt es eine Eselsbrücke, deren Worte mit demselben Buchstaben beginnen wie die Namen der Planeten: »Mein Vater Erklärt Mir Jeden Sonntag Unsere Neun Planeten«.

Zwischen Mars und Jupiter befindet sich der aus felsigen Trümmern bestehende Planetoidengürtel. Ein zweiter Planetoidengürtel, der Kuiper-Gürtel, beginnt hinter der Neptunbahn. Aus diesem stammen die gelegentlich in Erdnähe geratenden Kometen. Der Planet Pluto ist eigentlich nur ein großer Vertreter dieser Objekte, wird aber aus historischen Gründen als Planet bezeichnet. Eine als Oort'sche Wolke bezeichnete kugelförmige Wolke aus Eisbrocken umgibt das ganze Sonnensystem und gilt als Quelle der gelegentlich in Erdnähe geratenden Kometen.

Meteoroide sind, einfach gesagt, kleine Körper, welche Meteore, also atmosphärische Leuchterscheinungen, hervorrufen, wenn sie in die Erdatmosphäre eindringen. Zu Meteoriten werden sie nur, wenn sie den Erdboden erreichen, ohne vorher zu verdampfen.

Kann die Erde von Kometen getroffen werden?

Ja, Zusammenstöße von einem Planeten und einem Kometen sind zwar selten, kommen aber immer wieder vor. Erst 1994 schlug der Komet Shoemaker-Levy 9 auf dem Planeten Jupiter ein. Auch die Erde wird ständig von kleinen Himmelskörpern getroffen – die meisten von ihnen verglühen aber in der Atmosphäre und sind bisweilen als Sternschnuppen sichtbar.

Katastrophal wird ein Einschlag großer Himmelskörper (mit mehreren Kilometern Durchmesser): Mehrmals starb eine große Zahl von Arten nach einem Einschlag aus, zuletzt vor 65 Millionen Jahren, als unter anderem die Dinosaurier von der Erde verschwanden. Spuren solchen Bombardements sind Meteorkrater wie das Nördlinger Ries (Durchmesser etwa 25 Kilometer) oder der Barringer Krater in den USA (Durchmesser ein Kilometer).

Ist die Milchstraße ein Unikat?

Nein. Es gibt schätzungsweise 100 Milliarden solcher Sternsysteme am Himmel – aber nur drei Grundformen: Jede Galaxie ist entweder elliptisch, spiralförmig oder unregelmäßig. Dies wurde zuerst von dem US-amerikanischen Astronomen Edwin Hubble (1889 bis 1953) bemerkt.

Das Erscheinungsbild der Milchstraße lässt sich auf ihre räumliche Struktur zurückführen. Könnte man sie von oben betrachten, würde man um das helle, elliptisch geformte Zentrum flache Arme aus Gebieten mit hoher Sternkonzentration sehen, die sich spiralig nach außen winden. Da auch die Sonne in der Ebene der Spiralarme liegt, können wir diese mit den Augen nicht direkt sehen, nur im Radiobereich werden sie erkennbar.

Übrigens: Die Milchstraße ist nicht gleichmäßig hell. Die dunklen Flecken sind aber keine Löcher, sondern Wolken aus Gas und Staub, die das Licht der dahinter stehenden Sterne vollständig verschlucken. Das Zentrum der Milchstraße zeigt sich als helles Oval. Es liegt im Sternbild Schütze und ragt nur in südlichen Ländern so weit über den Horizont, dass es mit bloßem Auge gesehen und bewundert werden kann. In der Mitte des Zentralbereichs befindet sich – wie bei wohl allen Galaxien – ein gewaltiges Schwarzes Loch mit der Masse von drei Millionen Sonnen.

Ist da draußen wer?

Möglicherweise. Tatsächlich gibt es gute Gründe, außerirdisches Leben in den Weiten des Weltalls für möglich zu halten: Warum sollten Erde und Menschheit bei der unvorstellbar großen Zahl sonnenähnlicher Sterne etwas Besonderes sein? Extrasolare Planeten, die allerdings nur wenig der Erde gleichen, wurden seit 1995 immer wieder entdeckt. Komplexe organische Moleküle wurden in kosmischen Gaswolken nachgewiesen. Andererseits hat man in den letzten Jahrzehnten gelernt, dass es nicht reicht, einen erdähnlichen Planeten in der richtigen Sonnenentfernung mit Wasser und organischen Verbindungen zu versehen, um eine über die Jahrmilliarden ausreichend ungestörte biologische Evolution zu ermöglichen. Ohne Erdmagnetfeld, die Ozonschicht, die stabilisierende Wirkung des Mondes und den Vulkanismus hätte es uns Menschen nie gegeben!

Wussten Sie, dass …

Jupiter, der zweitgrößte Körper unseres Sonnensystems, ein Zehntel der Sonne misst? Die Sonne hat einen Durchmesser von 1,4 Millionen Kilometern, der Planet Jupiter 142 984 km. Die Erde misst wiederum nur knapp ein Zehntel von Jupiter, nämlich 12 756 km.

es Monde gibt, die größer sind als Planeten? Der Jupitermond Ganymed (Durchmesser 5251 km) und der Saturnmond Titan (5150 km) sind größer als der Planet Merkur (4878 km), unser Erdmond (3476 km) ist größer als Pluto (2320 km).

Galaxien nicht gleichmäßig am Himmel verteilt sind, sondern sog. Galaxienhaufen bilden? Unsere Milchstraße gehört zu einem im kosmischen Maßstab recht kleinen Galaxienhaufen, der sog. Lokalen Gruppe.

Woher wissen Astronomen, wie alt ein Stern ist?

Das Licht verrät es ihnen. Betrachtet man das Frequenzspektrum des von einem Stern bei uns ankommenden Lichts, so werden Tausende heller und dunkler Linien erkennbar, die Spektrallinien. Diese Linien sind jeweils charakteristisch für die chemischen Elemente des strahlenden Körpers. Ihre Intensität ist ein Hinweis auf die Menge des betreffenden Elements. Die aktuelle chemische Zusammensetzung der sichtbaren äußeren Schichten eines Sterns hängt von dessen Alter und seiner anfänglichen chemischen Zusammensetzung ab. Der Vergleich mit Computermodellen zeigt daher, wie alt der Stern sein muss.

Antimaterie: Das unbekannte Andere

Was ist Antimaterie?

Materie, die aus Teilchen besteht, die »normalen« Teilchen in allem gleichen, die aber die entgegengesetzte elektrische Ladung tragen. Solche Partikel forderte aufgrund theoretischer Überlegungen zum ersten Mal der britische Physiker Paul Dirac 1928. Seitdem wurden zu den meisten Elementarteilchen auch deren Antiteilchen entdeckt.

Im Alltag tritt Antimaterie nicht in Erscheinung. Man kann aber in einem Experiment Antimaterie in Form eines Teilchen-Antiteilchen-Paars »materialisieren« lassen, und zwar aus reiner Energie, etwa einem energiereichen Photon (also aus Lichtenergie). Das ist nach der Einstein'schen Masse-Energie-Äquivalenz möglich. Um ein Teilchen-Antiteilchen-Paar zu erzeugen, muss mindestens so viel Energie aufgebracht werden, wie der gemeinsamen Masse beider Partikel entspricht. Umgekehrt führt eine Begegnung zwischen einem Teilchen und seinem Antiteilchen immer zur sofortigen gegenseitigen Vernichtung – sie zerstrahlen vollständig in einem Energieblitz. Aus diesem Grund kennen wir keine Antiäpfel oder Antiautos: Sie würden in unserer von normaler Materie dominierten Welt in einer gewaltigen Explosion augenblicklich vernichtet werden.

Ist das Vakuum wirklich leer?

Nein, denn es gibt keinen vollständig leeren Raum. Das Vakuum ist vielmehr völlig mit extrem kurzlebigen Teilchen-Antiteilchen-Paaren gefüllt. Grund dafür sind die sog. Vakuumfluktuationen, die man nur mit der Quantenmechanik verstehen kann: Für eine winzige Zeitspanne ist die Energie in einem ebenso winzigen Volumen nicht mehr genau bestimmt (»Unschärferelation«). Dadurch können z. B. ein Elektron und sein Antiteilchen, das Positron, aus dem Nichts entstehen – aber immer nur als Paar. Denn innerhalb dieser Zeitspanne ist die Energieunschärfe größer als die doppelte Elektronenmasse. Nach der beinahe unvorstellbar kurzen Zeitspanne von 10–22 Sekunden verschwinden sie wieder.

Vakuumfluktuationen sind zwar für den Alltag bedeutungslos, haben aber die Theorien von Kosmologie und Elementarteilchen umso mehr befruchtet.

Haben Antiteilchen einen praktischen Nutzen?

Ja, Positronen, die Antiteilchen der Elektronen, werden z. B. in der medizinischen Diagnostik zur Untersuchung von Stoffwechselvorgängen, Entzündungsherden oder Tumoren eingesetzt.

In der sog. Positronenemissionstomographie (PET) wird ein unschädliches radioaktives Präparat (z. B. Fluor-18) gespritzt. Beim Zerfall sendet es ein Positron aus, das praktisch noch am selben Ort auf ein Elektron trifft und in zwei Lichtquanten (Photonen) zerstrahlt. Beide Photonen haben die Energie 511 keV (diese Energiemenge entspricht gemäß der Einstein'schen Beziehung der Elektronenmasse). Sie entfernen sich in genau entgegengesetzter Richtung und durchqueren dabei den Körper fast ungehindert. Ein ringförmiger Detektor, welcher den Patienten umschließt, registriert die Photonen. Am Computer wird dann aus den Messdaten berechnet, an welche Stellen im Körper wie viel von dem Präparat gelangt ist.

Ein großer Vorteil der Positronenemissionstomographie besteht darin, dass die Strahlenbelastung für Patienten geringer als bei einer herkömmlichen Röntgenaufnahme ist, da ja praktisch jedes Positron einzeln registriert werden kann, wohingegen für eine Röntgenaufnahme eine sehr große Zahl von Röntgenquanten benötigt wird. Nachteilig ist der hohe Preis des Verfahrens. Dieser rührt vor allem daher, dass die radioaktiven Präparate unmittelbar vor der Untersuchung mit einem kleinen Teilchenbeschleuniger hergestellt werden müssen.

Wer hat das »Anti« erfunden?

Der britische Physiker Paul A. M. Dirac (1902 bis 1984). Er studierte Elektroingenieurwesen in Bristol, dann ab 1921 Mathematik in Cambridge. Nach seiner Promotion (1926) wurde Dirac bereits 1932 auf den renommierten Lucas'schen Lehrstuhl berufen, auf dem einst Newton und heute Stephen Hawking lehrt. Seit Ende der 1920er Jahre befasste sich Dirac mit der mathematischen Darstellung der Quantenmechanik. Seine Vorhersage des »positiven Elektrons« war eigentlich ein Nebenprodukt des (erfolgreichen) Versuchs, die Quantenmechanik mit der Speziellen Relativitätstheorie zu verbinden. Als »Kitt« nutzte er die von ihm entwickelte, heute »Dirac-Gleichung« genannte Formel. Dirac erhielt zusammen mit Werner Heisenberg 1933 den Nobelpreis für Physik.

Wussten Sie, dass …

die ersten Antielektronen schon 1932, vier Jahre nachdem sie theoretisch gefordert waren, nachgewiesen wurden? Der Amerikaner Carl David Anderson fand sie bei der Untersuchung von hochenergetischer Strahlung aus dem Weltraum, der sog. Höhenstrahlung (Nobelpreis 1936).

die Existenz von Antimaterie bedeutet, dass es beim Urknall einen winzigen Überschuss von Materie gegeben haben muss? Andernfalls hätte sich alle Materie und Antimaterie gegenseitig vollständig zerstört.

es erst vor kurzem gelungen ist, Antiteilchen längere Zeit »am Leben« zu erhalten? Dabei »baute« man ein Antiproton und ein Antielektron (Positron) zu einem Antiwasserstoffatom zusammen.

die Dirac-Gleichung auch die Existenz von magnetischen Monopolen (z. B. ein magnetischer Südpol ohne zugehörigen Nordpol) vorhersagt? Sie sind aber bis heute noch nicht nachgewiesen worden.

Antimaterie ein beliebtes Thema der Science-Fiction-Literatur ist? Sie soll u. a. die Raumschiffe der Fernsehserie »Star Trek« (»Raumschiff Enterprise«) antreiben.

Murray Gell-Mann: Ein kaum beachtetes Genie

Wer ist Murray Gell-Mann?

Murray Gell-Mann ist zwar in der Öffentlichkeit kaum bekannt, aber man muss ihn zu den bedeutendsten Physikern aller Zeiten rechnen. 1969 erhielt er den Physik-Nobelpreis für seine bahnbrechenden Leistungen zur Klassifizierung der Elementarteilchen.

Schon als Kleinkind war er sehr begabt, konnte lesen und große Zahlen im Kopf multiplizieren. Mit 14 Jahren erhielt er ein Studienstipendium der Yale Universität. Doch was sollte er studieren? Gell-Mann bevorzugte Archäologie oder Linguistik, sein Vater dagegen plädierte für Ingenieurwissenschaften. Sie einigten sich schließlich auf Physik. In diesem Fach war Murray in der Schule am schlechtesten, weil ihn der Stoff so langweilte. Die Aussicht, die Relativitätstheorie und die Quantenmechanik zu verstehen, ließen ihn jedoch einlenken.

Im Studium ließ Murray Gell-Mann sich mehr Zeit, konnte er doch hier freier seinen Neigungen nachgehen. Nach dem Abschluss des Studiums in Yale ging er zur Promotion an das Massachusetts Institute of Technology. Bereits mit 21 Jahren erhielt er den Doktortitel. Nach einigen Jahren Assistenzzeit an verschiedenen Orten wurde er Professor am California Institute of Technology in Pasadena, wo er die Theorie der Quarks entwickelte. Hier traf er auch auf den damals bereits berühmten Wissenschaftlerkollegen Richard P. Feynman. Mit 48 Jahren erhielt Gell-Mann die sehr gut dotierte Millikan-Professur des Instituts. Er nahm dies aber keineswegs zum Anlass, einen Gang zurückzuschalten. Noch mit 64 Jahren wechselte er an das Santa Fe Institute in New Mexico, an dessen Gründung er maßgeblich beteiligt war. Mit diesem Schritt wandte er sich ab von der Elementarteilchenforschung und startete interdisziplinäre Forschungsprojekte.

Welche Bedeutung hat die Elementarteilchenphysik?

Für das alltägliche Leben hat sie praktisch keine Relevanz – sie taugt nicht einmal für eine Science-Fiction-Story –, ihre Ergebnisse bleiben für Laien abstrakt und oft unverständlich. Und trotzdem übt sie auf viele Physiker, so auch auf Gell-Mann, eine große Faszination aus, denn sie bildet die Basis für das grundlegende Verständnis der Materie sowie der Entstehung von Sternen, Galaxien und des Weltalls überhaupt.

Was leistete Gell-Mann?

Ordnung im »Zoo der Elementarteilchen« zu schaffen, war eines der großen Ziele Gell-Manns. In der Elementarteilchenphysik nach 1950 lieferten immer leistungsfähigere Teilchenbeschleuniger äußerst schwer zu interpretierende Datenmengen. Bei jeder Teilchenkollision im Beschleuniger entsteht ein Schauer von neuartigen Teilchen, die ihrerseits nur für einen verschwindenden Bruchteil einer Sekunde Bestand haben. Gell-Manns erster großer Geniestreich war die Einführung einer damals neuen Quantengröße, die er »Strangeness« (Seltsamkeit) nannte. Mit ihr ließ sich das Verhalten vieler Teilchen erklären und es gelang ihm, ein Ordnungsschema für die Elementarteilchen zu finden.

Wozu dienen Quarks?

Mit Quarks lässt sich der Aufbau der uns umgebenden Materie erklären. Sie bilden zusammen mit den Leptonen (zu denen die Elektronen gehören) die »fundamentalen Elementarteilchen« – elementarer und kleiner geht es nicht mehr. Aus Quarks sind z. B. die Protonen und Neutronen, also die Bestandteile des Atomkerns, aufgebaut. Die Theorie der Quarks aufzustellen, war Gell-Manns zweiter großer Wurf. Er gelang ihm 1963. Demnach sollten die Protonen und Neutronen aus jeweils drei so genannten Quarks bestehen. Proton und Neutron ließen sich nun ganz zwanglos durch unterschiedliche Anordnungen ihrer Quarks erklären.

Schwierigkeiten bereitete allerdings das Pauli-Prinzip (nach dem österreichischen Physiker Wolfgang Pauli, 1900 bis 1958): Man konnte auch Teilchen nachweisen, die drei identische Quarks enthielten, was nach Pauli verboten ist. Erst die sog. Farbladung der Quarks, die drei unterschiedliche Werte annehmen kann und heute als Ursache der starken Wechselwirkung physikalisches Allgemeingut ist, löste das Problem.

Insgesamt gibt es damit sechs Quarks. Die heutige Form der Quarktheorie, die Quantenchromodynamik (»Quantenlehre der Farbladung«), bildet mit der Quantenelektrodynamik und der Theorie der schwachen Kraft das Standardmodell der Teilchenphysik.

Woher kommt der Name »Quarks«?

Eine Passage aus James Joyce' Roman »Finnegans Wake« soll Gell-Mann nach eigenen Angaben bei der Wahl des Namens »Quarks« inspiriert haben:

»Three quarks for Muster Mark!

Sure he hasn't got much of a bark

And sure any he has it's all beside the mark.«

Sprachkünstler Joyce griff an dieser Stelle auf das veraltete englisches Verb »to quark« zurück, das so viel wie »krächzen« oder »krähen« heißt, und machte kurzerhand ein Substantiv daraus. Möglicherweise handelt es sich aber auch um ein Wortspiel mit »Quart«: Master Mark sollte also drei Viertelliter Bier bekommen.

Wussten Sie, dass …

Gell-Mann sehr vielseitig war? Sein Biograph schreibt: »[Der Physiker Richard] Feynman wusste alles über Physik und nicht so viel über anderes, wenn er keine Physik machte, spielte er Bongo und hing in Bars herum. Gell-Mann [dagegen] wusste alles über alles, in seiner Freizeit beobachtete er exotische Vögel, sammelte archäologische Raritäten oder lernte noch eine weitere Fremdsprache.«

Ladungen, Felder, Spannungen: Immer unter Strom

Seit wann kennt man Elektrizität und Magnetismus?

Die Menschheit nutzt seit Jahrtausenden die Auswirkungen von Elektrizität und Magnetismus. Mithilfe von Kompassen fanden chinesische Karawanen ihren Weg durch die Steppen Asiens und europäische Seefahrer durch die Wasserwüsten der Ozeane. Antike griechische Philosophen beschrieben die Wirkung von Bernstein, der, wenn er an Fell gerieben wird, elektrische Ladungen freisetzt, die leichte Gegenstände anziehen und Blitze erzeugen. Doch trotz der Erkenntnisse antiker Forscher galt v. a. der Magnetismus lange Zeit als »Zauberei«. Noch Franz Anton Messmer meinte im 18. Jahrhundert, mithilfe von hypnotischen Behandlungen den »animalischen Magnetismus« seiner Patienten beeinflussen zu können.

Die systematische Erforschung dieser Phänomene begann Ende des 18. Jahrhunderts. Heute wissen wir um die physikalischen Zusammenhänge, und dennoch sind wir stets aufs Neue von Magneten und ihrem merkwürdigen Verhalten oder der Urgewalt eines Gewitters fasziniert.

Die elektromagnetischen Kräfte sind es, welche die Materie zusammenhalten, für chemische Reaktionen verantwortlich sind und uns über Licht- und Radiowellen Orientierung und Kommunikation ermöglichen. Der Umgang mit Elektrizität ist für uns so selbstverständlich geworden, dass wir sie nur noch bei einem Stromausfall bemerken. Strom ist für fast alle technischen Dienstleistungen die praktischste Energieform. Er lässt sich sicher, schnell und preiswert über weite Strecken leiten und kann recht einfach in beliebige andere Energieformen, wie Bewegung, Wärme oder Licht, umgewandelt werden.

In welche Richtung fließt der Strom?

Strom fließt vom Pluspol zum Minuspol. Das ist die sog. technische Stromrichtung. Physikalisch betrachtet hat der Stromfluss die entgegengesetze Richtung, denn »Strom« ist nichts anderes als elektrische Ladungen – Elektronen –, die durch einen Leiter fließen: Beim Einschalten des Stroms baut sich in einem Leiter eine Spannung (genauer: ein elektrisches Feld) auf, unter deren Einfluss sich die Elektronen zu bewegen beginnen, und zwar wandern sie zum positiven Pol hin, weil sie negativ geladen sind. Je mehr Elektronen pro Zeiteinheit (also z. B. pro Sekunde) fließen, desto stärker ist der Strom. Die technische Stromrichtung bezieht sich auf hypothetische positive Ladungen – einfach aus pragmatischen Gründen. Zuständig für die Festlegung der Stromrichtung ist die Internationale Organisation für Normung (ISO; »S« steht für Standardization, dt. »Normumg«), die Vereinigung der nationalen Normungsorganisationen von über 150 Ländern.

Woraus werden Stromkabel hergestellt?

Aus von einer Isolation umgebenen elektrischen Leitern, das sind Materialien, auf und in denen elektrischer Strom nur mit geringen Verlusten transportiert sind. Alle Metalle gehören in diese Gruppe, ein nichtmetallischer Leiter ist z. B. Graphit. Isolatoren dagegen transportieren Strom so gut wie überhaupt nicht, unter diese Materialien fallen die meisten Kunststoffe und Keramik.

Übrigens: Unter den Metallen gibt es große Unterschiede in der elektrischen Leitfähigkeit. Beispielsweise leiten die Edelmetalle und das Halbedelmetall Kupfer den Strom sehr gut. Da Kupfer in großen Mengen vorkommt und daher deutlich billiger ist als Gold oder Silber, stellt man Kabel aus Kupfer her.

Warum ist nicht alles um uns herum elektrisch geladen?

Weil die Atome, aus denen alles aufgebaut ist, elektrisch neutral sind. Die elektrisch geladenen Teilchen im Inneren eines jeden Atoms neutralisieren sich gegenseitig. Jedes Atom besteht aus einem (elektrisch positiv geladenen) Kern, der von (negativ geladenen) Elektronen umgeben ist. Dabei enthält ein Atom gleich viele positiv wie negativ geladene Bausteine, so dass ein Atom nach außen neutral ist.

Im Inneren eines Atoms werden die Auswirkungen der getrennten Ladungen durchaus spürbar. Ihre Anordnung im Detail bestimmt das chemische Verhalten der Atome und Elemente.

Wussten Sie, dass …

eine einzelne elektrische Ladung »Monopol« heißt? Ein Paar von zwei entgegengesetzten Ladungen wird als »Dipol« bezeichnet. Bei Magneten gibt es nur Dipole (immer Nord- und Südpol), aber keine Monopole.

ein elektrischer Strom in einem Kabel entsteht, weil sich die Elektronen innerhalb des Metalls bewegen?

man die Stärke eines elektrischen Felds angibt, indem man die Spannung zwischen zwei Punkten und deren Abstand misst? Die Einheit der Feldstärke ist Volt pro Meter (V/m). Bei einer Feldstärke von 2 Millionen V/m können Funken in Luft überspringen. Die besten Porzellanisolatoren vertragen 200 MV/m.

Ströme auch im menschlichen Körper vorkommen? Sie entstehen bei allen Muskelaktivitäten und übertragen Nervenreize. Manche dieser Ströme kann man von außen messen, z. B. die Herzströme mithilfe eines Elektrokardiogramms (EKG).

ein elektrischer Strom im Leiter Wärme erzeugt? Das nutzt man z. B. in der Glühbirne aus: Die Wendel wird durch den Strom bis zur Weißglut erhitzt. Dabei strahlt sie Licht ab.

Das elektromagnetische Spektrum: Am Ende des Regenbogens

Was hat elektrisch mit magnetisch zu tun?

Elektrische und magnetische Phänomene sind eng verwandt und beeinflussen sich gegenseitig: Fließt ein Strom durch einen Leiter, so entsteht um den Leiter herum ein Magnetfeld; ändert sich das Magnetfeld um einen Leiter, so wird man in ihm einen elektrischen Strom feststellen.

Doch es geht sogar ohne einen materiellen elektrischen Leiter: Überall da, wo ein elektrisches Feld vorhanden ist, das sich zeitlich ändert, entsteht um dieses herum ein magnetisches Feld. Und umgekehrt bildet sich um ein variierendes magnetisches Feld ein elektrisches Feld.

Das wird beispielsweise bei einer Sendeantenne ausgenutzt. Zwischen ihren Enden »schwingt« ein elektrischer Strom hin und her und bildet so einen elektrischen Dipol. Es entstehen sich gegenseitig bedingende elektrische und magnetische Wechselfelder. Da die Schwingung anhält und sich Wellen von ihrem Ursprung nach außen ausbreiten, breitet sich auch diese elektromagnetische Welle ständig von der Antenne her aus. Eine solche einfache Antenne bezeichnet man übrigens als »Hertz'schen Dipol«.

Was sind elektromagnetische Wellen?

Es sind Wellen, die durch die Schwingung eines elektrischen Dipols hervorgerufen werden. Allerdings besitzen diese Wellen etwas andere Eigenschaften als z. B. Wasserwellen. Bei Letzteren »schwingt« immer etwas Materielles hin und her, nämlich die Wassermoleküle. Bei elektromagnetischen Wellen ist das nicht der Fall. Vielleicht ist es einfacher zu sagen, was in elektromagnetischen Wellen nicht schwingt – es sind weder Elektronen noch irgendwelche andere elektrisch geladene Teilchen oder Magnete, die da bewegt werden. Vielmehr sind es elektrische und magnetische Felder, die sich gegenseitig erzeugen und auslöschen.

Die ersten elektromagnetischen Wellen, die als solche erkannt wurden, waren die extrem langwelligen Wellen, die in der zweiten Hälfte des 19. Jahrhunderts mit einfachen Sendeantennen vom Typ des Hertz'schen Dipols erzeugt wurden. Schon kurze Zeit später erkannte man die elektromagnetische Natur des Lichts und die Möglichkeiten der drahtlosen Kommunikation mittels Radiowellen. Das jüngste Kind in der Strahlungsfamilie ist die 1913 entdeckte sog. »Höhenstrahlung«, in der die höchsten bekannten Frequenzen und die kürzesten Wellenlängen beobachtet werden.

Max Planck, Albert Einstein und andere Physiker deckten im 20. Jahrhundert auf, dass die elektromagnetische Strahlung in Quanten auftreten kann und wie alle Quantenobjekte nicht nur Wellen-, sondern auch Teilcheneigenschaften besitzt. Grob lässt sich sagen, dass im langwelligen Teil des Spektrums der Wellencharakter überwiegt, am kurzwelligen Ende dagegen die Teilchennatur der Strahlung.

Was passiert im Mikrowellenherd?

Mikrowellen haben eine Wellenlänge von einigen Zentimetern. Ihre Energie liegt damit genau im Bereich der Schwingungsenergie von Wassermolekülen. Werden wasserhaltige Stoffe mit Mikrowellen bestrahlt, beginnen diese, mit den elektromagnetischen Wellen »mitzuschwingen«. Je genauer die Frequenzen übereinstimmen, desto besser gelingt dies und desto mehr Energie absorbiert das Wasser aus der Mikrowelle – es wird heiß. Da fast jedes Nahrungsmittel einen mehr oder weniger großen Wasseranteil aufweist, arbeiten Mikrowellenherde so effektiv.

Aber Vorsicht: Auch lebendes Gewebe enthält viel Wasser! Darum endet der – von unwissenden Bürgern tatsächlich durchgeführte – Versuch, ein nasses Haustier in der Mikrowelle zu trocknen, tragisch. Lange bevor das Fell getrocknet ist, erleidet das arme Tier den Hitzetod.

Warum empfängt ein Weltradio auf Kurzwelle?

Das liegt daran, dass sich die unterschiedlichen Wellenlängenbereiche der Radiowellen unterschiedlich ausbreiten. Kurzwellen werden an einer leitfähigen Atmosphärenschicht in etwa 60 km Höhe, der Ionosphäre, reflektiert. Auch der Erdboden und die Ozeane reflektieren Kurzwellen. Durch Mehrfachreflexion werden sie daher über die gekrümmte Erdoberfläche geleitet.

UKW-Sender dagegen strahlen nicht über den Horizont hinaus. Um ein großes Gebiet abzudecken, werden sie daher meist auf Bergen und hohen Gebirgen platziert. Dafür lassen sich mit UKW mehr Informationen, also etwa Stereoprogramme, übermitteln. Dies gilt noch mehr für die Frequenzen von Fernseh- bzw. von Handy-Signalen, die bereits in den Bereich der Mikrowellen gehören. Für die noch kurzwelligeren UMTS-Verbindungen muss ein bereits deutlich dichteres Sendernetz aufgebaut werden.

Bei Radiowellen sind die Wellenlängen meist recht groß. Ihr Bereich beginnt bei einigen Millimetern und hat keine obere Grenze. Die Unterteilung der Radiowellen wird aufgrund der unterschiedlichen Welleneigenschaften vorgenommen: Neben den genannten Ultrakurz- und Kurzwellen gibt es die Langwellen (LW), mit denen z. B. das Zeitsignal der Braunschweiger Atomuhr gesendet wird, und die Mittelwellen (MW); diese beiden Radiowellenbereiche haben ebenfalls eine große Reichweite.

Gibt es neben Radiowellen noch andere Wellen?

Ja. Das gesamte Gebiet der elektromagnetischen Wellen lässt sich nach Wellenlänge oder Frequenz (beide hängen voneinander ab) in unterschiedliche Bereiche einteilen.

Nach den Radiowellen (größte Wellenlängen) kommen die Mikrowellen, die sich dadurch auszeichnen, dass sie besonders gut Wassermoleküle in Schwingung versetzen können. Darauf beruht der Mikrowellenherd, aber auch die Gefahr von Wärmeschäden an Auge, Ohr und anderen empfindlichen Organen bei übermäßiger Mobilfunkkommunikation.

An die Mikrowellen schließt sich im Spektrum die Infrarot- oder Wärmestrahlung an. Ihren Namen verdankt sie der Tatsache, dass die Wärmestrahlung von Objekten mit Raumtemperatur in diesen Wellenlängenbereich fällt. Infrarotkameras oder die »Wärmeaugen« der Schlangen können diese Strahlung aufnehmen und abbilden.

Von Rot über Gelb, Grün und Blau bis ins Violette erstreckt sich das sichtbare Licht. Bereits blaues Licht ist deutlich energiereicher als rotes. Ultraviolettes Licht fügt der Haut irreparable Schäden zu, dringt aber nicht tief in den Körper ein. Röntgenstrahlung dagegen, die mehr als die 1000-fache Energie des sichtbaren Lichts besitzt, durchdringt den menschlichen Körper teils ungehindert, teils abgeschwächt. Dies macht man sich beim »Röntgen« zunutze. Noch kürzere Wellenlängen und höhere Frequenzen und Energien haben Gammastrahlen.

Warum werden Handynetze immer dichter?

Weil mit Handys immer größere Datenmengen übertragen werden, die Sendeleistung der Handys und die Bandbreite der einzelnen Handynetze aber nahezu konstant bleiben.

Die Leistung, mit der ein Handy von der Netzantenne empfangen wird, hängt von der Entfernung zwischen Handy und Antenne ab. Je größer die Entfernung, desto geringer die Empfangsleistung. Dadurch steigt auch das Risiko von Übertragungsfehlern. Was bei Festnetzgesprächen kaum zu hören ist, macht sich bei Datenkommunikation via Handy bemerkbar. Ein vernünftiger Empfang kann also nur gesichert werden, wenn die Entfernungen klein bleiben. Das bedingt aber kleinere Sendezellen und damit dichtere Funknetze.

Was ist Elektrosmog?

Unter dieser Bezeichnung fasst man alle störenden elektromagnetischen Felder und Wellen mit niedriger Frequenz zusammen, die z. B. von Handys, Computermonitoren, aber auch von Stromleitungen oder Haushaltsgeräten abgestrahlt werden. Sie können eventuell einen schädlichen Einfluss auf den menschlichen Körper haben: Unter bestimmten Umständen erzeugen sie im Körper Wirbelströme, die Nervenreizungen hervorrufen und im (sehr seltenen) Extremfall sogar Herzkammerflimmern verursachen können. Starke Strahlung kann außerdem ähnlich wie eine Mikrowelle wirken und schlecht durchblutetes Körpergewebe (z. B. den Glaskörper des Auges) überhitzen. Daher gibt es Grenzwerte für die maximale Abstrahlung von elektromagnetischen Wellen von elektrischen Geräten.

Welche Strahlung ist für den Menschen besonders gefährlich?

Strahlung, die eine so hohe Energie (d. h. hohe Frequenz oder kleine Wellenlänge) besitzt, dass sie bei der Absorption in Gewebe Ionen erzeugt. Absorption bedeutet, dass die Atome des Gewebes die Strahlung »schlucken«. Dabei können sie einen Teil ihrer Elektronen verlieren und damit zu »Ionen« werden. Die frei werdenden Elektronen und auch die mehr oder weniger ortsgebundenen Ionen reagieren heftig mit anderen Atomen und Molekülen in der Umgebung – so heftig, dass bleibende Schäden entstehen können. Werden beispielsweise die chemischen Bindungen von DNA-Molekülen in den Zellkernen des Gewebes aufgebrochen, kann Krebs entstehen. Zu solchermaßen ionisierender Strahlung zählen UV-, Röntgen- und Gammastrahlung. Zur nicht ionisierenden Strahlung gehören Radio- und Mikrowellen sowie Infrarot- und sichtbares Licht.

Wussten Sie, dass …

sich mit der Wellenlänge beim sichtbaren Licht die Farbe ändert? Rotes Licht ist langwellig, blaues ist kurzwellig.

verschiedenfarbiges Licht unterschiedlich gebrochen wird? Darum sieht man am Rand einer starken Lupe farbige Ränder. Bei Kameras wird dies konstruktiv korrigiert.

ein Regenbogen entsteht, weil verschiedenfarbiges Licht von den Regentropfen der Atmosphäre verschieden abgelenkt (gestreut) wird? Daher sind Regenbogen immer gleich aufgebaut: Innen findet man Rot (wenig abgelenkt), außen Blau (stark abgelenkt). Dazwischen liegen alle anderen »Regenbogenfarben«.

»weißes« Licht eigentlich eine Mischung aller Regenbogenfarben ist? Man kann das mit einem Glasprisma nachweisen: Strahlt man Licht auf eine Seite, kommt auf der anderen Seite farbiges Licht heraus. Diese sog. Spektralzerlegung ist seit dem 17. Jahrhundert bekannt.

die Wärmestrahlung (Infrarotstrahlung) von der Temperatur des Strahlers abhängt? Mit einer guten Infrarotkamera kann man Temperaturunterschiede von einem Zehntelgrad sichtbar machen.

Infrarotstrahlung von Kohlendioxid besonders gut aufgenommen wird? Dies ist eine der Ursachen für Treibhauseffekt und Klimaerwärmung.

Laser: Das besondere Licht

Was ist ein Laser?

Ein Laser ist ein Gerät, mit dem Licht einer sehr exakt bestimmten Wellenlänge (»Farbe«) und von äußerst hoher Intensität erzeugt wird.

Der wichtigste Bestandteil eines Lasers ist das sog. Lasermedium. Dies bestand beim ersten Laser aus dem Edelstein Rubin, heute gibt es gasförmige, flüssige und feste Lasermedien. Auch die winzigen Siliciumchips der Mikroelektronik sind als Lasermedium geeignet, man spricht dann von sog. Halbleiter- oder Diodenlasern. In Lasermedien vollzieht sich ein verblüffender Effekt der Quantenwelt: Wenig Licht erzeugt viel Licht – physikalisch heißt dies induzierte Ausstrahlung oder auf Englisch »stimulated emission of radiation«. Damit ist auch klar, was »Laser« eigentlich bedeutet: Es ist die Abkürzung für »light amplification by stimulated emission of radiation«, zu Deutsch: Lichtverstärkung durch induzierte Ausstrahlung.

Leider genügt es nicht, ein Lasermedium mit Strom zu versorgen, um Laserlicht zu erhalten. Zwei weitere Bedingungen müssen erfüllt sein. Erstens muss das Lasermedium in gewisser Weise präpariert werden. Das heißt, seine Atome müssen in einen Zustand versetzt werden, in dem wie in einem Dosenstapel im Supermarkt ein einziges, passend »geworfenes« Lichtquant ausreicht, um eine lawinenartige Lichtemission auszulösen. Zweitens muss das Medium von extrem gut reflektierenden Spiegeln umgeben sein. Diese sorgen dafür, dass die ersten ausgelösten Lichtteilchen im Medium bleiben und die Emission von noch mehr Laserlicht bewirken. Im richtigen Moment muss der Spiegel dann durchlässig gemacht werden, um die Lichtlawine herauszulassen. Man nennt das »Auskoppeln« der Laserstrahlung.

Was ist an Laserlicht so besonders?

Im Gegensatz zu allen anderen Lichtquellen ist Laserlicht in hohem Maße »geordnet«. Es schwingt praktisch bei einer einzigen Frequenz oder, was physikalisch dasselbe ist, es hat eine exakt definierte Farbe. Bei sog. durchstimmbaren Lasern lässt sich diese Frequenz fast beliebig einstellen.

Weiterhin ist das Licht äußerst kohärent, das heißt, es bildet sehr lange zusammenhängende Wellenzüge, die zudem extrem parallel verlaufen. Damit ist es zum einen hervorragend für das Vermessungswesen geeignet, zum anderen lässt es sich durch Linsen auf Brennflecke mit weniger als einem Mikrometer Durchmesser fokussieren. Dort herrschen dann extrem hohe Energiedichten, die zum Schweißen oder – im Extremfall – sogar zum Zünden von Kernfusionsprozessen genützt werden können.

Wozu sind Laser gut?

Laser dienen u. a. als Messgeräte und zum Schneiden. Mit der Erfindung der miniaturisierten Laserdioden aus Halbleitermaterial hielt der Laser seinen Einzug in die Alltagstechnik. Halbleiterlaser tasten den Inhalt von CDs und DVDs ab, lesen den Strichcode an der Registrierkasse, prägen der Trommel eines Laserdruckers das Druckbild auf, speisen Datenströme in Glasfaserkabel und erleichtern Landvermessern ihre Arbeit.

Weniger offensichtlich, aber durchaus spektakulär haben andere Lasertypen ihren Platz im Spektrum der High-Tech-Anwendungen erobert. So liefern Laser mit Kohlendioxid als aktivem Medium (CO2-Laser) besonders hohe Dauerleistungen bei etwa zehn Mikrometern Wellenlänge, also im fernen Infrarot. Mit mehreren Kilowatt Leistung zerschneiden sie mühelos dicke Stahlplatten oder führen punktgenaue Schweißarbeiten an Blechen durch, die viel dünner sind als herkömmliche Werkstücke.

Verändern Laser die Medizin?

Ja, besonders in chirurgischen Bereichen bieten Laser verschiedene Vorteile. Aufgrund ihres Wellenlängenbereichs, der mit anderen Lasertypen nicht zu erreichen ist, setzt man CO2-Laser ein. Durch die Strahlung erhitzt sich das wasserhaltige Gewebe eines Patienten sehr schnell und sehr stark. Dies erlaubt präzisere Schnitte als mit dem Skalpell. Durch die Hitze verschließen sich zudem die kleinen Blutgefäße fast augenblicklich, so dass es kaum Blutungen und damit nur ein geringes Infektionsrisiko gibt. Solche Operationen lassen sich minimalinvasiv durchführen, denn ein Laserstrahl kann mittels Endoskop auch im Körperinneren eingesetzt werden.

In einem anderen Zweig der Medizin, der Zahnmedizin, sollen Laser eines Tages den immer noch lästigen und oft schmerzhaften Zahnarztbohrer durch schmerzfreie Laserpulse ersetzen.

Die Vorteile des Lasers werden in der Augenoptik auch zur Gefahr, denn selbst der Blick in einen nur schwachen Laserstrahl kann die Augen erheblich schädigen. Der Grund liegt darin, dass der Laser seine gesamte Energie auf einen winzigen Fleck strahlt. An diesem Fleck ist die Energiedichte (Leistung pro Fläche) dann sehr hoch.

Kann ein Laser mehr Leistung haben als ein Atomkraftwerk?

Ja! Der Grund hierfür liegt in der physikalischen Definition der Leistung: Diese ist wissenschaftlich betrachtet das Verhältnis von verbrauchter (oder bereitgestellter) Energie zur dafür benötigten Zeit. Ein Atom- oder Kohlekraftwerk mit einer Leistung von einem Gigawatt liefert dementsprechend in einer Sekunde eine Energie von einer Milliarde Joule. Die gleiche Leistung wird aber auch verbraucht, wenn ein Laser eine Nanosekunde (eine Milliardstel Sekunde) lang ein Joule »verbrät«. Physikalisch gesehen sind die Leistungen gleich, wenn auch der apparative Aufwand eines Tischlasers bedeutend geringer ist. Der kürzeste bisher erzeugte Laserblitz dauerte sage und schreibe nur weniger als eine Femtosekunde (10–15 s), seine Leistung betrug 1015 Watt oder eine Million Gigawatt. Dies ist mehr als die Leistung aller Strom erzeugenden Kraftwerke der Welt, die zusammen »nur« eine Leistung von knapp 2000 Gigawatt erreichen.

Wussten Sie, dass …

der erste Laser im Jahr 1960 gebaut wurde? Anfangs war diese Lichtquelle so futuristisch, dass »Normalsterbliche« sie nur in Science-Fiction- oder James-Bond-Filmen zu sehen bekamen.

man mit Kurzzeitlasern die genauen Abläufe einer chemischen Reaktion quasi in Zeitlupe untersuchen kann? Die zeitliche Auflösung erreicht dabei Werte im Attosekundenbereich, 1 as ist ein Milliardstel eines Milliardstels eines Milliardstels einer Sekunde (10–18 s).

die Holographie, ein Verfahren zur Erzeugung dreidimensionaler Bilder, zwar schon 1948 entwickelt wurde, doch erst mit der Erfindung des Lasers realisierbar wurde?

Laserstrahlen auch in den Digitalprojektoren moderner Kinos eingesetzt werden? Sie zeichnen auch bei extremer Vergrößerung noch scharfe Linien; konventionelle Lichtstrahlen können das nicht.

Sie selbst beim Telefonieren oft einen Laser benutzen? Die Signale in Glasfaserkabeln sind nämlich Laserpulse.

Halbleiter: Keine halben Sachen

Sind Halbleiter nur halbe Leiter?

Nein, die elektrische Leitfähigkeit eines Halbleiters kann sogar besser sein als bei manchen Metallen. Die Vorsilbe »halb« bezieht sich vielmehr darauf, dass Halbleiter auf einfache Weise zwischen einem isolierenden und einem elektrisch leitenden Zustand wechseln können. Dazu bedarf es nur einer geringen elektrischen Spannung, einer leichten Temperaturerhöhung oder aber einer Lichtquelle.

Das unterschiedliche Verhalten von Metallen, Halbleitern und Isolatoren beruht auf ihrem atomaren Aufbau: In einem Metall gibt es sehr viele sog. Leitungselektronen, die keinen festen Aufenthaltsort im Metall haben, sondern frei im ganzen Festkörper wandern können. Eine elektrische Spannung beschleunigt sie, so dass ein Strom zu fließen beginnt. In Isolatoren hingegen sind alle Elektronen fest an ihr Atom gebunden. Eine äußere Spannung übt zwar auch eine Kraft auf sie aus, kann sie aber nicht losreißen, so dass kein elektrischer Strom zustande kommt. Halbleiter wiederum besitzen normalerweise wie die Isolatoren keine ungebundenen Elektronen. Jedoch sind einige ihrer Elektronen nur so schwach gebunden, dass sie durch eine kleine Energiezufuhr, etwa in Form von elektrischer Spannung, Wärme oder Licht »befreit« werden. Diese freien Ladungsträger bewirken dann wie im Metall einen Stromfluss. Um die Eigenschaften eines Halbleiters wie Silicium in weiten Bereichen variieren zu können, wird er gezielt mit anderen chemischen Elementen verunreinigt – man nennt dies »Dotierung«.

Übrigens: Es gibt neben Silicium noch andere Halbleiter, die als Basis für Elektronikbausteine in Frage kommen, z. B. das Element Germanium oder die Verbindung Galliumarsenid. Sowohl im Preis als auch in der Ausgereiftheit der Verarbeitungstechnologie ist das Silicium aber nach wie vor unschlagbar.

Welche Aufgaben haben Dioden?

Dioden gelten als »Ventile« im elektrischen Stromkreis. Im Prinzip besteht eine Diode aus zwei unterschiedlich dotierten Halbleitern, einem, der mit negativ geladenen Elektronen angereichert ist (man sagt auch, der Halbleiter ist »n-dotiert«), und einem mit Elektronenfehlstellen, also Löchern. Da Löcher als positiv geladene Ladungsträger aufgefasst werden können, nennt man diesen solcherart behandelten Halbleiter »p-dotiert«.

Wenn eine p- und eine n-dotierte Schicht direkt aneinander grenzen, kann Strom durch diese Grenzschicht von selbst nur in einer Richtung, der sog. Durchlassrichtung, fließen. In die andere Richtung (in Sperrrichtung) kann die Diode nur Strom passieren lassen, wenn eine äußere Spannung anliegt – genau wie bei einem Ventil, das per Knopfdruck Flüssigkeit durchlässt oder nicht. Die richtungsabhängige Durchlässigkeit nutzt man auch bei einer anderen Anwendung der Diode, und zwar als Gleichrichter. Tritt nämlich Wechselstrom, der periodisch seine Richtung ändert, durch eine Diode, so wird daraus hinter dem Bauelement Gleichstrom.

Weitere Anwendungen finden Dioden in Solarzellen, Energie sparenden Lichtquellen und elektronischen Schaltungen sowie als Laser im Miniaturformat.

Was sind Transistoren?

Die wichtigsten Bauelemente der Mikroelektronik. Im Prinzip besteht ein Transistor einfach aus zwei Halbleiterdioden mit gemeinsamer p-Schicht. Die Dioden sind also so nebeneinander platziert, dass eine p-dotierte Halbleiterschicht zwischen zwei n-Schichten liegt. (Der umgekehrte Fall ist auch möglich.)

Die beiden äußeren Lagen heißen Kollektor und Emitter, die mittlere ist die Basis. Liegt zwischen Kollektor und Emitter eine Spannung an, beziehungsweise fließt zwischen ihnen ein Strom, so reagiert dieser sehr empfindlich auf Änderungen der an der Basis anliegenden Spannung. Darum kann man mit einem Transistor schwache Ströme erheblich verstärken oder aber elektrische Signale benutzen, um damit elektrische Geräte zu steuern oder Datenoperationen durchzuführen.

Die Miniaturisierung elektronischer Geräte – nicht zuletzt der Computer – wurde erst durch Transistoren möglich. Der 1946 konstruierte erste elektronische Rechner besaß Vakuumröhren anstelle von Transistoren und füllte ein ganzes Zimmer aus. Dennoch war seine Rechenleistung geringer als die eines heutigen scheckkartengroßen Taschenrechners. Ein moderner, daumennagelgroßer Mikroprozessor enthält dagegen bis zu 100 Millionen Transistoren.

Haben Halbleiter Löcher?

Ja, aber in diesem Zusammenhang bedeutet »Loch« keineswegs, dass ein Halbleiter die innere Struktur eines Schweizer Käses hätte. Löcher in Halbleitern entstehen, wenn in dem Kristallgitter eines Halbleiters durch eine sog. Dotierung Fremdatome eingebaut werden, die weniger Elektronen in ihrer Außenhülle haben als solche des normalen Halbleitermaterials. In diesem Sinne fehlt dort ein Elektron – und diese Fehlstelle nennen die Physiker ein »Loch«. Das Erstaunliche dabei ist, dass man diese Löcher genauso behandeln kann wie physikalisch vorhandene Ladungsträger. Sie können sich bewegen und ihnen kann sogar eine Masse zugeschrieben werden. Solche Löcher entstehen auch in reinen Halbleitern, nämlich dann, wenn dort ein Elektron seinen Platz verlässt.

Wussten Sie, dass …

Silicium, der wichtigste Halbleiter, eines der verbreitetsten Elemente der Erde ist? Quarz, der Hauptbestandteil von Sand, besteht nämlich aus Siliciumdioxid.

bei der Produktion von Halbleitern und Mikrochips allerhöchste Reinheitsmaßstäbe gelten? Ein einziges Staubkörnchen kann auf einem Chip bereits einen fatalen Kurzschluss verursachen.

eine LED eine besondere Form von Dioden ist? Hier treffen Löcher und Elektronen aus dem p- und dem n-dotierten Bereich der Dioden zusammen; dabei wird Energie frei, die als Licht abgestrahlt wird.

die Umkehrung einer LED eine Solarzelle ist? Hier strahlt man Lichtenergie auf die Zwischenschicht einer Diode. Dabei werden ein Elektron und ein Loch erzeugt. Diese driften voneinander weg und erzeugen so eine elektrische Spannung.

das kalifornische »Silicon Valley« nichts mit Brustvergrößerungen zu tun hat? Silicon ist die englische Bezeichnung für den Halbleiter Silicium. In dem bei San Francisco gelegenen Landstrich haben einige der wichtigsten Firmen der amerikanischen Halbleiter- und Computerindustrie ihren Sitz.

Supraleitung: Stromfluss ohne Widerstand

Was ist Supraleitung?

Supraleitung ist die Fähigkeit vieler Metalle und Keramiken, bei extrem niedrigen Temperaturen den elektrischen Strom verlustfrei zu leiten. Mit anderen Worten, der elektrische Widerstand dieser Materialien sinkt unterhalb eines gewissen kritischen Temperaturwerts, der für jeden Supraleiter anders ist, schlagartig auf null ab.

Das Phänomen ist nicht neu. Anfang des 20. Jahrhunderts untersuchte der niederländische Physiker Heike Kamerlingh Onnes (1853–1926) den elektrischen Widerstand von Metallen bei tiefen Temperaturen. Dabei machte er 1911 eine bahnbrechende Entdeckung: Vier Grad über dem absoluten Temperaturnullpunkt (also bei –269 °C) verliert Quecksilber schlagartig und vollständig seinen elektrischen Widerstand – ein Befund, den erst die zehn Jahre später entwickelte Quantentheorie erklären konnte. In der Folge wurden zahlreiche weitere Metalle gefunden, die bei sehr tiefen Temperaturen widerstandslos bzw. supraleitend wurden. Für seine Arbeiten wurde Kamerlingh Onnes 1913 mit dem Physiknobelpreis ausgezeichnet.

Die seitdem gefundenen Übergangstemperaturen, fachsprachlich als Sprungtemperaturen bezeichnet, blieben lange Jahre im Bereich von wenigen Grad über dem absoluten Temperaturnullpunkt. Praktische Anwendung gab es nicht, weil solche Temperaturwerte nur mit flüssigem Helium oder flüssigem Wasserstoff erreicht werden konnten, die sehr teuer und schwer zu handhaben waren. Erst vor rund 20 Jahren gelang es, mit der überraschenden Entdeckung sog. Hochtemperatur-Supraleiter (HTSL) aus speziellen Keramikmaterialien, in den technisch interessanten Bereich der Kühlung mit flüssiger Luft vorzustoßen. HTSL bestehen aus komplizierten keramischen Verbindungen und werden etwa bei Temperaturen von –200 °C bis –140 °C supraleitend. Erste technische Anwendungen stehen kurz vor der Marktreife.

Was ist magnetische Levitation?

Ein spektakulärer Nebeneffekt der Supraleitung: In räumlich ungleichförmigen Magnetfeldern können Supraleiter so lange schweben oder aber andere Magnete in der Schwebe halten, wie die Kühlung sie unter ihrer Sprungtemperatur hält. Der Grund hierfür liegt darin, dass im Inneren des Supraleiters widerstandslose Dauerströme fließen. Diese induzieren ein Magnetfeld, welches das äußere Magnetfeld bzw. das des zweiten Magneten so stark abstößt, dass die Schwerkraft überwunden wird.

Wo werden Supraleiter eingesetzt?

Derzeit nur in kostenintensiven Hochtechnologie-Anwendungen wie Teilchenbeschleunigern oder High-Tech-Sensoren wie den sog. SQUIDs, den empfindlichsten Detektoren für Magnetfelder, die es gibt. In der täglichen Praxis spielt die Supraleitung dagegen im Moment noch so gut wie keine Rolle. Im Prinzip verspricht die Supraleitertechnologie verlockende Anwendungen: verlustfreier Transport von Strom über große Distanzen oder sehr kompakte Elektromotoren mit hohem Wirkungsgrad. Doch die hohen Produktionskosten sowie technische Probleme haben noch keiner Anwendung den Zugang zu Massenmärkten eröffnet.

Ein großes Hindernis sind die immer noch viel zu niedrigen Sprungtemperaturen. Aufwendige Wärmeisolationen und teure Kühltechnik beschränken das Anwendungsgebiet auf Bereiche, in denen die Supraleitung praktisch alternativlos ist. Außer bei den oben bereits genannten Anwendungen gilt dies überall dort, wo extrem starke Magnetfelder benötigt werden, sowie für Kernfusions-Versuchsanlagen und Tieftemperaturlaboratorien, wo mithilfe der sog. magnetischen Kühlung Temperaturen erzeugt werden, die nur Milliardstel Grad über dem absoluten Nullpunkt liegen.

Die keramischen »Hochtemperatur-Supraleiter« wiederum besitzen zwar akzeptable Sprungtemperaturen, doch sind sie leider recht spröde und lassen sich nur auf komplizierten Umwegen in Drahtform bringen. Für sie gibt es (zurzeit noch) keine technischen Verwendungsmöglichkeiten für den Massenmarkt. Im Sommer 2005 gelang es dennoch, den weltweit ersten Generator mit diesem Material zu bauen. Weitere Forschungsprojekte stehen kurz vor dem Abschluss.

Wussten Sie, dass …

in Supraleitern Ringströme monatelang ohne jede Abschwächung fließen können?

die Supraleitung nicht nur bei zu hohen Temperaturen zusammenbricht, sondern auch, wenn äußere Magnetfelder oder die Stromstärke zu groß werden?

man Supraleiter als hochempfindliche Magnetfelddetektoren einsetzen kann? Die so genannten SQUIDs können Magnetfelder von einem Milliardstel des Erdmagnetfelds nachweisen. Sie werden z. B. in Archäologie, Medizin und Materialforschung eingesetzt.

Wie heiß sind Hochtemperatur-Supraleiter?

Immer noch sehr kalt! Hier zeigt sich einmal mehr, dass in der Physik vieles relativ ist: Die Temperatur, bei der ein typischer Hochtemperatur-Supraleiter seinen Widerstand verliert, liegt zwar um bis zu 100 °C über der von herkömmlichen Supraleitern. Mit maximal –140 °C liegen diese Temperaturen aber immer noch weit unterhalb des Gefrierpunkts in einem Bereich, in dem Luft flüssig wird. Entdeckt wurde diese »heiße« Klasse von Supraleitern von dem schweizerischen Physiker K. Alexander Müller (*1927) und dem deutschen Kristallographen J. Georg Bednorz (*1950) 1986 am IBM-Forschungslaboratorium in Rüschlikon am Zürichsee. Sie hatten »aufs Geratewohl« hergestellte neue Keramiken auf brauchbare Eigenschaften überprüft und festgestellt, dass die Verbindung Lanthanbariumcuprat schon oberhalb von –200 °C supraleitend wird. Bereits im nächsten Jahr erhielten sie für ihre Entdeckung den Nobelpreis für Physik, eine der schnellsten Entscheidungen des Nobelkomitees!

Feynman: Nobelpreisträger an den Bongos

Was unterschied Richard Feynman von anderen Nobelpreisträgern?

Bei ihm traten zur außergewöhnlichen Begabung für sein Fach hervorragende didaktische Fähigkeiten, eine unkonventionelle Herangehensweise an physikalische und andere Probleme und eine recht exzentrische Persönlichkeit.

Typisch für ihn war, dass er stumpfes Auswendiglernen hasste und immer bemüht war, eine neue und ungewöhnliche Betrachtungsweise zu finden. Das konnte Feynman wie kein Zweiter, und es befähigte ihn, seine Studenten und Zuhörer immer wieder mit neuen Blicken auf scheinbar einfache Dinge zu begeistern.

Feynmans Vorlesungen wurden selbst von Nicht-Physikern wegen ihrer frischen Ideen gerne besucht; die »Feynman Lectures on Physics« wurden zum Weltbestseller – eher ungewöhnlich für die Mitschrift einer physikalischen Vorlesung! In Deutschland wurde auch eine zweisprachige Ausgabe der »Lectures« verlegt, da viele sprachliche Kabinettstückchen einfach nicht zu übersetzen waren. Gelang es Feynman nicht, einen Sachverhalt einem Studenten zu erklären, so suchte er den Fehler immer zunächst bei sich und versuchte, klarere Argumente zu finden.

Als Mitglied eines Komitees zur Gestaltung von Schulbüchern verband er Humor mit didaktischer Begabung. Mit wenigen Worten machte er deutlich, wie viele grundsätzliche Fehler die Schulbücher in den 1950er und 1960er Jahren enthielten. Zudem wurde das Erlernen der Physik durch unnötig komplizierte Darstellungen und eine nur Experten verständliche Sprache zusätzlich drastisch erschwert.

Auch im privaten Bereich liebte es Feynman oft unkonventionell: Eines seiner Hobbys war das Knacken von Tresoren und Safes, worin er es zu einer erstaunlichen Fertigkeit brachte. Und während seine Mitstudenten sich mühten, an US-amerikanischen Eliteunis unterzukommen, ging er für einen Forschungsaufenthalt nach Brasilien. In seiner Freizeit nahm er dort Bongo-Unterricht und wurde so gut, dass er bei einer der großen Karnevalsparaden mitspielen durfte.

Wer war Feynman?

Der 1918 in New York geborene Richard Phillips Feynman galt schon in frühen Jahren als naturwissenschaftliches »Wunderkind« mit ausgeprägter mathematischer Begabung. Mit 17 begann er sein Physikstudium am Massachusetts Institute of Technology (MIT) und besuchte schon ab seinem zweiten Semester Vorlesungen für Doktoranden.

Nach seinem Studienabschluss 1939 schuf er die Grundlagen einer Quantentheorie zum Verhalten von Elektromagnetismus und Licht, der Quantenelektrodynamik, die zusätzlich auch noch die Spezielle Relativitätstheorie enthielt. Nach dem Krieg beschäftigte er sich mit Kernphysik. Sein größter Geniestreich war jedoch eine Rechenmethode, für die er 1965 mit dem Physiknobelpreis ausgezeichnet wurde. Es handelt sich hierbei um die sog. Pfadintegrale sowie die heute nach ihm benannten Feynman-Diagramme. Mit diesen Verfahren können die extrem komplizierten Gleichungen der Quantenelektrodynamik gelöst werden. Wie bei Feynman zu erwarten war, ist die Methode genial einfach und vor allem anschaulich, ein Aspekt, der in der modernen Physik nur noch selten zu finden ist. – Feynman starb 1988 an Krebs.

Wozu braucht man eine Quantenelektrodynamik?

Die in den 1920er und 1930er Jahren entwickelte Quantenphysik war zwar ein großartiger Erfolg, der das Weltbild der Physik revolutionierte. Aber es gab entscheidende Schönheitsfehler: Zum Beispiel hätte das winzige Elektron nach der Theorie eine unendlich große Masse haben müssen. Feynman und andere setzten deswegen die Revolution fort – sie »quantisierten« nicht nur die Teilchen, sondern auch die zwischen ihnen wirkenden Kräfte. Die unanschauliche Konsequenz: Auch Kräfte sind Teilchen und das Licht selbst besteht in Wirklichkeit aus denjenigen Teilchen, welche die elektromagnetische Naturkraft vermitteln. Was wir als elektrische Abstoßung oder Anziehung erleben, ist im Bild der Quantenelektrodynamik nichts anderes als der fortwährende Austausch von Lichtteilchen.

Dies klingt sehr akademisch und scheint wenig Auswirkungen auf das tägliche Leben zu haben. Doch immerhin ist die Quantenelektrodynamik eine der am besten bestätigten Theorien überhaupt, ihre Vorhersagen stimmen auf 10 Stellen hinter dem Komma und mehr mit den Experimenten überein. Außerdem ist sie das Vorbild für weitere Theorien wie die Quantenchromodynamik, welche die Kräfte zwischen Protonen und Neutronen sowie innerhalb von ihnen beschreibt, und auch für spekulative Denkgebäude, die versuchen, alle vorkommenden Naturkräfte zu vereinigen und einheitlich zu beschreiben.

Übrigens: Die Abkürzung »QED« für »Quantenelektrodynamik« ist die gleiche wie das Kürzel für den Satz »quod erat demonstrandum«, den Mathematiker klassischerweise ans Ende einer gelungenen Beweisführung anfügen. Dies war zwar wohl nicht der Grund, warum die Theorie ihren Namen erhielt – aber sicherlich ganz im Sinne Richard Feynmans!

Wussten Sie, dass …

Feynman auch als der Vater der Nanotechnologie gilt? 1959 skizzierte er in seinem Vortrag »Ganz unten ist eine Menge Platz« als Erster einige der Möglichkeiten dieser Technologie.

aus Feynmans 1981 gestellter Frage nach der Simulierbarkeit von quantenmechanischen Vorgängen mit klassischen Computern das interdisziplinäre Gebiet des Quantencomputing erwuchs?

aus vielen Zitaten Feynmans sein seltsamer Humor sprach? So sagte er etwa: »Wissenschaft ist wie Sex: Es kommt zwar manchmal etwas Handfestes dabei heraus, aber das ist eigentlich nicht der Grund, warum wir es betreiben.«

Feynman die Bezeichnung »Cargo-Kult« für Projekte prägte, die so sinnlos sind wie das Anbeten von Flugplätzen, auf denen nie ein (Transport-)Flugzeug landet, durch uninformierte Ureinwohner?

Ist die Atombombe sicher?

Natürlich nicht – behauptet Richard P. Feynman in einer Anekdote aus seiner Autobiographie »Sie belieben zu scherzen, Mr. Feynman«: Er war während des Zweiten Weltkriegs an der Entwicklung der Atombombe im Forschungszentrum Los Alamos beteiligt. Die dortigen Sicherheitsvorkehrungen aber waren in seinen Augen lächerlich. Um das zu zeigen, lernte er im Selbststudium das Öffnen von Safes und konnte prompt auch den Safe mit den Geheimunterlagen zur Atombombe knacken.

Statistische Physik: Das Wesen der Wärme

Was ist Wärme?

Das kommt darauf an, wen man fragt: Ein Kind wird sagen, dass sich warme Dinge angenehm anfühlen, es aber schmerzt, wenn sie zu heiß werden. Die Physik antwortet in gewohnt unverständlicher Weise: diejenige Energie, die übertragen wird, wenn sich die Temperatur eines Körpers erhöht. Und Ihr Pfarrer wird sagen, Zuwendung und Liebe seien die Spender von zwischenmenschlicher Wärme. Tatsächlich gehört Wärme zu den Dingen, die jeder Mensch kennt, ja sogar unmittelbar sinnlich wahrnehmen kann, die sich jedoch nur mühsam definieren oder theoretisch durchdringen lassen.

Noch Anfang des 19. Jahrhunderts hielt man Wärme für einen eigenen Stoff, das »Caloricum«, das kein Gewicht hat und Körper durchdringen kann. Heute sieht man Wärme, wie gesagt, als eine Energieform an. Sie ist verbunden mit der durchschnittlichen ungerichteten Bewegungsenergie der Atome oder Moleküle eines Körpers. Dabei kommt es auf das Wörtchen »ungerichtet« an: Wenn sich alle Atome eines Steines in dieselbe Richtung bewegen (etwa an mein Knie), dann spüre ich dort einen Stoß, physikalisch gesehen wird mechanische Arbeit an meinem Knie geleistet. Aber auch wenn der Stein ruhig auf meinem Knie liegt, bewegen sich seine Atome ständig und in zufälliger Weise hin und her, sie vibrieren und rotieren. Diese ungerichtete Bewegungsenergie ist das, was ich als »Wärme« des Steins bzw. als dessen Temperatur wahrnehme. Übrigens: Weil Wärme eine Energieform ist, wird sie korrekterweise nicht mit der veralteten Einheit Kalorie gemessen, sondern mit der universellen Energieeinheit Joule bzw. Kilojoule, die auch für mechanische, chemische oder Strahlungsenergie sowie den Energieinhalt von Nahrungsmitteln benutzt wird.

Wie wird Wärme übertragen?

Auf mehreren Wegen: durch direkten Kontakt (»Wärmeleitung«), durch Wärme- oder Infrarotstrahlung oder indem sich warme Gase oder Flüssigkeiten durch den Raum bewegen (»Konvektion«). Der Prozess der Wärmeleitung lässt sich anschaulich im Teilchenbild erklären: Die Moleküle des heißeren Körpers haben definitionsgemäß im Durchschnitt eine höhere kinetische Energie, bewegen sich also schneller. Wenn nun eines dieser schnellen Moleküle auf ein langsameres stößt, überträgt es diesem einen Teil seiner Bewegungsenergie und wird selbst dadurch langsamer. Da also bei den unablässig auftretenden Stößen immer Energie und damit Wärme von den schnelleren, also »wärmeren« Teilchen auf die langsameren übertragen wird, muss irgendwann ein Zustand erreicht sein, in dem überall dieselbe Durchschnittsgeschwindigkeit herrscht (es sei denn, durch eine äußere Wärmequelle wird ständig neue Wärme zugeführt und damit das Ungleichgewicht aufrechterhalten).

Was hat Statistik mit Wärme zu tun?

Sehr viel: Wärmephänomene treten immer nur bei sehr großen Teilchenanzahlen auf. Wärme lässt sich somit nur mit statistischen Methoden, d. h. mit Untersuchungen von Massenerscheinungen, korrekt beschreiben. Es ist klar, dass es keinen Sinn hat, von der durchschnittlichen Energie eines einzelnen Atoms zu sprechen. Wärmeleitung oder Temperatur lassen sich nur mit vielen Partikeln erklären. Und in der Tat geht es, wenn wir im Alltag mit Molekülen oder Atomen zu tun haben, immer um unvorstellbar große Zahlen – bereits ein Mikroliter Wasser (ein Würfel mit 1 mm Kantenlänge) enthält 3 • 1019 Moleküle.

Übrigens: Nicht nur Wärme und Temperatur sind kollektive Systemgrößen, auch Druck und Dichte zählen beispielsweise hierzu. Sie haben eine überraschende Eigenschaft: Fügt man zwei Körper zusammen, dann ist ihre gemeinsame Temperatur (oder ihre Dichte) der Mittelwert der beiden Einzeltemperaturen, es gilt also »1 + 2 = 1,5«. Größen wie die Masse oder die Länge der Körper addieren sich dagegen wie gewohnt, hier ist 1 + 2 = 3.

Wieso hilft Pusten, wenn der Kaffee zu heiß ist?

Wenn man auf eine heiße, dampfende Flüssigkeit pustet, entfernt man mit dem Dampf die schnellsten und damit »wärmsten« Moleküle. Die Durchschnittsgeschwindigkeit wird so gesenkt und damit auch die Temperatur. Man muss hier die Flüssigkeit und den darüber stehenden Dampf als ein System ansehen, denn es treten ständig gleichzeitig Moleküle aus der Tasse in die darüber liegende Luft ein wie auch wieder zurück in die Flüssigkeit. Und es sind gerade die schnellsten Flüssigkeitsteilchen, denen es gelingt, nach oben zu entkommen, und die langsamsten Dampfpartikel, die wieder in der Flüssigkeit aufgenommen werden. Wird also der komplette Dampf entfernt, so schickt die Flüssigkeit als Nachschub ihre dann noch schnellsten Partikel, die beim nächsten Pusten ebenfalls verloren gehen usw. Der offizielle Name dieses Effekts ist Verdunstungskühlung. Er wird von vielen Lebewesen zur Temperaturregulierung an heißen Tagen genutzt.

Warum wird bei einem Ceran-Kochfeld nicht die ganze Platte heiß?

Weil diese Kochfelder aus einem Keramikmaterial bestehen (Glaskeramik), das ein schlechter Wärmeleiter ist. Nur der Kochfeldbereich, der von unten durch einen elektrischen Heizleiter erhitzt wird, beginnt heiß zu werden und zu glühen. Durch die schlechte Wärmeleitung wird die Hitze nicht nach allen Seiten verteilt, sondern bleibt auf diesen Bereich beschränkt.

Gibt es eine tiefste Temperatur?

Die niedrigste theoretisch mögliche Temperatur ist –273,16 °C (oder 0 K, sprich: null Kelvin). Man nennt diese Temperatur den absoluten Nullpunkt. Dass es tiefer nicht geht, zeigt die Betrachtung auf molekularer Ebene: Da die Temperatur ja die ungerichtete Bewegungsenergie der Moleküle ist, werden diese beim Abkühlen immer langsamer. Wenn alle Teilchen sich in völligem Stillstand befinden, dann ist die gesamte kinetische Energie null. Da man sich nicht weniger als gar nicht bewegen kann, muss dies die niedrigste mögliche Temperatur sein. Ein Zustand mit geringerer Temperatur ist physikalisch unsinnig. Übrigens: Man kann den Temperaturnullpunkt gemäß dem sog. Nernst'-schen Hauptsatz der Wärmelehre nie ganz erreichen, sondern sich nur beliebig dicht an ihn annähern.

Wussten Sie, dass …

man auch Menschenansammlungen eine Temperatur zuschreiben kann? Je schneller beispielsweise die Schüler in einem Klassenraum hin und herlaufen (je »wärmer« die Horde ist), umso häufiger rempeln sie einander an und umso größer wird der »Druck«, der im Klassenzimmer herrscht und bisweilen auch an die Wände abgegeben wird.

die in unserem Alltag gebräuchliche Celsius-Skala und die in der Physik verwendete Kelvin-Skala für die Temperatur zwar um 273,16 Grad gegeneinander verschoben sind, aber 1 °C genauso viel ist wie 1 K?

die Methoden der statistischen Physik auch für die Simulation beispielsweise von Verkehrsströmen eingesetzt werden?

die Physiker herausgefunden haben, dass die 200 Nukleonen eines schweren Atomkerns bereits in gewisser Weise schon statistische Eigenschaften wie Temperatur und Druck aufweisen?

Bose-Einstein-Kondensate: Universelle Kälterekorde

Was ist kälter als das Universum?

Ein Physiklabor. So unglaublich es klingt: In Kältelaboren wurden Temperaturen erzeugt, die unter der Temperatur des Weltraums liegen. Dieser macht zwar mit 2,7 Kelvin (2,7 Grad über dem absoluten Temperaturnullpunkt) seiner sprichwörtlichen Kälte alle Ehre. Doch er besitzt als Nachglimmen des Urknalls eben doch noch eine gewisse Restwärme, die mit dieser Temperaturangabe ausgedrückt wird. Kältegrade in diesem Bereich konnte zwar bereits Anfang des 20. Jahrhunderts der niederländische Nobelpreisträger und Pionier der Tieftemperaturphysik Heike Kamerlingh Onnes (1853–1926) erzeugen. Doch erst heute stoßen Physiker in die Größenordnung von Mikro- und Nanokelvin (Millionstel bzw. Milliardstel Kelvin) vor, Temperaturen, die in der Natur nicht vorkommen, sonden nur von hinreichend intelligenten Lebewesen erzeugt werden können.

Was ist ein Bose-Einstein-Kondensat?

Ein exotischer Materiezustand, bei dem alle Atome sich auf exakt dieselbe Weise verhalten und der nur bei extrem tiefen Temperaturen erreicht wird. Vorhergesagt haben ihn in den 1920er Jahren der indische Physiker Satyendra Nath Bose (1894–1974) und Albert Einstein (1879–1955). Doch erst 1995 konnte dieser Zustand tatsächlich präpariert werden. Für diese experimentelle Meisterleistung erhielten Eric A. Cornell, Wolfgang Ketterle und Carl E. Wieman 2001 den Physiknobelpreis.

In einem Bose-Einstein-Kondensat (meist englisch mit »BEC« abgekürzt) herrschen seltsame Verhältnisse. Alle Atome befinden sich im selben Quantenzustand: Sie befinden sich exakt am gleichen Ort, bewegen sich in die gleiche Richtung, rotieren gleichsinnig usw. Sie sind vollkommen ununterscheidbar und müssen mathematisch wie ein einziges großes Teilchen beschrieben werden. Die Temperatur, bei der das erste BEC entstand, liegt bei unvorstellbar niedrigen 200 Nanokelvin, 200 Milliardstel Grad über dem absoluten Temperaturnullpunkt.

Wie erreicht man derart extreme Kältegrade?

Durch eine Kombination verschiedener Verfahren, wobei magnetische, Laser- und Verdunstungskühlung eine Rolle spielen. Die Verdunstungskühlung gehört zum praktischen Alltagswissen, denn um nichts anderes handelt es sich, wenn man auf eine zu heiße Tasse Kaffee pustet, um sie abzukühlen. In der Tieftemperaturphysik bildet sie allerdings die letzte Stufe der Kühlkaskade – man lässt die bereits auf extrem tiefe Temperaturen abgekühlte Materieprobe einfach durch Verdunstung die schnellsten Atome verlieren und senkt damit die Durchschnittsgeschwindigkeit, also die Temperatur.

Interessant ist das Verfahren der Laserkühlung. Hierbei werden mit Laserstrahlen Atome, deren Geschwindigkeit über dem Durchschnitt liegt, gezielt aus der Probe entfernt. Um alle drei Raumrichtungen abzudecken, müssen drei gekreuzte Strahlen benutzt werden.

Übrigens: Die Herstellung von Temperaturen in der Nähe des absoluten Nullpunkts ist sehr schwierig, denn je geringer die Temperatur ist, desto weniger Stöße zwischen den Bestandteilen der Substanz treten auf. Weil aber Wärme durch Stöße zwischen Atomen übertragen wird, kann bei sinkender Temperatur immer weniger Wärme abgeführt werden. Darum wird es, je näher man dem Nullpunkt kommt, immer schwieriger, noch mehr Wärme abzuführen.

Was bieten Bose-Einstein-Kondensate?

Heutzutage sind sie zunächst ideale Untersuchungsobjekte für die experimentelle Quantenmechanik, denn ähnlich wie bei der Supraleitung lassen sich Quanteneffekte bei Objekten beobachten, die immerhin einige Millimeter Größe aufweisen.

Aber Ingenieure und Konzernvorstände träumen bereits von konkreten Anwendungen: Atome aus einem BEC haben eine, verglichen mit Licht, sehr kurze Wellenlänge. Ein Messinstrument mit einem »Atomlaser«, der analog zum optischen Laser kohärente Atomstrahlen aus einem BEC entweichen lässt, könnte höchste Auflösungen erreichen. Auch höchstempfindliche Sensoren für Schwerkraft oder Drehbewegungen sowie Quantencomputer, die mit Atomen anstelle von Elektronen rechnen, sind denkbar.

Wie macht man Luft flüssig?

Mit dem bereits 1895 entwickelten und patentierten Linde-Verfahren. Es beruht im Prinzip genau wie ein Haushaltskühlschrank darauf, dass sich Gase erwärmen, wenn sie verdichtet werden, und abkühlen, wenn sie »entspannt« sind, d. h., sich wieder ausdehnen. Vergrößert man ihr Volumen wieder, sinkt der Druck und die Gase kühlen wieder ab. Der Trick besteht nun darin, das Gas zu komprimieren und im verdichteten Zustand weiter abzukühlen. Beim Entspannen sinkt die Temperatur dann unter die Ausgangstemperatur. Beim Linde-Verfahren nutzt man in einem mehrstufigen Prozess das entkomprimierte Gas zur Vorkühlung des verdichteten Gases. So erreicht man schließlich die für Luft und andere häufige Gase niedrigen Siedetemperaturen (für Luft etwa –193 °C). Ferner lässt sich so Luft in ihre Bestandteile trennen, da die einzelnen Komponenten bei jeweils unterschiedlichen Temperaturen flüssig werden. Das Linde-Verfahren ist auch heute noch die erste Kühlstufe in Anlagen zur Erzeugung der ultraniedrigen Temperaturen von Bose-Einstein-Kondensaten.

Wussten Sie, dass …

es zwei Klassen von Elementarteilchen gibt? Eine von ihnen wird zu Ehren von Bose als »Bosonen« bezeichnet, nur diese können Bose-Einstein-Kondensate bilden. Zu den Bosonen gehören Lichtteilchen (Photonen) und viele Atome. Elektronen, Protonen und Neutronen dagegen sind »Fermionen« (nach dem italienischen Physiker Enrico Fermi) und können niemals ein BEC bilden.

farbiges Licht nur möglich ist, weil Lichtteilchen Bosonen sind? Wären Photonen Fermionen, dürften nicht zwei von ihnen dieselbe Energie, also dieselbe Farbe aufweisen. Alles Licht wäre dann ein Gemisch von Photonen unterschiedlicher Farbe – also weiß.

ein Laser darauf beruht, dass die Photonen Bosonen sind? Das wichtigste Merkmal eines Lasers ist ja, dass alle Photonen exakt dieselbe Energie (also dieselbe Wellenlänge bzw. dieselbe Farbe) haben.

Helium bei extrem niedrigen Temperaturen kein BEC bildet, sondern ein anderes Quantenphänomen namens »Suprafluidität« zeigt? Suprafluides Helium fließt ohne jede Reibung, ähnlich wie supraleitende Metalle ohne Widerstand Strom leiten können.

Perpetuum mobile: Möglich oder nicht?

Was ist ein Perpetuum mobile?

Der Wunschtraum von Erfindern aller Zeiten: eine Maschine, die sich ohne Energiezufuhr von selbst und unablässig bewegt und dabei Arbeit leistet. Unzählige Forscher haben versucht, ein solches Perpetuum mobile (lateinisch für »dauernd beweglich«) zu konstruieren.

Bis heute sind immer wieder Modelle ersonnen worden, die sich zum Teil sogar jahrelang antriebslos zu bewegen schienen, aber keine dieser Maschinen hat wirklich – wie versprochen – ohne Energiezufuhr Arbeit geleistet. Diese Geräte ziehen ihre Energie oft aus der Schwerkraft. Hilfreich sind zudem feinmechanisch hochpräzise und fast reibungsfrei laufende Bauteile. Diese Maschinen befinden sich in einem so fein austarierten Gleichgewicht, dass Energieverluste – wie sie etwa durch Reibung, aber auch durch geleistete Arbeit entstehen – durch die von der Erde gelieferte Schwerenergie »heimlich« ausgeglichen werden. Doch alles Mühen ist vergeblich. Ein Perpetuum mobile ist nach den physikalischen Gesetzen unmöglich, denn es verletzt den Energieerhaltungssatz, quasi das Grundgesetz der Physik und damit aller Naturwissenschaften überhaupt. Er besagt, dass sich Energie nicht aus dem Nichts erzeugen lässt, also keine Arbeit ohne Energiezufuhr von außen geleistet werden kann.

Was ist Unordnung?

Für die Physik nichts Verwerfliches, sondern ein Zustand, den alle Systeme von selbst einzunehmen anstreben. Der österreichische Physiker Ludwig Boltzmann definierte die unanschauliche, aber dennoch sehr wichtige Größe Entropie, mit der sich der Grad der »Unordnung« eines Systems quantifizieren lässt. Der nach dem Energieerhaltungssatz zweite wichtige Hauptsatz der Wärmelehre besagt, dass die Entropie eines geschlossenen Systems immer zunimmt oder bestenfalls gleich bleibt. Nur durch Austausch mit der Umgebung kann die Entropie zeitweise auch wieder sinken. Schülern ist das vertraut: Sie müssen täglich erhebliche Arbeit investieren, um die Unordnung auf dem Schreibtisch und in ihrem Zimmer auch nur einigermaßen in Grenzen zu halten.

Dieser zweite Hauptsatz lässt sich übrigens rein statistisch begründen. Betrachten wir die 32 Karten eines Skatblatts, ein im Vergleich zur Luft in einem Zimmer mit ihren etwa 1028 Molekülen sicherlich winzig kleines System. Theoretisch wäre es durchaus möglich, dass durch Mischen alle Karten nach Farbe und Kartenwert sortiert werden. Dies ist aber nur eine einzige unter 2,6 • 1035 möglichen Anordnungen nach dem Mischen, von denen fast alle eine wahllose Reihenfolge der Karten aufweisen. Mit anderen Worten: Die Unordnung nimmt einfach deshalb zu, weil sie so unvorstellbar viel wahrscheinlicher als die Ordnung ist!

Warum läuft die Zeit nicht rückwärts?

Das kann die moderne Physik nicht wirklich beantworten. Diese Frage, auf die wohl nur Physiker und Philosophen kommen, lässt sich nur mit dem Hinweis auf den zweiten Hauptsatz klären – »vorwärts« und »rückwärts« wird nämlich genau dadurch definiert, dass Naturvorgänge so ablaufen, dass die Entropie zunimmt.

Merkwürdigerweise sind fast alle Naturgesetze so formuliert, dass es egal ist, ob die Zeit vorwärts oder rückwärts läuft. Und auch für Atome oder Elektronen ist mit wenigen Ausnahmen die Richtung der Zeit irrelevant. Erst auf der makroskopischen Ebene gibt es Prozesse, die nur in einer Richtung ablaufen können: Ein Glas kann nur zerspringen, es kann sich nicht von selbst aus den Scherben wieder komplett zusammensetzen. Ebenso kann man zwar leicht Rotwein auf einem Teppich verschütten, ihn aus dem verfleckten Teppich wieder ins Glas zu befördern, ist aber selbst mit Hilfsmitteln sehr schwierig, von allein würde dies nie geschehen.

Woran verzweifelte Ludwig Boltzmann?

An der Schwierigkeit seines Forschungsgebiets und der Unfähigkeit seiner Zeitgenossen, seine Erkenntnisse zu verstehen. Ruhm wurde dem 1844 in Wien geborenen Physiker erst nach seinem Freitod im Jahr 1906 zuteil. Heute gilt er als einer der wichtigsten Wegbereiter der Wärmelehre. Ihm zu Ehren nennt man die Konstante, mit der zwischen Energie- und Temperaturgrößen umgerechnet wird, Boltzmann-Konstante.

Boltzmann führte den Begriff der Entropie ein, mit dem sich Fragen der Ordnung oder Unordnung ähnlich wie Energieprobleme behandeln lassen. Als Erster interpretierte er Wärme als die ungeordnete Bewegungsenergie der Moleküle und er fand den fundamentalen Zusammenhang zwischen Entropie und Wahrscheinlichkeit. Sein revolutionärer statistischer Ansatz war bahnbrechend, doch für Zeitgenossen zu komplex.

Wussten Sie, dass …

man zwei Arten von Perpetua mobila unterscheiden kann? Ein Perpetuum mobile 1. Art schafft sich seine Antriebsenergie selbst (Verstoß gegen die Energieerhaltung), eines 2. Art wird durch die Umgebungswärme angetrieben (Verstoß gegen den 2. Hauptsatz der Thermodynamik).

die französische Akademie der Wissenschaften schon 1775 keine Arbeiten zum Perpetuum mobile mehr annahm? In den meisten Ländern nehmen auch die Patentämter keine Anmeldungen für ein Perpetuum mobile entgegen.

Boltzmanns Grabstein eine physikalische Formel trägt? Auf dem Stein des Ehrengrabs ist der Zusammenhang zwischen der Entropie S und der Zahl W der möglichen Systemzustände eingraviert: S =  k log W. Die Konstante k ist nach Boltzmann benannt.

man die in einem System kodierte Information mit dessen Entropie messen kann? Dieser Lehrsatz der Informationstheorie wurde 1948 von Claude E. Shannon aufgestellt.

die Entropie wichtige praktische Anwendungen hat? Mit ihr lässt sich berechnen, ob und unter welchen Bedingungen chemische Reaktionen von selbst ablaufen oder wie effektiv Kraft-Wärme-Maschinen arbeiten.

Selbstorganisation: Strukturen im Chaos

Was bedeutet Selbstorganisation?

Das Zusammenfügen kleinerer Einheiten zu größeren, wohl geordneten Systemen, z. B. von einzelnen Wassermolekülen zu Eis, von Proteinen und Kohlenhydraten zu lebendem Gewebe oder von Ameisen oder Menschen zu komplex aufgebauten Staaten. Auch wenn die Namen etwas anderes nahelegen, ist das Phänomen der Selbstorganisation verwandt mit einem anderen naturwissenschaftlichen Modethema, der Chaostheorie. Dies liegt daran, dass »Chaos« in der Physik nicht als ein strukturloses wildes Durcheinander aufgefasst wird, sondern als ein Zustand, der quasi auf der Kippe zwischen Ordnung und Regellosigkeit steht. In diesem Zusammenhang kommen auch die auf der folgenden Doppelseite behandelten Fraktale ins Bild, geometrische Gebilde wie das sog. Apfelmännchen, die als Computergrafiken bekannt geworden sind.

Selbstorganisation ist kein Widerspruch zum berühmten 2. Hauptsatz der Wärmelehre, nach dem die Entropie oder Unordnung in einem geschlossenen System immer mehr anwächst. Sie tritt nämlich nur in offenen Systemen auf, die sich zudem nicht in einem Gleichgewichtszustand befinden, etwa weil sie wachsen. Selbstorganisiertes Wachstum ist einerseits dem Zufall unterworfen, andererseits folgt es recht einfachen Regeln. So lagern sich etwa Wassermoleküle immer in 60°-Winkeln aneinander und die Zahl der Einzelblüten in einer Sonnenblume ist – in einem bestimmten Abstand vom Zentrum – stets eine sog. Fibonacci-Zahl, d. h., sie wächst in genau bestimmter Folge an.

Wie wachsen Schneeflocken?

Durch Anlagerung von Wassermolekülen an andere. Weil die Moleküle gewinkelt sind (sie ähneln entfernt einem Micky-Maus-Kopf, dessen Ohren die Wasserstoffatome bilden), bevorzugen sie Strukturen mit 60°-Winkeln. Deshalb nehmen perfekte Eiskristalle eine sechseckige Gestalt an. Bei nicht perfektem Wachstum lagern sich an die sechs Seiten eines einmal entstandenen Kristallisationskeims unterschiedlich schnell weitere Moleküle an. Zufällige Anfangsunterschiede prägen das weitere Wachstum. Aus diesem Grund gleicht zwar, wie das Sprichwort ganz richtig feststellt, keine Schneeflocke der anderen. Doch alle besitzen eine sechszählig symmetrische Grundstruktur.

Was sind Fibonacci-Zahlen – und was haben sie mit Wachstum zu tun?

Fibonacci-Zahlen nennt man eine Folge von Zahlen, bei denen jedes Element die Summe der beiden vorangegangenen Glieder ist: 1, 1, 2, 3, 5, 8, 13, 21, 44, 65, … Auf diese Zahlenfolge stieß der italienische Mathematiker Leonardo Fibonacci vor etwa 800 Jahren, als er sich mit der Frage beschäftigte, wie schnell sich eigentlich Kaninchen vermehren. Er begann mit einem Kaninchenpaar und berechnete, wie schnell die Population anwuchs. Dabei ging er von vereinfachenden Annahmen aus, etwa der, dass seine Modellkaninchen unsterblich seien. Das Ergebnis war die Zahlenfolge 1, 1, 2, 3, 5, 8, 13, …, deren Elemente heute zu Ehren ihres Erfinders als Fibonacci-Zahlen bezeichnet werden.

Natürlich vermehren sich Kaninchen in Wirklichkeit ganz anders, trotzdem gibt es in der Natur viele Beispiele, in der sich diese Zahlenreihe in der Gestalt von Lebewesen wiederfinden lässt, z. B. bei Sonnenblumen, Margeriten oder Romanesco-Kohl.

Konstruieren sich unsere Computer bald selbst?

Wenn es nach den Physikern geht: Ja. Sie setzen große Hoffnungen darauf, die heutigen Herstellungsverfahren von Mikrochips durch selbstorganisierte Prozesse auf der Nanometerskala zu ersetzen. Auf diese Weise sollen die immer größeren Schwierigkeiten überwunden werden, die sich beim immer kleineren Computerchip auftun. Gelänge es, Schaltkreise zu entwerfen, die sich aus wenigen Molekülen nach einfachen Regeln »von selbst« zusammenbauen, könnten noch einmal gewaltige Steigerungen bei Miniaturisierung, Rechenleistung und Speicherkapazität erreicht werden – und das bei viel geringeren Produktionskosten!

Was ist der Goldene Schnitt?

Der Goldene Schnitt ist eine schon im Altertum erkannte Regel, derzufolge zwei Größen als besonders harmonisch empfunden werden, wenn sie in einem bestimmten Zahlenverhältnis zueinander stehen – eben dem Goldenen Schnitt. Dieses Zahlenverhältnis wird als die Zahl Phi bezeichnet und beträgt etwa 1,61803… Dieses Verhältnis begegnet uns überall in Natur und Kunst, z. B. in der Anordnung der Sonnenblumenkerne, von Blütenblättern, in physikalischen Kristallen, der Bauweise griechischer Tempel oder der künstlerischen Definition der idealen Proportionen menschlicher Körper. Übrigens: Die Zahl Phi gehört ebenso wie die Kreiszahl Pi oder die Wurzel aus 2 zu den sog. irrationalen und transzendenten Zahlen.

Wussten Sie, dass …

man Selbstorganisation auch im Kochtopf beobachten kann? Ein Beispiel dafür ist das säulenförmige Muster, das man beim Reiskochen im Topf sieht.

eine Engstelle auf der Autobahn ein Beispiel für Selbstorganisation ist? Wenn alle Autos nicht zu schnell sind und der »Reißverschluss« funktioniert, lässt sich ein Stau nahezu vermeiden. Er tritt erst auf, wenn einzelne Fahrer nicht »im Verkehr mitschwimmen«, sondern drängeln.

Selbstorganisation nicht nur in der Natur eine wesentliche Größe für die Entwicklung von Strukturen ist, sondern auch in Betriebswirtschaftslehre, Psychologie oder Informatik?

die Fibonacci-Zahlen mit dem Goldenen Schnitt zusammenhängen – einer Regel für harmonische Proportionen in Kunst und Natur? Dividiert man zwei aufeinanderfolgende Zahlen, so entspricht der Quotient schon nach wenigen Zahlen fast genau dem Zahlenwert des Goldenen Schnitts.

Chaostheorie: Vom Schmetterling zum Apfelmann

Was ist Chaos?

Für die Physik weit mehr als nur ein unüberschaubares Wirrwarr. Der Gegenstand der Chaostheorie ist nämlich ein Zustand, der korrekterweise »deterministisches Chaos« heißt und nur in den Medien verkürzt »Chaos« genannt wird. Untersucht werden Vorgänge, die meist ganz einfachen klassischen Naturgesetzen gehorchen, etwa die Bewegung von Billardkugeln oder bestimmte chemische Reaktionen. Deren Entwicklung ist nicht vorhersagbar: Aus nur geringfügig unterschiedlichen Anfangsbedingungen können völlig andere Endzustände resultieren. Auch wenn die Erforschung solcher Systeme erst vor wenigen Jahrzehnten in Angriff genommen wurde, sind es beleibe keine exotischen Prozesse: Das gesamte Wettergeschehen, die Bewegung von Planeten, die Entwicklung der Aktienkurse und vieles mehr verhält sich im hier beschriebenen Sinn chaotisch.

Gibt es Ordnung im Chaos?

Ja, durchaus – das macht dieses Forschungsgebiet ja so interessant. Alle Muster, die wir in der Natur – der unbelebten wie in der belebten – finden, sind letztlich geordnete Strukturen, die sich aus anfänglichem Chaos – einem Wirrwarr von Einzelobjekten und Einzelvorgängen – heraus entwickelt haben. Und wie die Forschung zeigt, ist deterministisch-chaotisches Geschehen durchaus in gewissen Grenzen vorhersagbar: Chaotische Vorgänge können unter bestimmten Bedingungen nämlich auf sog. Attraktoren zulaufen, was nichts anderes bedeutet, als dass sich plötzlich Strukturen bilden, wieder verschwinden, sich erneut bilden usw.

Kann ein Schmetterling die Welt verändern?

Wahrscheinlich nicht, doch einem berühmten Zitat von Edward N. Lorenz zufolge kann »der Flügelschlag eines Schmetterlings im Amazonas-Urwald (…) einen Orkan in Europa auslösen«. Damit wollte er darauf hinweisen, dass winzigste Änderungen in einem komplexen chaotischen Geschehen wie dem Wetter sich an weit entfernten Orten zu großen Veränderungen aufschaukeln können. Dass ein Meteorologe wie Lorenz dieses Zitat prägte, das den Beginn der modernen Chaosforschung markiert, ist kein Zufall: Die Unvorhersagbarkeit von Wettervorgängen ist ein Gemeinplatz. Doch es dauerte viele Jahre, bis die Wissenschaft einsah, dass selbst die scheinbar ewig gleichen Planetenbahnen auf lange Sicht chaotisch sind. Und dies hat sogar Auswirkungen auf die Klimaentwicklung der Erde, z. B. auf die Abfolge von Eiszeiten und Wärmeperioden.

Was sind Fraktale?

Fraktale sind geometrische Gebilde, die sich bei der Lösung von deterministisch-chaotischen Gleichungen ergeben und oft von überraschender Schönheit, Regelmäßigkeit und Vielfalt sind. Eines der bekanntesten fraktalen Gebilde ist das »Apfelmännchen«. Die mathematischen Gleichungen, nach denen fraktale Computergrafiken berechnet werden, sind oft nicht allzu schwierig, dennoch ist die Berechnung oft recht unanschaulich. Häufig verwendet man sog. Rekursionen: Das Ergebnis des ersten Rechenschritts ist die Grundlage des zweiten, dessen Ergebnis die des dritten usw.

Was macht Fraktale so besonders?

Zwei geometrische Eigenarten: die Selbstähnlichkeit und die Tatsache, dass Fraktale nicht etwa ein-, zwei- oder dreidimensional sind, sondern eine gebrochenzahlige Dimensionalität aufweisen, also z. B. 2 ½-dimensional oder 1 4/7-dimensional sind. Letzteres gab diesen seltsamen Objekten auch ihren Namen, denn »fractum« heißt auf Lateinisch »gebrochen«.

Anschaulicher ist die andere Fraktaleigenschaft, die Selbstähnlichkeit. Damit ist Folgendes gemeint: Egal, wie stark man ein Fraktal vergrößert oder verkleinert, stets sieht es sich selber wieder ähnlich. So haben die Seitentriebe von Farnwedeln wiederum die Gestalt eines Farnwedels und deren Seitentriebe ebenfalls. Die Spiralen am Rand des Apfelmännchens führen immer wieder zu neuen Spiralen, aus denen kleine Apfelmännchen sprießen, die wieder Spiralen tragen – und immer so weiter, bis hinunter zu unendlich kleinen Abständen.

Herrscht Chaos beim Herzinfarkt?

Beim Herzkammerflimmern geht das Herz von regelmäßigem zu chaotischem Verhalten über – mit fatalen Folgen. Im Normalfall wird das Herz entsprechend dem Energiebedarf des Körpers regelmäßig zum Schlagen angeregt. Bei krankhaften Veränderungen kann es jedoch zum Herzkammerflimmern kommen. Das ist eine chaotische Selbsterregung des Herzens mit über 350 Anregungsimpulsen pro Minute, wodurch die Pumpleistung völlig ausfällt. Im Elektrokardiogramm (EKG) kann sich ein mögliches Herzkammerflimmern durch Doppel- und Vierfachrhythmen schon vorher ankündigen. Diese sog. Periodenverdopplung ist in der Chaosforschung als ein typischer Weg ins Chaos bekannt.

Wussten Sie, dass …

das Mischen von Spielkarten zu Chaos im physikalischen Sinn führt?

es unmöglich ist, die Länge der Küstenlinie eines Landes genau zu bestimmen? Je nachdem, welchen Maßstab die verwendete Karte hat, kommt man zu unterschiedlichen Werten. Diese Erkenntnis führte zur Entwicklung der mathematischen Fraktale.

die Erkenntnisse aus der Chaosforschung in den unterschiedlichsten Lebensbereichen gelten? Beispiele dafür sind die »chaotischen« Sprünge am Aktienmarkt, die Klimaentwicklung oder die Bildung von Verkehrsstaus.

Total votes: 242