Diese Seite ist zum Teil in Erarbeitung, zum Teil in Überarbeitung
Am Ende des 19. Jhd. waren 83 chemische Elemente bekannt, nicht allerdings wie sie aufgebaut sind und was sie in Flüssigkeiten oder Festkörpern zusammenhält.
Mithilfe grosser Fortschritte in der Mathematik waren die Phänomene und Zusammenhänge von Schall, Elektrizität, Magnetismus, Licht und Raum erforscht worden.
Die Erkenntnisse führten zu technologischen Erfindungen. Die entwickelten Geräte und Maschinen konnten nicht nur für den Alltagsgebrauch oder die Kriegsführung genutzt werden, sondern auch im Zusammenhang mit Experimenten für die Weiterentwicklung der Wissenschaft. So entstand ein immer rascher werdender Fortschritt.
Am Ende des 18. Jahrhunderts waren 44, am Ende des 19. Jahrhunderts 83 chemische Elemente bekannt. Das entspricht 70% der heute bekannten Elemente.
Das Konzept des Atomismus, nämlich dass Materie aus „kleinsten Teilchen“ aufgebaut ist, die nicht in kleinere Stücke zerteilt werden können – existiert seit Jahrtausenden, genauso wie das Gegenkonzept, Materie sei endlos weiter teilbar.
----------------------------------------------------------
Von den Elementen im heutigen Sinne waren in der Antike zehn in Reinform bekannt, die natürlich vorkamen oder aus Erz geschmolzen werden konnten: Kohlenstoff, Schwefel, Eisen, Kupfer, Zink, Silber, Zinn, Gold, Quecksilber und Blei.
Allerdings war man in der Antike und bis weit ins Mittelalter der Auffassung, dass die Welt aus den vier Elementen Erde, Wasser, Luft und Feuer aufgebaut ist.
Robert Boyle vertrat 1661 in seinem Werk The Sceptical Chymist die Meinung, die Materie sei aus diversen Kombinationen verschiedener Teilchen (corpuscules) aufgebaut und nicht aus den vier Elementen der Alchemie. Damit bereitete er die Überwindung der Alchemie durch den Element- und Atombegriff der modernen Chemie vor.
Zur Zeit Isaac Newtons (1642 - 1726) gab es unterschiedliche Theorien, wie Teilchen in Flüssigkeiten oder in Festkörpern zusammenhalten, so z.B. dass sich Teilchen gegenseitig einhaken, oder dass es sich um eine Verklebung von Teilchen handelt.
Isaac Newton anerkannte die damals gängigen Teilchenhaftungstheorien. Allerding war seine Vermutung, dass Teilchen sich durch eine Kraft anziehen, die "im unmittelbaren Kontakt extrem stark ist, in kleinem Abstand die chemischen Operationen durchführt und deren spürbare Wirkung unweit von Teilchen nachlässt" (Opticks, urspr. 1704, Nachtrag in einer Neuauflage).
Daniel Bernoulli zeigte 1740, dass der gleichmäßige Druck von Gasen auf die Behälterwände sich durch zahllose Stöße kleinster Teilchen erklären lässt. Damit wurde seine Forschung zum Vorläufer der kinetischen Gastheorie und statistischen Mechanik.
Die Bezeichnung "Atom" wurde Ende des 18. Jahrhunderts mit der beginnenden modernen Chemie für die damals hypothetischen kleinsten Einheiten der chemischen Elemente übernommen, denn mit chemischen Methoden lassen sich Atome in der Tat nicht „zerschneiden“.
Nachdem Antoine Lavoisier 1789 den heutigen Begriff des chemischen Elements geprägt und die ersten Elemente richtig identifiziert hatte, benutzte 1803 John Dalton das Atomkonzept, um zu erklären, wieso Elemente immer in Mengenverhältnissen kleiner ganzer Zahlen miteinander reagieren. Er nahm an, dass jedes Element aus gleichartigen Atomen besteht, die sich nach festen Regeln miteinander verbinden können und so Stoffe mit anderen Materialeigenschaften bilden. Außerdem ging er davon aus, dass alle Atome eines Elements die gleiche Masse hätten, und begründete damit den Begriff Atomgewicht.
Die Beobachtungen zum chemischen und physikalischen Verhalten von Gasen konnte Amedeo Avogadro 1811 dahingehend zusammenfassen, dass zwei ideale Gase bei gleichen Werten von Volumen, Druck und Temperatur des Gases immer aus gleich vielen identischen Teilchen („Molekülen“) bestehen.
Johann Loschmidt wertete mit einer Formel von James C. Maxwell die von George Stokes gemessenen Werte für die innere Reibung in Luft aus. Damit konnte er 1866 die Größe und das Gewicht von Luftmolekülen und die Anzahl Luftmoleküle pro Kubikzentimeter bestimmen.
Joseph John Thomson entdeckte 1897 nachweisbar Teilchen mit einer bestimmten Ladung und einer Masse kleiner als ein Tausendstel der Atommasse. Diese Teilchen wurden als Elektronen bezeichnet und erwiesen sich als ein Bestandteil aller Materie. Thomson glaubte, dass die Elektronen dem Atom seine Masse verleihen und dass sie im positiv geladenen Atom wie „Rosinen in einem Kuchen“ verteilt sind.
Energie
Energie ist ein abstrakter Begriff und steht in jedem Fall im Zusammenhang mit Masse und deren Bewegung oder Bewegungsmöglichkeit.
Jeder kleinstmögliche Körper hat Bewegungsenergie und/oder potentielle Bewegungsenergie bzw. die Möglichkeit sich zu bewegen oder eine Bewegung zu verursachen.
Ein Körper kann Energie von einem anderen Körper erhalten, kann Energie bewahren (speichern) und abgeben.
Körper können Energie auf unterschiedliche Weise speichern. Hier einige Beispiele:
Der Energieerhaltungssatz
Der Energieerhaltungssatz bzw. das Gesetz von der Erhaltung der Energie wurde zuerst von Robert Mayer (1814–1878) formuliert und in den Jahrzehnten danach weiter präzisiert. Der Satz besagt (in der heutigen Kenntnis), dass sich die Gesamtenergie eines abgeschlossenen Systems mit der Zeit nicht ändert und dass es demnach nicht möglich ist, in einem geschlossenen System Energie zu erzeugen oder zu vernichten.
Obwohl anfänglich bezweifelt, hat sich der Energieerhaltungssatz bis heute sowohl theoretisch als auch praktisch (aufgrund von Beobachtungen) bewährt.
Entropie
Nicolas Léonard Sadi Carnot schrieb 1824, dass die Kraft einer Dampfmaschine dem Wärmetransport von einem warmen Körper auf einen kalten entstammt und bereitete damit den Entropiebegriff vor.
In Konsequenz der entdeckten Gesetzmässigkeiten bezüglich Energieerhaltung und Entropie ist in einem abgeschlossenen System ein Perpetuum mobile nicht möglich.
Nicht beantworten kann die damalige wie auch heutige Physikwissenschaft in diesem Zusammenhang, ob ein unendlich grosser Kosmos ein Perpetuum mobile ist, in dem die Entropie zyklisch zurückgesetzt wird. In Schwarzen Löchern, z.B. scheint die Materie und deren Energie auf immer "gefangen und verloren" zu sein. Fusionen von Schwarzen Löchern hingegen (z.B. bei der Kollision von Galaxien) sind hochenergetische Prozesse, begleitet von Ausschuss von Materie und Energie, die zumindest scheinbar eine jeweilige galaktische Entropie zurücksetzen.
Das Studium von Wasser und Schallwellen erhielt im Zusammenhang mit der Analyse von Licht und Raum eine hohe Bedeutung. Sowohl Schall als auch Licht verbreiten sich unsichtbar. Bei deren Analyse wurden wesentliche Gemeinsamkeiten mit der Verbreitung von Wasserwellen entdeckt.
(Eine simple Veranschaulichung der Grundlagen zu Wellen, deren Ausbreitung und damit einhergehenden möglichen falschen Vorstellungen und Missverständnissen werden auf der Seite Grundlagen der Physik/Schall und Licht beschrieben.)
In der Geschichtsforschung zur Akustik gilt die Einführung von Tonsystemen und Stimmungen in der Musik im 3. Jahrtausend v. Chr. in China als eine erste systematische Beschäftigung mit der Akustik. Aus der abendländischen Antike ist eine wissenschaftliche Beschäftigung mit der Akustik unter anderem von Pythagoras von Samos (ca. 570–510 v. Chr.) überliefert, der den Zusammenhang von Saitenlänge und Tonhöhe beim Monochord mathematisch analysierte. Chrysippos von Soli (281–208 v. Chr.) erkannte den Wellencharakter von Schall durch einen Vergleich mit Wellen auf der Wasseroberfläche. Der römische Architekt Vitruv (ca. 80–10 v. Chr.) analysierte die Schallausbreitung in Amphitheatern und vermutete die Ausbreitung von Schall als Kugelwelle.
Leonardo da Vinci (1452–1519) erkannte unter anderem, dass Luft als Medium zur Ausbreitung des Schalls erforderlich ist und dass sich Schall mit einer endlichen Geschwindigkeit ausbreitet. Von Marin Mersenne (1588–1648) stammt neben anderen wissenschaftlichen Erkenntnissen zur Natur des Schalls auch die erste Angabe einer experimentell bestimmten Schallgeschwindigkeit. Galileo Galilei (1564–1642) beschrieb den für die Akustik wichtigen Zusammenhang zwischen Tonhöhe und Frequenz. Joseph Sauveur (1653–1716) führte die Bezeichnung „Akustik“ für die Lehre vom Schall ein. Isaac Newton (1643–1727) berechnete als erster die Schallgeschwindigkeit auf Grund theoretischer Überlegungen, während Leonhard Euler (1707–1783) eine Wellengleichung für Schall in der heute verwendeten Form fand. Ernst Florens Friedrich Chladni (1756–1827) gilt als Begründer der modernen experimentellen Akustik; er fand die Chladnischen Klangfiguren, die Eigenschwingungen von Platten sichtbar machen.
Mit Beginn des 19. Jahrhunderts setzte eine intensive Beschäftigung mit der Akustik ein und zahlreiche Wissenschaftler widmeten sich dem Thema. Georg Simon Ohm (1789–1854) postulierte die Fähigkeit des Gehörs, Klänge in Grundtöne und Harmonische aufzulösen, Hermann von Helmholtz (1821–1894) erforschte die Tonempfindung und beschrieb den Helmholtz-Resonator und John William Strutt, 3. Baron Rayleigh (1842–1919) veröffentlichte die „Theory of Sound“ mit zahlreichen mathematisch begründeten Erkenntnissen, die den Schall, seine Entstehung und Ausbreitung betreffen.
Magnetische Phänomene waren bis ins 19. Jahrhundert hinein vor allem im Zusammenhang mit dem Mineral Magnetit und mit Kompassnadeln bekannt.
Petrus Peregrinus de Maricourt experimentierte im 13. Jahrhundert mit Magneten und beschrieb 1269 in seiner Abhandlung Epistola de magnete als erster ihre Polarität.
William Gilbert (1544-1603) gilt als der erste Forscher, der mit sorgfältig geplanten Experimenten und systematisch die Eigenschaften von magnetischen Erzen erforschte. Während manche seiner Zeitgenossen meinten, die Spitze der Kompassnadel werde vom Polarstern angezogen, zeigte er überzeugend, dass die Erde insgesamt als ein einziger Magnet mit zwei Polen angesehen werden muss. Sein Hauptwerk "Über den Magneten, magnetische Körper und den großen Magneten Erde" erschien 1600 und ist die erste zusammenfassende Behandlung des Magnetismus seit de Maricourt.
Bewegte Ladungen magnetisieren die Umgebung
1802 publizierte Gian Domenico Romagnosi über die ablenkende Wirkung des Stroms auf eine Magnetnadel. International blieb diese nur lokal veröffentlichte Beobachtung unbeachtet. Um 1820 beobachtete Hans Christian Ørsted ebenfalls die Ablenkung einer Magnetnadel durch Stromeinfluss.
André-Marie Ampère (1775-1836) deutete und beschrieb die Stärke des Magnetfeldausschlags in Abhängigkeit zur Stromstärke. Er erfand den Elektromagneten und ist Begründer der Theorie vom Elektromagnetismus. Er war der herausragende Experimentator und Theoretiker der frühen Elektrodynamik, ist Namensgeber der physikalischen Einheit der elektrischen Stromstärke Ampere, erfand das „Amperemeter“ sowie die Theorie des elektrischen Telegrafen (erstmals angewandt 1832/33 von Carl Friedrich Gauss und Wilhelm Eduard Weber).
1825 entwickelte William Sturgeon mit Hilfe von Francis Watkins den ersten Elektromagneten. Ausgehend von den Ideen von André-Marie Ampère und François Arago gingen sie einen Schritt weiter. Sie verwendeten ein hufeisenförmiges Stück Eisen, das einen Kern mit 16 Umwicklungen des Drahtes bildete, die sich nicht berührten. Wenn Strom durch den Draht geführt wurde, konnte der Magnet 4 kg Metall anheben, bzw. das 20-Fache des Eigengewichts.
Bewegte Magnete elektrifizieren die Umgebung
Michael Faraday (1791-1867) gilt als einer der Begründer der Elektrodynamik. Er formulierte erstmals das Induktionsgesetz. und schuf die Grundlagen für Elektromotoren und Stromgeneratoren.
Des weiteren beschäftigte sich Faraday mit den Gesetzen der Elektrolyse und schuf die Grundlagen zur Erfindung der Telegraphie. Mit 30'000 durchgeführten Experimenten (u.a. Chemie und Optik) und einer enormen Anzahl Entdeckungen wurde er zum wohl bedeutendsten Experimentalphysiker aller Zeiten. Zudem popularisierte er die Wissenschaft, u.a. durch regelmässig stattfindende, öffentliche Vorträge und Demonstrationen.
Licht ist der von Auge sichtbare Teil von elektromagnetischen Wellen, die sich durch den Raum ausbreiten
James Clerk Maxwell (1831-1879) konzipierte 1864 die grundlegende Theorie der klassischen Elektrodynamik in Form der Maxwell-Gleichungen und verband damit Effekte ruhender und bewegter Ladungen sowie deren Felder zur Beschreibung elektromagnetischer Phänomene. Aus diesen Gesetzmäßigkeiten folgerte er die Existenz der elektromagnetischen Wellen. 1873 identifizierte er Licht als eine Erscheinungsform von elektromagnetischen Wellen.
Oliver Heaviside formulierte 1884 die 20 Gleichungen von James Clerk Maxwell (beinhaltend 20 Unbekannte) um auf die heute bekannten vier Maxwell-Gleichungen (beinhaltend vier Unbekannte).
Woraus besteht Raum?
Schallimpulse werden von Luftmolekül an Luftmolekül weitergeleitet und breiten sich als Impulsfronten grundsätzlich kugelförmig aus. Vergleichbar breiten sich auch Lichtimpulse aus.
Welches Material (anstelle der Atome in der Luft) ist für die Ausbreitung von Licht durch den luftleeren Raum zuständig? Spätestens seit René Descartes (1596-1650) wurde diese Frage je länger desto intensiver und bis heute ergebnislos diskutiert.
Es gab unterschiedliche Theorien zur materiellen Beschaffenheit des Raums und seit dem Beginn des 19. Jhd. eine wachsende Anzahl von Experimenten.
Gibt es einen ruhenden Raum, durch den sich alles bewegt?
Die einfachste Vorstellung ist, dass sich die Himmelskörper durch einen ruhenden, substanziellen Raum bewegen. Die Substanz innerhalb des Raums braucht es u.a., damit Lichtimpulse mit ihren Frequenzen in Form von Wellen weitergleitet werden können, so dass uns z.B. das Licht der Himmelskörper erreichen kann.
Schall breitet sich mit einer spezifischen Geschwindigkeit durch die Moleküle der Luft aus. Falls sich die Luft bewegt (Wind) verändert sich der Zeitbedarf für Schall um von einem zum andern Ort zu gelangen. Bei Rückenwind erreicht Schall ein Ziel rascher.
Analog dazu muss auch Licht unterschiedlich rasch ein Ziel erreichen, je nach "Ätherwind", je nachdem wie wir uns z.B. auf der Erde in Relation zum ruhenden Raum bewegen.
Wir rasch bewegt sich die Erde in Relation zu ihrer Umgebung?
Heute wissen, wir, dass sich auch die Milchstrasse relativ zu anderen Galaxien bewegt. So bewegen sich z.B. die Milchstrasse und die Andromedagalaxie mit ca. 120 km/s aufeinander zu.
Mit Experimenten sollte herausgefunden werden, ob, in welche Richtung und mit welcher Geschwindigkeit sich die Erde, dass Sonnensystem, die Milchstrasse (und demnach auch die erst später entdeckten gravitativ an sie gebundenen kleinen Nachbargalaxien) durch einen ruhenden, substanziellen Raum bewegen.
Auch wenn wir keinen ruhenden Raum sehen oder feststellen können: falls er existiert (und das muss er, so damals die Feststellung), dann bewegen wir uns mit einer relativ hohen Geschwindigkeit durch diesen hindurch. Für die Erde müssten im Verlauf eines Jahres Unterschiede von mindestens ±30 km/s feststellbar sein. Je nach Raumorientierung der Erdrotation und je nachdem ob sich unsere Galaxie zusammen mit dem Sonnensystem mehr oder weniger rasch durch einen stationären Raum bewegt, können messbare Geschwindigkeiten von bis zu mehreren 100 km/s erwartet werden.
Voraussetzung für das Experiment ist die Tatsache, dass sich Lichtimpulse analog zu Schallimpulsen mit einer fixen Geschwindigkeit durch ein Medium verbreiten.
Beim Schall ist das Medium die Luft, und die fixe Schallgeschwindigkeit hängt von der Weiterleitungsgeschwindigkeit innerhalb der Luftmoleküle ab. Die Schallgeschwindigkeit beträgt bei trockener Luft und 20° C 343 m/s, also in etwa 1/3 km/s.
Analog dazu ist beim Licht die Geschwindigkeit abhängig von der Substanz (den Teilchen) des Raums und deren Reaktions- bzw. Weiterleitungsgeschwindigkeit. Die Lichtgeschwindigkeit liegt nachweislich knapp unter 300'000 km/s. Licht ist damit ca. 1 Million mal schneller als Luftschall.
Die Geschwindigkeit einer Impulsweiterleitung ist unabhängig von der Impulsstärke oder der Anzahl Impulse pro Sekunde (= Frequenz). Die Fortpflanzungsgeschwindigkeit von Impulsen oder Impulsserien ist einzig abhängig von der Reaktionsgeschwindigkeit und damit Weiterleitungsgeschwindigkeit der sich anstossenden Teilchen. Die Teilchen selber (eins davon ist rot markiert) bleiben vor Ort.
Falls sich demnach die Himmelskörper durch eine Substanz hindurchbewegen, dann wäre mit einem geeigneten Experiment im Zusammenhang mit der Lichtfortbewegung feststellbar, in welche Richtung man sich durch diesen Raum bewegt.
Die hypothetischen Teilchen des Raums wurden damals in ihrer Gesamtheit Äther genannt. Den entstehenden (weder spür- noch sichtbaren) Teilchengegenstrom, der beim Durchfliegen entsteht und der vor allem auf die lokale Lichtbewegung eine Auswirkung haben musste, nannte man Ätherwind.
Die Idee des Michelson-Morley-Experiments war, gleichzeitig zwei Lichtstrahlen horizontal in einem rechten Winkel zueinander zu versenden und zurückzuspiegeln. Die Versuchsanordnung liess sich drehen, so dass in unterschiedliche Richtungen experimentiert werden konnte.
Dabei würde sich bei gewissen Ausrichtungen einer der Lichtstrahlen quer zum Äther und der andere Lichtstrahl mit dem Äther oder gegen den Äther bewegen. Wegen der konstanten Lichtgeschwindigkeit innerhalb des Äthers sollten bei Licht, das gleichzeitig in unterschiedliche Richtungen versandt wird, unterschiedliche Laufzeiten festgestellt werden können.
Der sich entlang der Raumverschiebung bewegende Lichtstrahl braucht länger als der sich quer zur Raumverschiebung bewegende Lichtstrahl
Bei der Rückkehr der beiden gleichzeitig versandten Lichtstrahlen müsste ein Unterschied messbar sein. Aus den unterschiedlichen Messergebnissen könnte die Orientierung der Messanlage bezüglich des stationären Raums berechnet werden. Falls dies gelänge, hätte man diesen ruhenden Raum entdeckt. Damit wäre einerseits eine vorhandene Substanz nachgewiesen, die für die Weiterleitung von Licht verantwortlich ist. Andererseits könnten nun die Bewegung von Erde, Sonne und Milchstrasse in Relation zu diesem ruhenden, substanziellen Raum bestimmt werden.
Wegen der hohen Verbreitungsgeschwindigkeit und Wellendichte von Licht konnte ein Verlaufsunterschied von Licht (mit, gegen oder quer zum Teilchenstrom) zwar nicht mit Uhren oder Massstäben gemessen werden. Allerdings würden die Lichtwellen bei unterschiedlichen Laufzeiten nicht deckungsgleich eintreffen, was sichtbar wäre.
Zwei nicht genau gleichzeitig ankommende Lichtwellen
Zur Veranschaulichung sind in der obigen Abbildungen die zurückkehrenden Lichtwellen als jeweils parallel eintreffend dargestellt. In der Realität bzw. im Experiment überlagern sich die Wellen, und je nach Ungleichzeitigkeit ergeben sich beim Eintreffen sichtbare Lichtmuster (Interferenzmuster).
Albert A. Michelson führte 1881 und zusammen mit Edward W. Morley 1887 ein Experiment mit folgender Versuchsanordnung durch:
Um die Gleichzeitigkeit sicherzustellen, wurden die Lichtimpulse mittels einer einzigen Quelle durch einen halbdurchlässigen Spiegel gesandt. So entstehen die beiden erwünschten Lichtstrahlen in zwei unterschiedliche Richtungen.
Wesentlich für das korrekte Vorstellungsvermögen ist, dass es sich bei der Fortbewegung nicht um eine Wellenbewegung mit Wellenbergen und Wellentälern handelt. Die Impulsweiterleitung findet von Teilchen zu Teilchen statt.
Mit einer Wellenlinie kann z.B. die allmähliche Zunahme und Abnahme der Teilchendichte zwischen den Impulsfronten dargestellt werden. Bei Schall und Licht ist die Verwendung von Wellenlinien bei der Darstellung von Wellenbewegungen rein symbolisch und entspricht nicht einer optischen Wiedergabe der physikalischen bzw. mechanischen Realität.
Das aufgeteilte Licht bewegt sich anschliessend in beide Richtungen zu jeweils in gleicher Entfernung angebrachten Spiegeln. Die beiden Spiegel senden die Impulse zurück.
Schliesslich treffen die Lichtimpulse beim halbdurchlässigen Spiegel wieder zusammen und ein Teil von ihnen erreicht das Messgerät.
Bei der Ankunft können die eintreffenden Wellen in ihrer zeitlichen Übereinstimmung verglichen werden.
Je grösser der vom Licht zurückgelegte Weg, desto grösser sind die zu erwartenden Laufzeitunterschiede. Mittels mehrfachem Hin- und Herspiegeln erreichten Michelson Morley bei relativ kleiner Versuchsanordnung eine Wegdistanz von 11 Metern.
Michelson und Morley sowie die Gesellschaft der Physiker haben festgestellt, dass die gemessenen Frequenzverschiebungen und -Überlagerungen bei weitem nicht den Erwartungen bzw. Vorausberechnungen entsprachen.
Viele Überprüfungen, z.T. mit unterschiedlichen Versuchsanordnungen und fortgeschrittener Technik, haben inzwischen die Ergebnisse des Michelson-Morley-Experiments bestätigt. Bis heute gelang es nicht, einen ruhenden, mit einer strukturierten Substanz versehenen Raum nachzuweisen.
Wir wählen eine Wegstrecke und eine Frequenz, die zu einfachen Zahlen führen:
In der zweiten Hälfte des 19. Jhd. war Licht als elektromagnetische Welle erkannt worden, die sich mit hoher konstanter Geschwindigkeit durch den Raum ausbreitet.
Je heisser ein glühender Eisenstab, desto heller strahlt er.
Dies bedeutet:
je heisser ein Körper, desto höher die Frequenz der von ihm ausgesandten elektromagnetischen Wellenlängen.
Erstaunlicherweise erwies sich das "je heisser desto hochfrequenter die Strahlung" nicht als allgemeingültige Regel. Den Experimenten entsprechend führte die Wärmestrahlung bei hoher Hitze nicht zu immer höheren Frequenzen (=niedrigen Wellenlängen). Beginnend im Ultraviolettbereich nahm die Häufigkeit der abgegebenen Strahlung rasch ab.
Es bedurfte somit einer Gesetzmässigkeit (Gleichung), die die experimentellen Fakten wiedergab. Jahrzehntelang konnte eine solche mathematische Gesetzmässigkeit nicht gefunden werden.
Max Planck war es schliesslich, der nach 6 Jahren seines letztlich verzweifelten Suchens die Lösung fand. Er Beschrieb die Findung später als einen Akt der Verzweiflung in einer scheinbar ausweglosen Situation. Um jeden Preis galt es eine Lösung zu finden, sogar unter der Bedingung, dass die Regeln der klassischen Physik aufgegeben werden mussten.
Die von Max Planck 1900 präsentierte Lösung war mathematisch höchst experimentell und theoretisch. Die Formel wirkte damals künstlich, abstrakt konstruiert und unwirklich realitätsfremd.
Gleichzeitig war sie ausgeklügelt und zielführend: genau wie es gesucht wurde, streben die Energiewerte bei niedrigen Frequenzen (f) allmählich und bei hohen Frequenzen rasch gegen gegen Null.
Mittels Einführung einer Konstante (h) und einer damit einhergehenden Regel entstand eine Quantifizierung.
In der klassischen Physik ging man von einem kontinuierlichen Ansteigen von Energie aus.
1901 konnte Planck die von ihm eingeführte Konstante präzisieren. Der von ihm berechnete Wert lag noch 1.2% vom heute bekannten Wert entfernt.
Rückblickend stellte Max Planck fest: „Eine neue wissenschaftliche Wahrheit pflegt sich nicht in der Weise durchzusetzen, dass ihre Gegner überzeugt werden und sich als belehrt erklären, sondern dadurch, dass die Gegner allmählich aussterben und dass die heranwachsende Generation von vornherein mit der Wahrheit vertraut gemacht ist.“ (Wissenschaftliche Selbstbiographie, Leipzig 1948)
Es ist allerdings möglich, dass diese Aussage rückblickend weniger eine Folge seiner Formel war, die sich als prüfbar korrekt erwies. Schwer annehmbar waren die darauf gegründeten Anwendungen und Interpretationen, die ihr folgten: masselose Teilchen und eine Wellen-Teilchen-Dualität, letztlich in einer gekrümmten Raumzeit.
Diese Webseite wurde mit Jimdo erstellt! Jetzt kostenlos registrieren auf https://de.jimdo.com