Da von diesen Überlegungen viel abhängt und ich kein Interesse habe an Ruhm und Ehre bitte ich diese Gedanken einmal zu überprüfen:
Über die Erklärung der Masse
Die Überlegung, die hier nun nach der Herausarbeitung dieser Paradoxie ansteht, ist, ob Masse, da diese nur als Eigenschaft wahrnehmbar ist, einem einzigen Erklärungsprinzip genügt, ob das nun Trägheit, Bindung oder eben auch die Ruhemasse von Elementarteilchen ist, was bisher also getrennt betrachtet wurde. Da später noch immer detaillierter ersichtlich wird, dass zwischen Materialismus und Idealismus eine alles oder nichts Begebenheit besteht, so folgt, dass auch der Welle Teilchen „Dualismus“ letztendlich nur die Grundlage eines Monismus enthalten kann. Wir nennen also den aufgelösten Welle-Teilchen Dualismus, der Einfachheit halber Welle-Teilchen Monismus. Gemeint ist damit, dass der Dualismus auf einer partikulären statistischen Theorie im Sinne des materialistischen Weltbildes beschränkt und eingeschränkt bleibt, die aber darüber hinaus die ganzheitliche qualitative, also idealistische Betrachtung nicht erfasste, auch weil diese den Energieerhaltungssatz im Sinne der Nullpunktschwingung nicht berücksichtigte, was aber auch ein Widerspruch mit Relativitätstheorie und der Quantenmechanik bewirkt und aus diesem Grunde, sich irrtümlich absolut setzte, in dem dieser indeterministisch angenommen wurde. (Wir fassen das jetzt nur wegen der Begriffsdefinition vor und kommen darauf später noch zu sprechen). Der Begriff Masse muss sich wegen der Nachweise der bestimmten Welt in jedem Falle in einem anderen Erklärungsprinzip auflösen lassen. Interferenzphänomene können sehr gut mit der Wellenvorstellung beschrieben werden, hier sei etwa das Doppelspaltexperiment mit Licht und Elektronen angesprochen, sodass der Übergang von der Einzelmessung auf eine statistische Voraussage von einem Ensemble von Quantenobjekten sehr gute quantitative Aussagen ermöglicht. Dennoch musste es in der Vergangenheit aber beim Dualismus, also in dieser Form bei einer ausschließenden Modellvorstellung, aus Welle und Teilchen bleiben, da die Experimente des Fotoeffektes oder Comptoneffektes eine Veränderung der Amplitude erwarten lassen, um die Versuchsabläufe dem Wellenmodell zuschreiben zu können. Genau dies ist aber nicht festzustellen. Es ist wichtig, für das Verständnis des nachfolgenden Sachverhaltes sich ins Gedächtnis zu rufen, auf welche philosophische Grundvorstellung die Unschärferelation gegründet wurde, welche Gedanken Heisenberg dazu veranlassten, seine Vorstellungen zu formulieren, und wie diese zu interpretieren sind und das sollte nicht von der nun hinterfragenden Seite aus geschehen, sodass es hier dann möglich wird, darzulegen, warum es unumgänglich ist, diese sehr weit hinterfragen zu müssen. Es folgt aus diesem Grunde zunächst ein einführender Auszug der Darstellung und eine Interpretation zu Heisenberg aus dem Kapitel 2.6 des Lehrbuchs „Eine Einführung in den Welle-Teilchen-Dualismus für Lehrer und Studierende, Springer Verlag, ISBN 3-540-42977-8 Buch anschauen, Seite 25-28:
Soviel zu einer repräsentativen Grundhaltung, die die geistige Haltung der Physik unverfälscht wiedergibt, die aber auch die Kriterien, die darüber entscheidend waren, nicht oberflächlich herausstellte. Wir messen heute, also etwa ein Jahrzehnt nach diesem Buch, mit allergrößtem Aufwand Messgrößen und eine Besondere, für die es vor nicht langer Zeit eine Nobelpreisverleihung gab, war die Feststellung der beschleunigten Ausbreitung des Universums. Dadurch ist es möglich geworden, das Ende des indeterministischen Weltbildes, den Big Chill statistisch ganz auszuschließen, weil dieser lebensunmögliche Zustand, wie schon gesagt, unendlich lange währen müsste und daher mit der Wahrscheinlichkeit 1 längst eingetroffen sein müsste. Wenn wir hier auch etwas die moralischen Begebenheiten einbeziehen, so ist daran zu erinnern, dass jedes politische Handeln immer auch die übergeordnete physikalische Ebene einschließt, bis zu den Elementarteilchen, denn jede Entscheidung des Menschen führt am Ende immer in energetische Bewegungsformen von irgendwelchen Massenbegebenheiten, die die physikalische Statistik, auch nach dem noch vorzustellenden mathematischen Existenzbeweis, sicherlich am Ende ganzheitlich im Resultat widerspiegelt.
„Wir müssen wissen, wir werden wissen“ steht auf dem Grabstein David Hilberts und vielleicht wird der Mensch erfahren, dass er imstande sein müsste, die Welt unbestimmt zu konstruieren, damit überhaupt eine solche Unbestimmtheitsrelation gültig wäre, denn wenn er sich als äußerstes Wesen dieser Welt setzte (also außerhalb des Kausalstranges), um schließlich alles zu vermessen, so wäre die Unschärfe am Ende – aber eben so auch am Anfang, ganz in ihm selbst, sodass, wenn er diese Welt als die Seinige begreifen würde, also in seinem existenziellen Erklärungswerk zu verewigen suchte, diese für immer unscharf bliebe. So wie die Unvollkommenheit im Verlauf ihrer noch unreflektierten menschlichen Natur, glaubte immer wieder von vorne anfangen zu können, so würde Leid ewiglich manifestiert, nichts würde aber besser werden, der unscharfe Blick eines jeden unserer Spezies würde dies prinzipiell verhindern, deswegen ist diese menschliche Schablone über einem physikalischen Kausalstrang, schon durch die statistische Paradoxie des Big Chill ausgeschlossen, der ansonsten ganz realisiert würde. Der Mensch, der also glaubt, er sei das Ziel, damit alles scharf oder unscharf, je nach Perspektive, gesehenen werden könne, um sich mit seiner Erklärung über alles zu stellen, sieht prinzipiell am Ende keineswegs scharf und ein Weltbild, in dem jeder also die (ausschließende) Wahrheit in sich hineinlegen möchte, muss am Ende prinzipiell ganz verschmieren. Nichts würde mir persönlich ferner liegen, als hier einen moralischen Unterton anklingen zu lassen, das würde im Widerspruch zu dem Besagten stehen, denn ein Mensch kann letztendlich nie moralische Instanz sein, er kann dann nur in einer vorgegebenen Moral kalibriert werden. In keinem Menschen kann das Vertrauen des Erklärungswerkes unserer Existenz definiert sein, es wurde dann in die ganzheitliche Entwicklung gelegt, von der der Mensch nur Teil ist, ein Teil der Übermittlung neben anderen. Es geht hier auf oberster Ebene rein um die Physik, auch wenn eine Welt, die sich am Ende ganz scharf auflöst, die Verantwortung nicht vernichtet. Es bedeutet also, dass prinzipiell die Unschärfe nur durch alle gemeinsam kausal in einem Ziel aufgelöst werden kann. Eine bestimmte Welt hat keine partikulären Schnittstellen (im Sinne der Sinnesorgane des Gehirns zur Umwelt), sondern alles was wir wahrnehmen, ist ganzheitlich in einem Kausalstrang gesetzt, der wiederum mengentheoretisch im Sinne der Wohlunterscheidbarkeit nach Kantor verstanden werden kann. Das indeterministische Weltbild wäre also längst, durch die besagte Statistik von einem geplanten Weg maximal, also ins Gegenteil abgewandt. Ein Weltbild, das nicht zu verschmieren droht, endet im genauen Gegenteil, in einem Ziel, dem unserer allumfassenden Existenz. Da die Unschärferelation also ausgeschlossen werden muss, so folgt, dass der Widerspruch zwischen der Quantenmechanik und der allgemeinen Relativitätstheorie aus diesem Grunde nicht inkonsistent verbleibt, der Widerspruch ist also lösbar. Die Quantenmechanik würde also, wenn die Vakuumenergie des Universums berücksichtigt würde, eine unendliche Krümmung ergeben, dies steht im Widerspruch zu den Beobachtungen. Es geht im Folgenden also darum, die tiefere Vorstellung von dem sehr abstrakten Begriff Masse und damit auch Energie im Sinne des Welle-Teilchen-Monismus herauszuarbeiten.
Wenn ein Planet von einem Zentralgestirn eingefangen wird, verliert dieser Energie und erfährt einen Masseverlust, nach E=m∙c^2.Die Massen waren also vorher bekanntlich schwerer. Wohin die Masse nun entschwindet, wenn das System getrennt wird, dem werden wir nun auf den Grund gehen, etwa mit der Vorstellung der Lehrbuchmeinung nach Everett, die sich auch aus rein mathematischer und physikalischer Ebene nachweisen lässt. Denn diese Interpretation einer deterministischen Quantenmechanik müsste anhand der Masseverhältnisse nachweisbar sein, wenn also Masse in andere Dimensionen alterniert, so muss das Fehlen von Masse ersichtlich werden, das bereits auch von der Astronomie, etwa in rotierenden Galaxien, bestätigt wird. Es soll hier erwähnt werden, das die Vorstellung von Everett unabhängig, aus der experimentellen Perspektive erschlossen wurde. Es gab hierfür weitreichende existenzielle Gründe und ich persönlich habe davon erst später erfahren, weil dies nicht mehr zur Zeit meiner Ausbildung angesprochen wurde. Dies mag den Grund haben, weil die Vorstellungen von Everett vielleicht auch deswegen nicht angesprochen wurden, weil diese, allerdings nur aus damaliger Sicht, als nicht nachweisbar galten. Der Sinn, das nachzuweisen, stand also in einer ganz anderen Motivation, die etwa in meiner Person, schon vor dem Studium begann. Everett soll hier aber aus dem Grunde nicht unerwähnt bleiben, weil die gesamte Physik an ihm völlig vorbei lief. Es wirft die moralische Frage gegen die theoretische Physik auf, die ich bitte hier nur im Sinne eines bestimmten Weltbildes zu sehen, nicht persönlich auf Menschen beziehend, weil jedes Glaubenswerk für das Ganze am Ende dennoch einen gleichberechtigten, wie notwendigen Zweck erfüllen wird. In einer bestimmten Welt geht es gerade darum, das ganz am Ende kein Mensch recht haben darf, das Erklärungswerk dieser Welt glaubt, aus sich heraus heraus, partikulär gesetzt werden zu können. Als am 09. August eine zweite Stadt durch eine Atombombe zerstört wurde, der größte Krieg beendet wurde, so könnte in einem bestimmten Weltbild lange der Grund gesucht werden, immer weiter müsste die Kausalkette zurückgegangen werden, um festzustellen, dass die einst geglaubten Entscheidungsträger, die es erst so weit kommen ließen, noch gar nicht geboren waren, weil der Mensch lernen muss, dass Meinung kein wirklicher Akteur der Verantwortung sein darf.
Betrachten wir nun folgende Formel (1), die sich im Prinzip aus dem Fotoeffekt E=hν und Einsteins berühmten Energieäquivalent E=m∙c^2 ableitet, es entspricht also im Wesentlichen, wenn auch umgeformt, den Formeln von De Broglie, die 1927 von J. Davisson und H. Germer durch Interferenzerscheinungen von Elektronen nachgewiesen wurden. Die Masse vorne entspricht bekanntlich nicht der Ruhemasse, es herrscht dort noch ein Energieanteil der kinetischen Energie vor:
m=h/c^2 ν=(e∙U)/c^2 (1)
Die Masse E=T+m_0∙c^2 kann aber auch ihrer Ruhemasse entsprechen, dann würde der kinetische Ausdruck im Term verschwinden und vorne der nachfolgenden Gleichung käme dann nur die Ruhemasse zum Ausdruck E=m_0∙c^2:
m_0=h/c^2 ν_0=(e∙U_0)/c^2 (2)
Dabei ist m_0 〖,ν〗_0 jeweils die Ruhemasse und Nullpunktschwingung im tiefsten energetischen Zustand. Die obige Formel zeigt, dass die Masse nur mit der Frequenz gekoppelt sein kann, weil alles andere Konstanten sind. Es ist einsichtig, dass wenn ein hartes Photon in der Nähe des Kerns eine Paarbildung erzeugt, dass dennoch rein die Ruhemasse betrachtet werden kann, auch wenn dabei noch kinetische Energie entsteht, also genau der Teil, der ohne kinetische Energie in die Ruhemasse übergegangen ist. Was bedeutet also ohne jede Geschwindigkeitsbetrachtung Masse in Abhängigkeit zur Frequenz?
Da es nun ganz sicher unbestritten ist, dass die Herauslösung von Elektronen, wegen des Ergebnisses des Fotoeffektes, nicht von der Amplitude abhängig ist, stellt sich die Frage nach einem anderen spezifizierten Erklärungsmodell, das beide Modelle, das Teilchen und Wellenmodell, miteinander vereint. Wie schon gesagt, wie nennen dieses Modell aus Gründen der Vereinfachung und der Abgrenzung hier der Welle-Teilchen Monismus. Dafür wird zunächst die relativistische Massenbetrachtung herangezogen, denn dieser Korrekturterm auf der rechten Seite, der gilt auch für kleinste Geschwindigkeiten, auch wenn er wegen der exponentiellen Relevanz unter 10% der Lichtgeschwindigkeit, in der Regel zu vernachlässigen ist. Die Gleichheit dieser Gleichung ist also auch unter diesem Geschwindigkeitsbereich, wenn auch sehr minimal, ganz sicher gegeben; es besteht also ein unmittelbarer Zusammenhang zwischen den einzelnen Ausdrücken:
m=(e∙U)/c^2 =h/c^2 ν=2E/v^2 =m_0/√(1-v^2/c^2 ) (3)
Aus dieser Darstellung erkennen wir, dass auch in dem relativistischen Masseterm nur die Frequenz gegenübergestellt ist – alles andere ist konstant. Dies ist bei der reinen Betrachtung der Masse der Fall und ist aus diesem Grunde ein Maß für deren momentanen Zustand in Abhängigkeit von der Frequenz. An dem relativistischen Masseterm ist zu erkennen, dass die Geschwindigkeit, die für die Massezunahme verantwortlich ist, der Frequenz proportional ist. Im tiefsten Zustand bedeutet das, da die Frequenz der Nullpunktschwingung proportional zur Geschwindigkeit ist, dass die Geschwindigkeit niemals null wird, das ist bekanntlich der Grund, warum sich nur aller kleinste Temperaturen nach der maxwellschen Geschwindigkeitsverteilung realisieren lassen. Masse kleinster Teilchen und damit auch Energie ist bis auf Konstanten von nichts anderem abhängig, als von der Geschwindigkeit und der Frequenz, selbst im tiefsten Zustand. Da große Massen aus diesen bestehen, verhält es sich da summa summarum genauso. Große Massen oder starke Gravitation bedeutet aus diesem Grunde nichts anderes als eine hohe Frequenz der Teilchen, wenn diese sich schnell bewegen. Kommen sich also zwei große Massen näher und es geht damit ein Verlust der Gesamtmasse einher, so ist diese in alle Subteilchen übergegangen, die diese Massen beinhalten:
〖 〗_(F_12=G (m_1∙m_2)/r^2 ∙(e_r ) ⃗=G ((h/c^2 ν)_1 (h/c^2 ν)_2)/r^2 )
Entsprechend dem Flächensatz nach Kepler entsteht bei einer Reduktion der Geschwindigkeit eines Planeten um ein Zentralgestirn, eine Erniedrigung der Frequenz, alle Subteilchen des Planeten sind dann öfter da, damit nimmt das Maß der Raumkrümmung zu und folglich wieder die Geschwindigkeit. Letztendlich bleiben diese durch die Zentrifugalkraft voneinander getrennt. Am entferntesten Abstand zum schwereren Zentralgestirn, bei dem die gleiche aber entgegengesetzte Kraft wirkt, wird dieses deswegen weniger beschleunigt, weil dort die Frequenzänderung auf mehr Einheiten übertragen wird (entsprechend F/m). Die Änderung der Erhöhung der Geschwindigkeit wäre dort also im Vergleich zum Planeten viel niedriger, dennoch nie Null, weil sich die Änderung der Frequenz auf mehr Teilchen überträgt. Höhere Geschwindigkeit bedeutet aber nach Formel (3) eine höhere relativistische Masse, die sich also gemäß nach dem Flächensatz nach Kepler laufend erhöht und erniedrigt, somit wird Masse in andere Dimensionen gespeichert und in diesem Falle zyklisch wieder abberufen und in diesem Vorgang spielt sich die Trägheit wieder, diese ist also proportional zur Geschwindigkeit und Frequenz, gleichzeitig ist davon auch die Gravitation abhängig, wie viele Subteilchen wie oft anwesend sind, die Raumkrümmung zu bewirken. Durch all diese Vorgänge wird entsprechend der Anwesenheit der Raum stärker oder schwächer gekrümmt, so auch die Auswirkung. Der entscheidende Punkt ist aber nun der, was aber bedeutet dann eine noch höhere relativistische Masse, wenn die Masse dann ja seltener da ist, die gravitative Wirkung also nachlässt, da die Subteilchen vermehrt in andere Dimensionen frequentieren? Es bedeutet das Fehlen von Masse bei höheren Geschwindigkeiten, die in andere Dimensionen gespeichert wird. Darauf kommen wir bald genauer zu sprechen.
Die Frage, die hier zunächst zuvor beantwortet werden muss, ist die, warum entsteht dann keine Wärme, wenn der Planet und das Zentralgestirn am nächsten sind, die Geschwindigkeit also am höchsten ist, man denke als Analogie an die Komprimierung eines Gases?
Die Geschwindigkeit ist sicherlich auch wegen der Erddrehung nicht für alle Subteilchen gleich, es muss hier dennoch aber zwischen Kollisionsprozessen unterschieden werden, die letztendlich auch nichts anderes sind, als die Änderung der Trägheit der daraus entstehenden Subteilchen. Man kann sich das, denke ich, sehr gut an einem Streuexperiment veranschaulichen. Dort sind Projektil und Target entsprechend abhängig nach Gleichung (3). Wird die Energie des Projektils verändert, dann verändert sich die Frequenz im Dasein entsprechend. Die Zunahme der Frequenz und damit in die vermehrte oder verlängerte Abwesenheit in andere Dimensionen, ist zwar nach Gleichung (3) für jedes Teilchen in gleicher Weise proportional (also nur im Vergleich der Geschwindigkeit zueinander, nicht im gemeinsamen Anstieg), jedoch ist es auch durchaus notwendig, dass gleiche Geschwindigkeitsintervalle für das eine Teilchen, eine öftere, aber dafür kürzere Frequentierung mit unserem Raum bedeuteten und für ein anderes Teilchen genau das Gegenteil bedeuten können. Auch wenn von relativistischen Störungen die Rede ist, was die Keplerbahnen betrifft, es findet aber aus diesem Grunde etwa in den Planeten zumindest kein statistisch merklicher Zuwachs von Kollisionsprozessen statt. Und doch müsste durch die vorübergehende Frequentierung in andere Dimensionen, da diese sich auch auf Ladungen bezieht, eine Änderung im Magnetfeld der Erde, entsprechend der relativistischen Begebenheiten ergeben. (Bis auf die Ladung bleibt alles in Formel (3) konstant, die Ladung frequentiert also entsprechend dem Dasein in andere Dimensionen, was in Beschleunigern auch bereits festgestellt wurde).
Warum es nun kein Unterschied zwischen träger und schwerer Masse gibt, liegt daran, dass diese Vorgänge immer gleichzeitig ablaufen. Stellen wir uns dazu die oft angeführte Beschleunigung im Aufzug vor. Auch hier verändert die Geschwindigkeit die Frequenz der Teilchen, es ist genau das Gleiche, wie bei dem Beispiel des Planeten. Denn am Ende besteht eine Geschwindigkeitsveränderung beider Massen aufgrund des Stahlseils des Aufzugs, das aber noch „reibungsfrei“ dem Planeten zugeordnet werden muss. Die beiden Körper bewegen sich je nach dem aufeinander zu oder voneinander weg, es ist also vom Prinzip das Gleiche, wie die Planetenbewegung um das Zentralgestirn. Die Geschwindigkeit beider Körper würde also alternierend erhöht und erniedrigt, würde dieser Vorgang oszillierend ohne Reibung verlaufen, so besteht vom Prinzip bezüglich der Frequenz kein physikalischer Unterschied der beanspruchten Massen zur Planetenbewegung. Bei einer Rakete ist das auch so, die Teilchen, die den Rückstoß liefern, also auch die Rakete, lassen sich gedanklich auf den Planeten und das Zentralgestirn übertragen, wenn diese sich durch die Relativbewegung der Ellipse aufeinander wegbewegen, so ist es also auch bei den Gezeiten des Mondes, der Flutberg auf der anderen Seite, dem die ausstoßenden Teilchen der Rakete entsprechen würden. Zu argumentieren, dies sei alles nicht vergleichbar, die Teilchen, würden von der Rakete irgendwann weit entkoppelt sein, in Analogie einer zweiten kosmischen Geschwindigkeit, wenn etwa ein Satellit eine so hohe kinetische Energie hat, dass er dem Sonnensystem entweichen kann, liegt nur daran, dass die Rakete nicht genug Masse besitzt, um diese vom Prinzip mit Planeten besser gedanklichen überschauen zu können oder die Zentrifugalkraft der Relativbewegung des Planeten zu klein ist, um diesen mit der Rakete vergleichen zu können. Erklären wir das aber unter anderem an dem Beispiel, des Planeten und des Zentralgestirns, da dies schwierig ist und außerdem allgemein gefasst werden muss.
Wichtig ist zunächst zu sagen, wenn der Energieerhaltungssatz entsprechend an einer Potenzialmulde aus kinetischer und potenzieller Energie veranschaulicht wird, man denke hier an ein Pendel, das bei einem Maximalausschlag, am höchsten Punkt der potenziellen Energie auch fixiert werden kann, die Geschwindigkeit der Teilchen dennoch nie null ist, denn dann würde die Masse, nach Formel (3) nicht mehr existieren. Es handelt sich also immer dennoch um eine Überlagerung von Vektoradditionen der Geschwindigkeiten, sodass zu jederzeit Trägheit besteht, dennoch immer auch der Abstand ein Maß für die Superposition der Raumkrümmung der Subteilchen darstellt, es besteht also zu jeder Zeit Gleichzeitigkeit von Trägheit und Schwere. Am Ende ist das ganze Universum letztendlich ein einziger Energiespeicher, der sich auch in weitere unterteilt, auch wenn man sich das keineswegs so einfach vorstellen kann, weil er das eben auch immer in nur einem Szenario, von mehreren möglich angenommenen bleibt. (Wir werden also später sehen, dass alle Massen an einen gemeinsamen Schwerpunkt gebunden bleiben, weil sich nicht nur alle Szenarien des Anfangs- und Endzustandes des materialistischen Weltbildes ausschließen, sondern diese auch physikalisch nicht definiert sind.) Bleiben wir aber bei den Subspeichern. Ob nun die Fixierung eines Pendels in Form von potenzieller Energie betrachtet wird, so braucht es immer Geschwindigkeit, einen Energiespeicher aufzuladen und wieder zu entladen. In gewissem Sinne ist das Fixieren des Pendels, im Resultat der gleiche Moment, in dem eine Fusion, oder Kernspaltung davor steht, Spalt oder Fusionsprodukte freizusetzen, so auch bei der chemischen Energie, bei der Freisetzung von Druckenergie, elektrostatischer Energie, denn jede Energiespeicherung bedeutet immer eine Zurückhaltung von Geschwindigkeit und deren Freisetzung, an ein äußeres System. In diesem Sinne ist das alles von einem gewissen Standpunkt aus betrachtet potenzielle Energie. Bei dem Beispiel mit dem Planeten ist der Aufzug eine vereinfachte Darstellung dieses Energiespeichers, die Energie könnte jederzeit in Reibungsenergie aus dem quasi geschlossenen System überführt werden, so eben wie bei allen anderen Subspeichern.
Über spontane Symmetriebrechungen (Higgsmechanismus etc.)
Am Ende ist alles Masse in Abhängigkeit zu Geschwindigkeit und damit Frequenz und damit wiederum entsprechend der Raumkrümmung, die wie gesagt mit größerer Geschwindigkeit abnimmt. In der hadronischen Wechselwirkung kann wegen der hohen Geschwindigkeit viel mehr Energie gespeichert sein, als etwa in der chemischen und in dieser wiederum mehr als in einem mechanischen Pendel, Masse und damit Energie bleibt aber am Ende rein auf Frequenz und Geschwindigkeit begrenzt und somit ist immer gleichzeitig Schwere und Träge entsprechend vorhanden. Wir brauchen also keinen Higgsmechanismus oder wie auch immer gearteten indeterministischen Erklärungsansatz für die Erklärung der Masse, da diese Abhängigkeit der Frequenz auch bei den Elementarteilchen gelten muss. Auch bei den angenommenen Higgs-Bosonen handelt es sich also um eine grundsätzliche Eigenschaft, von Frequenz und Geschwindigkeit, die auch bei der Betrachtung von Bindungsenergien nie null werden kann, deren Stärke wiederum nur durch die Frequenz und Geschwindigkeit gegeben sein kann. (Das „Higgsfeld“ und damit der „Higgsmechanismus“ müsste damit kausal schwingen). Man kommt außerdem bei diesen Erklärungen nie auf die Masseerklärung der Bindungsenergien, etwa der starken Wechselwirkung, das Problem lässt sich in bisheriger Form so nicht auflösen, die fehlende Masse der Galaxien, würde eine äußerst signifikante Abweichung zwischen theoretischer Berechnung und beobachteten Wert, ergeben und ist so nicht erklärbar. Wir werden das noch versuchen zu spezifizieren, bei der weiteren Betrachtung der Unschärferelation.
Setzen wir nun nach dem newtonschen Axiom Masse entsprechend nach Gleichung (3) ein, so erkennen wir, dass bei der Erhöhung der Kraft wieder alles konstant bleibt, bis auf die Frequenz:
F=m∙a=(h/c^2 ν)∙a (4)
In dieser wichtigen Frage soll nun kein Gedankenexperiment angeführt werden, denn es ist nicht töricht zu glauben kein besseres Gedankenexperiment als Einstein anzugeben, denn Einstein ließ dies, auch als ein bedeutender Erfinder und glücklicherweise als ein Mensch, der glaubte, dass Verantwortung nicht in Verschmierung vernichtet werden darf, nicht unversucht. Auf das Gedankenexperiment Einsteins, „die Photonenwaage“, dass Bohr mit der allgemeinen Relativitätstheorie konterte, werden wir bald noch kurz zu sprechen kommen.
Betrachten wir also die Heisenbergsche Unschärferelation, die schon Albert Einstein heranzog, um zu versuchen den Indeterminismus der Quantenmechanik ganz auszuräumen. An diesem Ungleichheitszeichen hängt letztendlich das gesamte materialistische Weltbild, daran häng also, ob wir selbst Macher sind oder eben über alle Zeit gemachte, im Sinne des Determinismus:
∆E∙∆t≥h/2
Uns geht es hier eigentlich nur um das Ungleichheitszeichen, es soll schlicht und einfach umklappen:
∆E∙∆t≤h/2
Wir wollen das Umklappen im Folgenden aus der Orts- und Impulsunschärfe versuchen aus dem Grunde herzuleiten, um zu zeigen, das aus dieser hervorgeht, dass sich Energie immer nur in bestimmten Zeiten scharf bestimmen lässt, also damit aufzeigen, dass sich die genaue Orts- und Impulsmessung nur zu bestimmten Zeiten messen lässt, also nur dann, wenn die Masse (Energie) anwesend ist, (das bedeutet also, dass sich die „Unschärfe“ statistisch ergibt):
Schauen wir dazu zunächst noch einmal auf folgende Umformung:
2E/v^2 =m=(h∙ν)/c^2
Den Impuls erhalten wird dann:
2E/v=m∙v=p=(h∙v∙ν)/c^2
Der Ort ergibt sich dann wie folgt:
2E/(v∙ν∙m)=v/ν=x=(h∙v)/(c^2∙m)
Wir setzen nun Ort und Impuls in die Unschärferelation ein, weil wir in diesen Gleichungen annehmen, das kleinste Produkt aus Impuls und Ort vorliegen zu haben:
((h∙v∙ν)/c^2 )_(p_x )∙((h∙v)/(c^2∙m))_x≥h/2
Zusammenfassen ergibt:
(h^2∙v^2∙ν)/(c^4∙m)≥h/2
Wir erhalten:
h≥(c^4∙m)/(〖2v〗^2∙ν)
(Wir setzen hier nicht v^2=c^2, weil wir ein Elektron betrachten, auf diesen Zusammenhang zwischen Geschwindigkeit, Frequenz relativistischer Masseveränderung waren wir bei Gleichung (3) bereits eingegangen.)
Multiplizieren mit der Masse ergibt:
h∙m≥(c^4∙m^2)/(〖2v〗^2∙ν)
Berücksichtigung der Energie:
h∙m≥E^2/(〖2v〗^2∙ν)
Erweitern auf die kinetische Energie im Nenner ergibt:
.
h≥(E^2∙1/4)/(E∙ν)
Wir erhalten:
h/2≥E/(8∙ν)
Wir sehen also hier, auf der rechten Seite steht eine Wirkung, dass die Energie-Zeit Unschärfe bereits unterboten ist. Das ist das, was gefolgert werden muss, da auch De Broglie den klassischen Impuls in seinen Gleichungen verwendet und der Ausdruck ½ der beim Integrieren der kinetischen Energie vorab entsteht, ist keine Näherung, es verhält sich eben so, wie in Gleichung (3) bereits dargelegt. Letztere Gleichung soll nun in eine didaktische Form überführt werden:
h/2≥1/8∙(F∙T)∙x
Bekanntlich steht der Klammerausdruck in der physikalischen Terminologie für einen Kraftstoß, wir haben also den Kehrwert der Frequenz eingesetzt. Es gilt aber je höher die Frequenz, desto kleiner wird T. Nach Gleichung (3) hatten wir uns nun anhand der Ergebnisse überlegt, dass mit höherer Geschwindigkeit die Masse immer mehr in andere Dimensionen übergeht. Die Schwingungsdauer wurde bisher zumindest immer rein klassisch angenommen. Es ist aber daher verständlich, dass nicht nur in diesem Sinne die Schwingungsdauer, proportional zu einer kleineren Wellenlänge, kleiner wird, sondern auch zusätzlich, also gleich der Zuname der „Masse“ (rein frequenz- und geschwindigkeitsabhängig) nach Gleichung (3) in andere Dimensionen übergehen muss. Vielleicht kann das Ganze zunächst so vorgestellt werden, dass sich eine nahezu analoge Welle immer weiter digitalisiert, die diskreten Abstände auf dieser aber zur Ausbreitungsrichtung nicht beliebig enger werden können (also immer gleichbleibend sind), sodass mit einer Verkürzung der Wellenlänge diese Energiepakte in anderen Dimensionen übergehen müssen. Die genauere Bestimmung kann bekanntlich, wie auch üblich, wiederum nur mit dem Abgleich der hochkomplexen Experimente durchgeführt werden, sodass hier über allgemeine Betrachtungen hinaus keine konkreten Angaben vorgenommen werden sollen. Die Zeitdilation ergibt sich also dann, weil etwa bei Atomuhren unter hohen Geschwindigkeiten sich die entsprechenden Reaktionskanäle, entsprechend der Anwesenheit seltener auftuen, um etwa in Form von Resonanz registriert zu werden. Dies ergibt also das tiefere Verständnis von Beschleunigung und damit Kraft allgemein, was unter „mehr Masse“ zu verstehen ist und die relativistischen Effekte, die aus einer Verschiebung in andere Dimensionen einhergehen. Der Begriff „Unschärfe“ ergibt sich also, wenn die Rückholung der einzelnen Energieportionen in anderen Dimensionen ohne Zeitverzug angenommen würde, genau hier ist aber eine diskrete Zeit vorgegeben, sodass dies nur dementsprechend sukzessiv beschlossen ist, in dem Sinne kleinstmögliche Zeiteinheit pro Rückführung oder Rausführung von Energieportionen. In diesen Zeitpunkten, auch wenn die Energie nicht auf einmal zurückgeführt werden kann, sondern nur sukzessiv, ist alles absolut scharf. Alle partikulären Impulse gehen also wieder über auf das Ganze. Wenn in der Feldvorstellung also ein Teilchen erzeugt wird, so geschieht das absolut deterministisch, wir haben eine hohe Geschwindigkeit, vieler Teilchen, die auf einem Raumpunkt einwirkt. Kommt es dort nun durch Superposition zu genau der Energie, so entsteht dort ein Teilchen, was wiederum mit einem Frequenzverlust der anderen Teilchen einhergeht – das bei diesen dann ein Masseverlust (Frequenzverlust) bewirkt.
Es mag sein, dass wir bisher eine viel zu geringe Grundgesamtheit von Messwerten aufgenommen haben, um das entsprechend aufzulösen, aber die Welt, von der wir ein Teil sind, in einem Kausalstrang, ist scharf. Die gesamte Weltbühne besteht seit jeher aus einem einzigen Blitzlichtgewitter, einem sich dynamisch ordnenden Mosaik, aus vielen verschiedenen schnell laufenden Super-8 Filmen, um am Ende einsträngig eine Bühnenhandlung begreifen zu können, mit einem wesentlichen Höhepunkt und einem Wendepunkt, der den Weg von der Vernichtung in die Bewahrung kennzeichnen wird.
Abschließende Betrachtungen zur Erklärung der Masse
Wenn wir die Teilchenzahl-Ladungszahl-Energieerhaltung berücksichtigen und das ist was wir ständig beobachten, auch nie wurde ein Verstoß dagegen wahrgenommen, so wird deutlich, das auch wegen der Lichtgeschwindigkeit (Teilchen, die oberhalb der Lichtgeschwindigkeit postuliert wurden, wurden dennoch nicht nachgewiesen) die gesamte Energie des Universums konstant bleiben muss. Höhere Energiebetrachtungen führen keineswegs zu einer Relativierung dieser Erhaltungssätze, die ganz im Einklang mit der Kausalität stehen. Würde die gesamte Energie des Universums auf einen Punkt komprimiert vorstellt, so entspricht diesem eine Frequenz, die ganz bedeutend hoch wäre, sodass, wenn dieser sich überhaupt nicht bewegen würde, dies gegen den Energieerhaltungssatz verstößt. Wir werde das später noch mit dem Anbeginn der Zeit erklären, denn eigentlich ist die Sichtweise so nicht richtig, denn der Punkt endet dann in der ganzheitlichen Betrachtung, es ist in diesem Sinne kein Relativsystem mehr vorhanden. Berücksichtigt man jetzt entsprechend die Teilchenzahlerhaltung, so ist klar, dass alle Teilchen dieser Eigenschaft genügen müssen. Die Nullpunktschwingung ist also keineswegs ein indeterministischer Effekt aus dem Nichts, er verhindert die Vorstellung, dass die gesamte Masse in einem Punkt ohne Koordinate verloren gehen kann, unterbindet also die immanente Kritik des materialistischen Weltbildes, das dort und über den ganzen Verlauf bis zum Ende aus diesem Grunde in viele Paradoxien münden muss.
Nun ist aber anzunehmen, dass die Geschwindigkeit null, wie später noch etwas genauer veranschaulicht wird, eben die ganzheitliche Sicht ist, in der Zeit und Raum in das ganzheitliche Existieren übergehen, der Beweis der Allmenge also, sodass sich also die erste der alternierenden Nullpunktschwingungen, also die Schnittstelle des Partikularismus in Zeit und Raum mit dem ganzheitlich Potenziellen vorgestellt werden kann. Das System kann also in einem einzigen „Quasiteilchen“ vorgestellt werden, das aber dann in Wirklichkeit der fertigen Allmenge entspräche, also nicht im Sinne als Symmetriebrechung im Partikulären, sondern die Einleitung der Symmetrie als Ganzes im Identitätsverständnis dieses Beweises. Es ist also wichtig, das eine Projektion des Ganzheitlichen auf das Partikuläre stattfindet und nicht umgekehrt, weil sonst die Unendlichkeit in die Endlichkeit gelegt würde und das führt zu der Widersprüchlichkeit der Allmenge.
Es wurde schon immer vermutet das der Widerspruch der Quantenmechanik und der allgemeinen Relativitätstheorie, also die unendliche Raumkrümmung, die aus der Quantenmechanik folgen muss, würde das Vakuum Energie aus dem Nichts erzeugen, nicht wirklich in der Natur begründet ist. Es scheint also so zu sein, dass wir in einer sehr konsistenten Welt leben. Es war auch immer absurd anzunehmen, als ob aus dem Chaos sich der Gang einer Präzessionsuhr erstellen lässt, dessen Genauigkeit alle anderen Uhren in den Schatten stellt.