Hallo,
ich habe folgendes Problem:
Die Ausbreitungsgeschwindigkeit einer elektromagnetischen Welle im Vakuum ist ja die Lichtgeschwindigkeit.
Wenn man jetzt die optimale Länge der Dipolantenne herausfinden möchte, teil man einfach die Lichtgeschwindigkeit durch die Frequenz der elektromagnetischen Welle in Hz.
Jetzt breiten sich doch elektrische Signale in einem Leiter nicht mit der Lichtgeschwindigkeit aus, sondern deren Ausbreitungsgeschwindigkeit ist weit geringer.
Ich habe gehört, dass in Stromleitungen die Ausbreitungsgeschwindigkeit von Spannungssignalen nur noch 2/3 der Lichtgeschwindigkeit beträgt.
Nun ist ja die Leitungskapazität der Dipolantenne geringer, aber die Ausbreitungsgeschwindigkeit muss sich doch trotzdem von der Lichtgeschwindigkeit unterscheiden.
Das heißt doch, dass man die in einem Leiter herrschende Ausbreitungsgeschwindigkeit (statt der Lichtgeschwindigkeit) für Spannungsschwankungen durch die Frequenz der elektromagnetischen Welle, die man senden/empfangen möchte, teilen muss, um auf die richtige Länge der Antenne zu kommen.
Wie ist das also in einem realen Fall.
Welche Effekte führen dazu, dass sich die Ausbreitungsgeschwindigkeit für die Spannungsänderung im Leiter von der Lichtgeschwindigkeit unterscheidet und wie viel Prozent der Lichtgeschwindigkeit beträgt sie in Wirklichkeit noch?
Ist die Vorstellung, dass Elektronen von einem Ende der Antenne zum anderen geschubst werden und dafür eben eine Zeit brauchen um die Schwingung zu vollziehen und die Ausbreitungsgeschwindigkeit von dieser Zeit eben abhängt und diese Ausbreitungsgeschwindigkeit der Schwingung der Elektronen viel langsamer ist als die der Lichtgeschwindigkeit, korrekt?
Vielen Dank
Gruß
Tim