Warum gibt es bei Ethernet die 100m Grenze?

Hallo Experten,

warum ist ein Ethernetsegment auf 100m begrenzt? Welcher Umstand ist dafür verantwortlich, dass man ihn nicht auf 120m oder 150m oder noch länger machen sollte? und was passiert, wenn man ih trotzdem länger macht?
danke für die Hilfe
Grüße
lignuslibri

Moien

warum ist ein Ethernetsegment auf 100m begrenzt?

Weil Signale auf der Leitung nicht unendlich schnell sind. Wenn man bei half-duplex das gleichzeitige Senden von 2 Karten erkennen möchte muss das Vorsignal das gesamte Segment durchlaufen bevor Nutzdaten kommen. Das Vorsignal ist auf eine bestimmte Zeit festgelegt und ergibt mit der Signalgeschwindigkeit die 100m für 100Mbit Ethernet.

Bei full-duplex und Switchen ist das Problem eher die Signalqualität. Da sind in der Praxis auch 200m möglich.

cu

warum ist ein Ethernetsegment auf 100m begrenzt?

Ist es nicht. Twisted-Pair-Verkabelung ist auf 100 m. spezifiziert.

Welcher
Umstand ist dafür verantwortlich, dass man ihn nicht auf 120m
oder 150m oder noch länger machen sollte?

Man musste sich bei der Spezifikation für irgendeine Länge entscheiden. Hat man halt 100 m genommen.

und was passiert,
wenn man ih trotzdem länger macht?

Du hast gegenüber dem Verleger keinen Anspruch auf Minderung oder Mängelrüge, sollte die erzielbare Leistung auf dieser Strecke nicht mehr der Normleistung entsprechen.

HTH
Schorsch

Moien

warum ist ein Ethernetsegment auf 100m begrenzt?

Weil Signale auf der Leitung nicht unendlich schnell sind.
Wenn man bei half-duplex das gleichzeitige Senden von 2 Karten
erkennen möchte muss das Vorsignal das gesamte Segment
durchlaufen bevor Nutzdaten kommen. Das Vorsignal ist auf eine
bestimmte Zeit festgelegt und ergibt mit der
Signalgeschwindigkeit die 100m für 100Mbit Ethernet.

Bei full-duplex und Switchen ist das Problem eher die
Signalqualität. Da sind in der Praxis auch 200m möglich.

Kann ich an der Bezeichnung irgendwie erkennen, ob es sich um half oder vollduplex handelt? Also angenommen ich verwende twisted pair CAT7 Kabel. Netzstruktur kann beliebis aussehen und ist Fast Ethernet. Sehe ich an diesen Angaben irgendwo, ob es halfduplex oder vollduplex ist?
Wie verhält sich das Netz, wenn ich die 100 m überschreite? Wird die Übertragung langsam oder gehen Frames vielleicht sogar verloren, so dass die Kommunikation gar nicht möglich ist.
Wie sieht es in der industruellen Praxis aus? Sind die 100m tatsächlich der Wert der noch einwandfrei funktioniert oder verwendet man eher 70-80m?

warum ist ein Ethernetsegment auf 100m begrenzt?

Ist es nicht. Twisted-Pair-Verkabelung ist auf 100 m.
spezifiziert.

ok. aber warum gibt es überhaupt eine grenze? Wegen CSMA/CD und half duplex?

und was passiert,
wenn man ih trotzdem länger macht?

Du hast gegenüber dem Verleger keinen Anspruch auf Minderung
oder Mängelrüge, sollte die erzielbare Leistung auf dieser
Strecke nicht mehr der Normleistung entsprechen.

es wird also nur der Datendurchsatz etwas vermindert? Oder kann sich das Netzwerk irgendwie andere Fehlerbilder zeigen?

Moien

Kann ich an der Bezeichnung irgendwie erkennen, ob es sich um
half oder vollduplex handelt?

Das zeigt jedes normale Betriebsystem irgendwo in den Einstellung an.

Also angenommen ich verwende twisted pair CAT7 Kabel.

Jedes normale Ethernet-Kabel kann beides.

Netzstruktur kann beliebis aussehen
und ist Fast Ethernet.

Solange es keine Coaxkabel enthält …

Wie verhält sich das Netz, wenn ich die 100 m überschreite?

Die Fehlerrate steigt mit der Länge. D.h. das Netz wird irgendwann langsamer und fällt ganz aus wenn man noch weiter geht. Wenn es doof läuft schalten die Netzwerkkarten auf 10MBit runter.

Wie sieht es in der industruellen Praxis aus? Sind die 100m
tatsächlich der Wert der noch einwandfrei funktioniert oder
verwendet man eher 70-80m?

Hier liegen mehrere Strecken mit 180min der Erde. Bei 10Mbit laufen die problemfrei, bei 100MBit gibt es Ärger (10-15% package loss).

cu

ok. aber warum gibt es überhaupt eine grenze? Wegen CSMA/CD
und half duplex?

Es gibt eine ganze Reihe von Faktoren, die die max. Übertragungslänge beeinflussen können. Alleine die Signallaufzeiten, wie pumpkin sie angeführt hat, können m. E. nicht oder nicht allein ausschlaggebend sein, da die Laufzeit auf Glasfaser auch nicht anders ist, dort aber deutlich grössere Segmentlängen möglich sind. Ist aber ganz und gar nicht mein Fachgebiet.

es wird also nur der Datendurchsatz etwas vermindert? Oder
kann sich das Netzwerk irgendwie andere Fehlerbilder zeigen?

Du darfst einfach nur keine garantierte Leistung mehr erwarten. Abhängig von einer Reihe anderer Faktoren kannst du auch auf erheblich längeren Segmenten möglicherweise noch uneingeschränkte Volllast fahren. Abhängig von der Topologie können aber auch Fehler in einem Segment das komplette Netz mit runterreissen.

Du bekommst außerdem immer dann ein Problem, wenn sich _irgendwo_ im Netz ein Fehler zeigt. Wenn du ein teures Neugerät (Switch, Firewall-Appliance, Server…) mit fehlerhafter Ethernetschnittstelle hast und der Hersteller die Gewährleistung ablehnt mit Verweis auf die nach seiner Sicht ursächlichen Überlängen… Völlig egal, um welchen Fehler es sich handelt, was ursächlich ist - jeder wird auf deine Überlängen zeigen und auf einmal liegt es an dir, nachzuweisen, dass der Fehler dort nicht liegt.

Ich hätte bei Überlängen von 20 oder 30% keine Bedenken.

Gruss
Schorsch

Hallo lignuslibri

warum ist ein Ethernetsegment auf 100m begrenzt?

Neben dem, was schon erläutert wurde, hat es auch etwas mit der Signalqualität zu tun. Man kann auch längere Segmente einrichten, sollte dann aber zumindest einen Repeater einsetzen, der dafür sorgt, dass das Signal verstärkt wird. Heutzutage erfüllen Hubs und Switches auch die Aufgabe des Repeaters.

CU
Peter

Hallo lignuslibri,

warum ist ein Ethernetsegment auf 100m begrenzt? Welcher
Umstand ist dafür verantwortlich, dass man ihn nicht auf 120m
oder 150m oder noch länger machen sollte? und was passiert,
wenn man ih trotzdem länger macht?
danke für die Hilfe

Die Kabellängen sind ja nur ein Parameter unter vielen.

Wenn man ein bisschen mehr machen will, als nur ein Lämpchen zu betreiben, wird ein Kabel ein recht komplexes Bauteil. Zu diesem Thema gibt es ganze Bücher, die ganze Problematik kann man nicht mal in zwei Sätzen erklären. Wellenwiderstand und Dämpfung sind nur mal zwei Stichworte.

Wenn man nun eine Norm festlegt, muss diese in diesem Fall Sender, Empfänger und Übertragungsmedium umfassen.
Um dann das Ganze auch praktisch herstellen zu können, muss man auch Tolleranzwerte angeben. Je enger Toleranzen gewählt werden umso teurer wird aber das Produkt.
Das andere Problem ist nun, dass die Norm aber garantieren sollte, dass wenn die Toleranzen ungünstig zueinander liegen, das Ganze immer noch funktioniert. Dieses ist als „Worst Case“ bekannt.
Eine vernünftige Norm berücksichtigt dabei auch noch Störungen, welche typischerweise in der Praxis noch hinzu kommen.

Es gibt genügend Normen, welche nur auf dem Papier und unter Laborbedingungen funktionieren, in der Praxis dann aber versagen.

Eine Norm welche in diese Richtung tendiert ist z.B. UMTS. Die beworbenen Übertragungsraten werden nur erreicht, wenn man idealen Empfang hat und sich das Mobilteil nicht bewegt. Sobald man sich z.B. mit dem Auto bewegt, bricht die maximale Übertragungsrate empfindlich ein. In der Norm steht das zwar, aber die Werbung …

Aus den ganzen Berechnungen ergibt sich dann eine rechnerische maximale Länge. Praktisch wird dann dieser Wert noch auf einen runden Wert abgerundet. Ja nachdem wo die Norm entstanden ist, basieren die runden Werte aber auf Füssen, Yards, Metern oder was sonst noch so verwendet wird.

Um jetzt noch etwas Verwirrung zu stiften, muss ich noch erwähnen, dass es technisch gar keine Möglichkeit gibt, Signale digital zu übertragen. Die praktische Übertragung ist immer Analog, nur die Interpretation der Signale unterscheidet sich zwischen Digital und Analog.
Selbst eine Glasfaser schwächt das Signal mit zunehmender Länge ab. Hinzu kommt noch, dass sich die Signale mit der Länge auch noch immer mehr Verformen.
z.B. wird ein exakter Rechteckimpuls mit zunehmender Leitungslänge breiter, die Flanken werden verschliffen und der Pegel nimmt ab.

Wie schon geschrieben wurde, verschlechtert sich die Signalqualität mit zunehmender Länge, auch bei 110m wird deine Verbindung praktisch noch Fehlerfrei funktionieren. Wenn du ein Kabel mit „besseren“ Spezifikationen als in der Norm vorgeschrieben verwendest, kannst du noch mehr an Länge zulegen. Irgendwann nehmen dann die Übertragungsfehler zu, das hängt praktisch aber auch von den konkreten Parametern von Sender und Empfänger und den auf das Kabel einwirkenden Störungen ab.
Das Ganze kann man nun statistisch betrachten, indem man angibt auf wie viele fehlerfrei übertragene Bits ein gestörtes kommt. Wenn man an den Punkt kommt, wo in jedem Datenpaket ein gestörtes Bit vorkommt, ist eine Übertragung nicht mehr möglich. Man kann sich dann noch etwas behelfen indem man die Datenpakete kürzer macht und somit ab und zu noch eines fehlerfrei übertragen bekommt.

Übrigens, wenn man Satellitenempfang hat, praktisch werden auch beim Kabelfernsehen die meisten Sender über Satellit empfangen, kann man den Unterschied zwischen digital und analog sehr gut sehen.
Wenn ein heftiges Gewitter losgeht, verschlechtert sich das Signal an der Schüssel zusehends.
Bei einem analogen Übertragungskanal sieht man die Aussetzer als Fischchen im Bild. Das Bild verrauscht weiter zusehends bis es dann ganz ausfällt.
Bei einem digitalen Kanal ist zuerst nichts zu sehen, dann fängt das Bild zeitweise an einzufrieren (das kommt von den zum dekodieren nötigen Bildspeichern) und ist dann plötzlich ganz weg oder zur Fotografie mutiert.

Technisch macht es keinen Unterschied ob jetzt die Länge konstant bleibt und sich die Parameter der Übertragungsstrecke zusehends verschlechtern (wie beim Satellitenempfang) oder ob man die Übertragungsstrecke kontinuierlich verlängert und sich deshalb das Signal verschlechtert.

MfG Peter(TOO)

Kollisionerkennung
Hallo!

ist eigentlich ganz einfach:
Ethernet ist ein Bussystem, d.h. alle Geräte nutzen das gleiche Kabel (ursprunglich war es wirklich nur ein Kabel, später kamen Hubs, in denen aber einfach nur die Kabel durchverbunden werden, Switches kamen noch später).

Wenn jetzt ein Gerät senden will, dann horcht es kurz, ob gerade ein anderer sendet, dann ruft es ins Kabel: „Ich will jetzt!“ und dann wartet es eine kurze Zeit, ob nicht ein anderes Gerät auch gerade zu diesem Zeitpunkt will. Wenn ja, dann warten beide Geräte eine zufällig ausgewürfelte Zeitspanne ab und versuchen es dann erneut (darum ausgewürfelt: beide warten damit unterschiedliche Zeitspannen und verursachen daher nicht das gleiche ein paar ms später). Wenn Nein, dann fängt es an richtige Daten zu senden.

Das Problem: Die Geschwindigkeit auf dem Kabel ist begrenzt.
In der Zeitspanne zwischen „Ich will jetzt!“ und dem Senden der Daten schafft das „Ich will jetzt!“-Signal nur die 100m. Wenn jetzt bei 120m ein weiteres Gerät angeschlossen ist und auch will, dann kann es vorkommen, das dieses auch „Ich will jetzt!“ ins Kabel ruft, während das erste Gerät schon die Daten sendet - „Ich will jetzt!“ von Gerät 1 ist ja erst bei 100m angekommen und braucht noch ein paar ns bis Gerät 2. Ergebnis: Datensalat!

Darum nur 100m.

Und das gilt auch bei Switches, dort allerdings für jedes Segment einzeln. Weil ein Switch einen kleinen Datenpuffer hat, wenn die interne Leitung voll belegt ist. Und wenn der Puffer voll ist, dann antwortet er einfach auch mit „Ich will jetzt!“, gaukelt dem PC damit ein potentielle Kollision vor, auf das dieser etwas wartet, bis der Puffer geleert ist.

Mit einem Switch verlängert sich die maxmial-Strecke zwischen zwei Rechnern damit auf 200m.
Da man maximal drei Switches in Reihe schalten darf, kann die maximale Länge in einem reinen Ethernet bei 400m liegen.

Die 100m sind garantiertes Minimum, in der Praxis hat man - wenn man nicht gerade die allerbilligsten Kabel, Stecker, Dosen und Switches verwendet - gut 10 bis 20% Toleranz. Dann geht es zwar grundsätzlich noch, aber durch die mäßige bis schlechte Signalqualität geht der Durchsatz schon etwas runter, weil einiges mehrfach gesendet werden muss. Ab 120m ist im Normalfall Feierabend.

Bitte, liebe Fachleute:
Ich hab versucht, das ganze so anschaulich wie möglich zu erklären, ohen großartig mit Fachbegriffen um mich zu werfen. Bitte keine dummen Bemerkungen, das das aber im Detail anders sei, das weiss ich auch. Das hier ist nur ein grundsätzliche Erklärung für Leute, die Netzwerktechnik nicht studiert haben.

Hallo!

ist eigentlich ganz einfach:
Ethernet ist ein Bussystem, d.h. alle Geräte nutzen das
gleiche Kabel (ursprunglich war es wirklich nur ein Kabel,
später kamen Hubs, in denen aber einfach nur die Kabel
durchverbunden werden, Switches kamen noch später).

Wenn jetzt ein Gerät senden will, dann horcht es kurz, ob
gerade ein anderer sendet, dann ruft es ins Kabel: „Ich will
jetzt!“ und dann wartet es eine kurze Zeit, ob nicht ein
anderes Gerät auch gerade zu diesem Zeitpunkt will. Wenn ja,
dann warten beide Geräte eine zufällig ausgewürfelte
Zeitspanne ab und versuchen es dann erneut (darum
ausgewürfelt: beide warten damit unterschiedliche Zeitspannen
und verursachen daher nicht das gleiche ein paar ms später).
Wenn Nein, dann fängt es an richtige Daten zu senden.

Das Problem: Die Geschwindigkeit auf dem Kabel ist begrenzt.
In der Zeitspanne zwischen „Ich will jetzt!“ und dem Senden
der Daten schafft das „Ich will jetzt!“-Signal nur die 100m.
Wenn jetzt bei 120m ein weiteres Gerät angeschlossen ist und
auch will, dann kann es vorkommen, das dieses auch „Ich will
jetzt!“ ins Kabel ruft, während das erste Gerät schon die
Daten sendet - „Ich will jetzt!“ von Gerät 1 ist ja erst bei
100m angekommen und braucht noch ein paar ns bis Gerät 2.
Ergebnis: Datensalat!

Darum nur 100m.

Meine Frage hat den Hintergrund, dass wir Geräte für point-to-point Verbindungen (also keine Bus- oder Stern- oder Baumtopologie) einsetzen, die auch noch im Vollduplexbetrieb arbeiten, so dass jeder quasi ein Kabel für sich hat. Die maximale Distanz ohne ein zusätzlichen Switch, Hub oder Repeater ist aber trotzdem 100m und selbst da wird empfohlen 20-30% darunter zu bleiben.

Und das gilt auch bei Switches, dort allerdings für jedes
Segment einzeln. Weil ein Switch einen kleinen Datenpuffer
hat, wenn die interne Leitung voll belegt ist. Und wenn der
Puffer voll ist, dann antwortet er einfach auch mit „Ich will
jetzt!“, gaukelt dem PC damit ein potentielle Kollision vor,
auf das dieser etwas wartet, bis der Puffer geleert ist.

Mit einem Switch verlängert sich die maxmial-Strecke zwischen
zwei Rechnern damit auf 200m.
Da man maximal drei Switches in Reihe schalten darf, kann die
maximale Länge in einem reinen Ethernet bei 400m liegen.

Das ist mir nue. Wieso darf man nur 3 Switches in Reihe schalten? Es gibt doch lokale Ethernet-Netze, die wesentlich weiter ausgedehnt sind. Wird da etwa geroutet?

Hallo,

es gibt handfeste technische Gründe, warum man eine Grenze von 100 Metern
eingeführt hat. Es wird aber keineswegs garantiert, dass diese 100 Meter
fehlerfrei funktionieren, genauso wenig wie klar ist, dass bei 101 Meter der
Signal-Rauschabstand so mies ist, dass keine Übertragung mehr möglich ist.
Schau die mal mit dem Stichwort „Augendiagramm“ an, wie Signale auf Leitungen
aussehen. http://www.ieee802.org/3/efm/public/may01/nazari_1_0…

Gerade in einer industriellen Umgebung, bei der Du meistens handfeste
Umwelteinflüsse und EMV Probleme hast, sind 100 Meter über Kupfer so eine
Sache. Das muss bei der Planung bereits berücksichtigt werden.

Auf jeden Fall ist hinterher bei der Abnahme für jede Leitung eine Messung
fällig. Wenn es da keine Auffälligkeiten gibt, dann ist es letztlich wurscht,
ob es 80m, 100m oder 120m sind.

Wird allerdings mit 120m fest geplant und das geht in die Hose, dann ist es
meistens sehr viel teurer, das ganze neu zu machen, als gleich auf Glasfaser zu
setzen.

Gruß

Fritze

Meine Frage hat den Hintergrund, dass wir Geräte für
point-to-point Verbindungen (also keine Bus- oder Stern- oder
Baumtopologie) einsetzen, die auch noch im Vollduplexbetrieb
arbeiten, so dass jeder quasi ein Kabel für sich hat. Die
maximale Distanz ohne ein zusätzlichen Switch, Hub oder
Repeater ist aber trotzdem 100m und selbst da wird empfohlen
20-30% darunter zu bleiben.

In der Theorie müsstest du dann - gutes Kabel und gute Abschirmung vorrausgesetzt - auch mehr schaffen können. Einfach mal ausprobieren.
Allerdings ist dieser Sonderfall im Ethernet-bereich nicht explizit aufgeführt, könnte also u.U. schlicht und ergreifend an der Software (Treiber) scheitern.

Die 100m sind allerdings eigentlich die Garantierte Grenze, die sollten immer drin sein (wenn man nichtgerade minderwertiges Material verwurschtelt hat).
Probiers doch einfach aus, wenn’s nicht geht, kannst du ja immer noch einen Switch/Hub/Repeater dazwischen setzen.

Das ist mir nue. Wieso darf man nur 3 Switches in Reihe
schalten? Es gibt doch lokale Ethernet-Netze, die wesentlich
weiter ausgedehnt sind. Wird da etwa geroutet?

So hab ich es noch gelernt.

siehe beispielsweise http://digitalether.de/__media/books/EtherBook/ether… Seiten 45ff (Anzahl der Segmente in den verschiedenen Netzen).

In größeren Netzen wird entweder geroutet oder zwischendurch mit speziellen Switches Langstreckenverbindungen über Glasfaser aufgebaut. Die Begrenzung gilt meines Wissens nach streng genommen nicht über die Strecke, sondern nur über die Anzahl der Segmente, und über Glasfaser gilt ja die 100m-Grenze nicht, darüber könnte man viel weiter gehen.
Ich muss allerdings gestehen, das ich da keine wirkliche Ahnung, sondern nur ganz nebulöse Vorstellungen von der Machbarkeit habe.