CSMA/CD - Ethernet (Kollisionsbehandlung)

Liebe/-r Experte/-in,

Hallo, ich verstehe 3 Sätze in dem Doc nicht, vielleicht könnt ihr mir helfen bitte.

  1. „Bei der Behandlung von Kollisionen muss auch die Ausbreitungsgeschwindigkeit auf dem Netz beachtet werden. So kann z.B. eine Station den Kanal für frei befinden, obwohl eine Station „am anderen Ende“ schon zu senden begonnen hat, das Signal aber ncoh „auf dem Weg ist“. Man definiert aus diesem Grund die sog. Slot-Time.“

Nunja, wie soll das denn bitte gehn? Ich dachte wenn Daten im Übertragungskanal unterwegs sind und eine Station hört ab, dann weiß diese das hier Daten darin sind? Was hat das nun mit der Ausbreitungsgeschwindigkeit zu tun und mit der Slot-Time?

Die Slot-Time ist ja die maximale Zeit, während der eine Kollision auftreten kann, nachdem der Übertragungskanal als frei erkannt wurde.

  1. „Sendet eine Station ein Ethernet-Paket aus, so brauchen die Signale eine gewisse Zeit bis sie eine andere Station erreichen(Laufzeit). Im schlechtesten Fall hört die entfernteste Station den Kanal unmittelbar vor Eintreffen des ersten Bits des gesendeten Paketes ab und beginnt somit zu senden. Es erfolgt unmittelbar darauf eine Kollision unddie Station generiert sofort ein Jamming das wieder nach der Laufzeit beim Absender des Paketes eintrifft“

Ok, aber hier wieder: Warum sendet die Station etwas, bevor das 1. Bit eintrifft? Die Statiot die horcht ja ob sich Daten im Kanal befinden oder nicht? Im dem Fall sind Daten drinnen --> Station darf nicht senden.

Was verstehe ich da denn Falsch? Kannst du mir ein Bilder posten oder Zeichnen bitte bzw. erklären^^ wie das ganze zusammenhängt?

  1. „Die Signallaufzeit(hin und retour) zwischen den entferntesten Stationen eines Ethernet-Netzes darf also nicht größer sein als die Zeit zum Aussenden des kürzest möglichen Paketes.“

„Zeit zum Aussenden des kürzest möglichen Pakets“
Darunter kann ich mir überhaupt nix vorstellen, was soll das genau heißen? Und warum muss das bitte so sein, was Zitat/Satz 3 sagt? Kann man das vllt. auch auf einem Bild oder so sehen?

Danke im voraus!

Wenn wir Heute 2012 von Ethernet sprechen, so sprechen wir üblicherweise inzw. von FAST-ETHERNET oder sogar GIGABIT-ETHERNET oder noch schneller.

Bei diesen Übertragungsverfahren GIBT ES KEIN CSMA/CD mehr wie es das noch gab als man Ethernet noch in Koaxial-Kabel übertragen hat. Die Modernen verfahren nutzen für jede Kommunikationsrichtung separate Adernpaare. Bei GbE sogar 2 Adernpaare in jede Richtung also insg. alle 8 Leitungen. Es kann also physikalisch zu keiner Kollision von Signalen mehr kommen.

Zudem sind Heutzutage alle Geräte welche Fast-Ethernet (oder besser) sprechen können „VOLLDUPLEX“ fähig. d.h. senden und empfangen ist inzw. auf getrennten Adernpaaren zeitgleich möglich ohne sich gegenseitig zu beeinflussen.

CSMA/CD stammt noch aus einer Zeit wo sender und empfänger das selbe „einfach vorhandene“ Übertragungsmedium genutzt haben. z.B. 1 Adernpaar (Twinax) oder 1 Coax-Cable RG58, oder 1 Trägerwelle auf dem Äther. Diese Zeiten sind zumindest bei Ethernet seit den 90ern vorbei.

Sorry, aber das geht auch für mich zu tief in die Matherie

Ok, danke, aber da ich noch zur Schule gehe und das hier lerne, was ich oben gepostet habe, muss ich das verstehn, darum die Fragen.

Ethernet, CSMA/CD und alles was damit zusammenhängt wurde von einer Standardisierungs-Organisation Namens IEEE spezifiziert. Thin-Ethernet (10base2) basiert auf dem Standard IEEE 802.3.

Wenn man tatsächlich GENAU wissen will wie das alles im Detail funktioniert und was ein „Slot Time“, „Round Trip“, „Jam Signal“ usw ist MUSS man sich zwangsläufig hinsetzen und entweder weiter im Internet recherchieren, oder sich eben die Unterlagen der IEEE anschauen.

Diese Unterlagen werden „normalerweise“ von der IEEE sehr teuer verkauft und sind nicht in jedem Fall kostenlos im Internet erhältlich. Bei 802.3 jedoch scheint es inzw. frei verfügbar zu sein.

Kannst du hier sehen / erhalten:

http://standards.ieee.org/about/get/802/802.3.html

Nur zur Info: Alleine das Buch 3 welches NUR CSMA/CD beschreibt ist schon fast 700 Seiten dick.

DAS sind die Unterlagen für Ingenieure, Programmierer und Wissenschaftler. Entsprechend kompliziert, aber auch detailiert sind diese.

Hier wird CSMA/CD erklärt:
http://standards.ieee.org/getieee802/download/802.3-…

Ich habe mir die Unterlagen ebenfalls noch nie angesehen und kann dir aus dem Stehgreif auch nicht erklären was genau eine „Slottime“ ist.

Aber man muss einfach wissen dass elektrische Signale auf Kupferkabeln nicht unendlich schnell sind. d.h. hat man ein sehr langes Kabel (coax oder doppelader) und schickt am einen Ende ein Signal hinein, so steht das Signal „NICHT unmittelbar“ an der anderen Seite an, sondern braucht eine gewisse Zeit bis es dort ankommt. Diese Signalausbreitungsgeschwindigkeit liegt „in etwa“ bei Lichtgeschwindigkeit (etwas darunter) und ist auch vom verwendeten Medium abhängig.

Jedenfalls kommt es dabei zwangsläufig zu Zeitlichen Verzögerungen zwischen Sender und Empfänger am anderen Ende des Kabels. Diese sind SEHR GERING für das Menschliche empfinden. Für sehr schnelle technische Anwendungen hingegen können diese nicht unerheblich sein.

Durch diese Verzögerungen auf Grund der großen Kabellänge (bzw Netzausbreitung durch mehrere Kabel und mehrere Repeater hinweg) kann sich die Verzögerung sogar aufaddieren.

Wir erinnern uns dass bei Thin-Ethernet (10base2 und 10b5) JEDE STATION nicht nur Sender, sondern auch EMpfänger ist. Vergleichbar mit einer Person welche sprechen UND gleichzeitig hören kann.

Zwei Menschen kommunizieren über die Luft (Medium) durch Schallwellen. Normalerweise spricht ein Mensch, der andere hört zu. Dann wechselt man sich ab.

Es können auch beide gleichzeitig hören ohne probleme. Zwar hört man dann nichts weil es still ist, aber hierdurch merken beide dass das MEdium (Luft) gerade „unbenutzt“ ist und „könnten“ sofern Daten zur Übertragung anstehen dieses MEdium nun nutzen und zu sprechen beginnen.

Nun kommt es eben auch mal vor, dass beide Personen (Stationen) gleichzeitig Daten übertragen (Sprechen) wollen (Zufall). Beide Stationen lauschen auf dem Medium ob es frei ist. Beide Stationen „hören“ gerade nichts, Medium ist also frei und beginnen sogleich mit der Übertragung der Information (Senden bzw Sprechen).

HIer kommt es nun zur kollision.

Wie beim Menschen auch, startet auf beiden Seiten (mehr oder weniger gleichzeitig) das Signal (schallwellen oder elektr. welle) auf dem Medium, läuft auf dem MEdium entlang und kollidiert ab einem gewissen Zeitpunkt auf dem Kabel. Das ergebniss ist „cowderwelch“, ein unverständlicher Datensalat.

Beide Stationen können ähnlich wie der Mensch das erkennen (COllission detection) und STOPPEN sofort ihre Übertragung. Anschließend wird der Sendevorgang von beiden Seiten nochmals wiederholt, jedoch jeweils mit einer Zeitlichen UND ZUFÄLLIG gewählten Verzögerung. Somit wird versucht die gleichzeitige Sendung zu verhindern.

Das war in etwa die „high level“ BEschreibung. Für die „low level“ BEschreibung schaust du besser in die Schulunterlagen oder eben in die technische spezifikation der IEEE.

Anmerkung:

Was Heutzutage nur noch wenige Wissen. Ethernet-Netze (auch das Moderne 100Base-T oder 1000Base-? können auf Grund dieser Signallaufzeiten und Verzögerungen nicht uneingeschränkt weit aufgespannt werden. Ich kann mich nicht mehr genau an die Regeln erinnern, aber bei 100BaseT sind glaube ich Kabellängen von max 180Meter und eine „Unterverteilung“ mit Switches nur bis zu 4 Ebenen erlaubt. Bei schnellerem Ethernet entsprehend noch deutlich kürzer (nur noch ca 10-20M auf Kupfer).

Mehr kann ich nicht bieten.

Viel spass beim Lernen!

  1. „Bei der Behandlung von Kollisionen muss auch die
    Ausbreitungsgeschwindigkeit auf dem Netz beachtet werden. So
    kann z.B. eine Station den Kanal für frei befinden, obwohl
    eine Station „am anderen Ende“ schon zu senden begonnen hat,
    das Signal aber ncoh „auf dem Weg ist“. Man definiert aus
    diesem Grund die sog. Slot-Time.“

Nunja, wie soll das denn bitte gehn? Ich dachte wenn Daten im
Übertragungskanal unterwegs sind und eine Station hört ab,
dann weiß diese das hier Daten darin sind? Was hat das nun mit
der Ausbreitungsgeschwindigkeit zu tun und mit der Slot-Time?

Die Slot-Time ist ja die maximale Zeit, während der eine
Kollision auftreten kann, nachdem der Übertragungskanal als
frei erkannt wurde.

Ich denke, hier hilft ein Beispiel:
Station 1 in Hamburg, Station 2 in New York.

Station 1 sendet Daten. Station 2 will auch senden, und prueft, ob der Kanal frei ist. Die Daten sind zu dem Zeitpunkt aber erst bis zum Relay in London gekommen, d.h., Station 2 sieht die noch nicht und denkt daher, der Kanal sei frei. Wenn Station 2 jetzt sendet, kommt es irgendwo zwischen New York und London zur Kollision. Um das zu vermeiden, muessen New York und Hamburg Time Slots aushandeln, zu denen sichergestellt ist, dass nur einer sendet (da eben eine Pruefung direkt vor dem Senden an der Verzoegerung scheitert). S. hierzu als Beispiel http://de.wikipedia.org/wiki/IEEE_802.15.4#Slotted_M….

  1. „Sendet eine Station ein Ethernet-Paket aus, so brauchen
    die Signale eine gewisse Zeit bis sie eine andere Station
    erreichen(Laufzeit). Im schlechtesten Fall hört die
    entfernteste Station den Kanal unmittelbar vor Eintreffen des
    ersten Bits des gesendeten Paketes ab und beginnt somit zu
    senden. Es erfolgt unmittelbar darauf eine Kollision unddie
    Station generiert sofort ein Jamming das wieder nach der
    Laufzeit beim Absender des Paketes eintrifft“

Ok, aber hier wieder: Warum sendet die Station etwas, bevor
das 1. Bit eintrifft? Die Statiot die horcht ja ob sich Daten
im Kanal befinden oder nicht? Im dem Fall sind Daten drinnen
–> Station darf nicht senden.

Was verstehe ich da denn Falsch? Kannst du mir ein Bilder
posten oder Zeichnen bitte bzw. erklären^^ wie das ganze
zusammenhängt?

Um beim Beispiel von oben zu bleiben: wenn die Station in New York in den Kanal schaut, waehrend die Daten aus Hamburg erst in London sind, muss sie annehmen, der Kanal sei frei (es sind ja keine Daten da). Die Verzoegerungen, die auftreten, sind auch durchaus relevant: wenn wir Daten mit Lichtgeschwindigkeit von Hamburg nach New York schicken (gut 6000 km Luftlinie), dann sind die immerhin 0,02 Sekunden unterwegs. Das ist in der Netzwerkkommunikation eine Ewigkeit (vgl. Ping-Zeiten, die ja nichts anderes sind als Laufzeiten).

  1. „Die Signallaufzeit(hin und retour) zwischen den
    entferntesten Stationen eines Ethernet-Netzes darf also nicht
    größer sein als die Zeit zum Aussenden des kürzest möglichen
    Paketes.“

„Zeit zum Aussenden des kürzest möglichen Pakets“
Darunter kann ich mir überhaupt nix vorstellen, was soll das
genau heißen? Und warum muss das bitte so sein, was Zitat/Satz
3 sagt? Kann man das vllt. auch auf einem Bild oder so sehen?

Da fehlt mir jetzt der Zusammenhang, um das genau einzuordnen. Das „kuerzest moegliche Paket“ ist einfach die minimale Sequenz an Daten, die immer vorhanden sein muss, um ein gueltiges Netzwerkpaket zu bilden (also ohne Daten"ballast"). Und diese zu verschicken dauert ja auch eine gewisse Zeit. In dem beschriebenen Gesamtkontext ist es offensichtlich (da fehlt mir jetzt eben der Zusammenhang) wichtig, dass man nicht Daten irgendwo „in der Leitung“ haben darf, die weder am einen noch am anderen Ende sind.

Danke für deine Hilfe!

Ich bin einen Schritt weiter! Habe aber noch Fragen bitte.

  1. „Bei der Behandlung von Kollisionen muss auch die
    Ausbreitungsgeschwindigkeit auf dem Netz beachtet werden. So
    kann z.B. eine Station den Kanal für frei befinden, obwohl
    eine Station „am anderen Ende“ schon zu senden begonnen hat,
    das Signal aber ncoh „auf dem Weg ist“. Man definiert aus
    diesem Grund die sog. Slot-Time.“

Nunja, wie soll das denn bitte gehn? Ich dachte wenn Daten im
Übertragungskanal unterwegs sind und eine Station hört ab,
dann weiß diese das hier Daten darin sind? Was hat das nun mit
der Ausbreitungsgeschwindigkeit zu tun und mit der Slot-Time?

Die Slot-Time ist ja die maximale Zeit, während der eine
Kollision auftreten kann, nachdem der Übertragungskanal als
frei erkannt wurde.

Ich denke, hier hilft ein Beispiel:
Station 1 in Hamburg, Station 2 in New York.

Station 1 sendet Daten. Station 2 will auch senden, und
prueft, ob der Kanal frei ist. Die Daten sind zu dem Zeitpunkt
aber erst bis zum Relay in London gekommen, d.h., Station 2
sieht die noch nicht und denkt daher, der Kanal sei frei. Wenn
Station 2 jetzt sendet, kommt es irgendwo zwischen New York
und London zur Kollision. Um das zu vermeiden, muessen New
York und Hamburg Time Slots aushandeln, zu denen
sichergestellt ist, dass nur einer sendet (da eben eine
Pruefung direkt vor dem Senden an der Verzoegerung scheitert).
S. hierzu als Beispiel
http://de.wikipedia.org/wiki/IEEE_802.15.4#Slotted_M….

Achso, heißt das einfach, das Station 2 nur auf dem Kanal nach London schauen kann, ob hier Daten sind? Also kann z.b eine Station A nur zu Station B schauen, ob da jetzt was ist oder nicht, aber nicht auf die Strecke B-C?

Ich hab mir nämlich immer 2 Stationen vorgestellt, die direkt mit einem Kabel verbunden sind.

Weil wenns nur 2 Stationen geben würde, die direkt mit einem Kabel verbunden sind, dann würden die 3 Punkte, die ich in meinem Text zitiert habe, gar nicht vorkommen oder?

Was meinst du mit „Relay in London“? Das es einfach in London angekommen ist?

  1. „Sendet eine Station ein Ethernet-Paket aus, so brauchen
    die Signale eine gewisse Zeit bis sie eine andere Station
    erreichen(Laufzeit). Im schlechtesten Fall hört die
    entfernteste Station den Kanal unmittelbar vor Eintreffen des
    ersten Bits des gesendeten Paketes ab und beginnt somit zu
    senden. Es erfolgt unmittelbar darauf eine Kollision und die
    Station generiert sofort ein Jamming das wieder nach der
    Laufzeit beim Absender des Paketes eintrifft“

Ok, aber hier wieder: Warum sendet die Station etwas, bevor
das 1. Bit eintrifft? Die Statiot die horcht ja ob sich Daten
im Kanal befinden oder nicht? Im dem Fall sind Daten drinnen
–> Station darf nicht senden.

Was verstehe ich da denn Falsch? Kannst du mir ein Bilder
posten oder Zeichnen bitte bzw. erklären^^ wie das ganze
zusammenhängt?

Um beim Beispiel von oben zu bleiben: wenn die Station in New
York in den Kanal schaut, waehrend die Daten aus Hamburg erst
in London sind, muss sie annehmen, der Kanal sei frei (es sind
ja keine Daten da). Die Verzoegerungen, die auftreten, sind
auch durchaus relevant: wenn wir Daten mit
Lichtgeschwindigkeit von Hamburg nach New York schicken (gut
6000 km Luftlinie), dann sind die immerhin 0,02 Sekunden
unterwegs. Das ist in der Netzwerkkommunikation eine Ewigkeit
(vgl. Ping-Zeiten, die ja nichts anderes sind als Laufzeiten).

Heißt das, dass Punkt 2 eigentlich dasselbe wie Punkt 1 ist?

Es steht ja da, dass im schlechtesten Fall die entfernteste Station den Kanal unmikttelbar vor Eintreffen des ersten Bits des gesendeten Paketes ab und beginnt zu senden.

Wo trifft den das Bit ein? In London? Aber wie kann man das herauslesen aus dem Text das es sich um 3 Station handelt, oder mehrere? Und welche Station hört jetzt welchen Kanal hier ab?

Für mich sagt der Text aus, dass es sich um 2 Stationen, die mit einen Kabel direkt verbunden sind, handelt.

  1. „Die Signallaufzeit(hin und retour) zwischen den
    entferntesten Stationen eines Ethernet-Netzes darf also nicht
    größer sein als die Zeit zum Aussenden des kürzest möglichen
    Paketes.“

„Zeit zum Aussenden des kürzest möglichen Pakets“
Darunter kann ich mir überhaupt nix vorstellen, was soll das
genau heißen? Und warum muss das bitte so sein, was Zitat/Satz
3 sagt? Kann man das vllt. auch auf einem Bild oder so sehen?

Da fehlt mir jetzt der Zusammenhang, um das genau einzuordnen.
Das „kuerzest moegliche Paket“ ist einfach die minimale
Sequenz an Daten, die immer vorhanden sein muss, um ein
gueltiges Netzwerkpaket zu bilden (also ohne Daten"ballast").
Und diese zu verschicken dauert ja auch eine gewisse Zeit. In
dem beschriebenen Gesamtkontext ist es offensichtlich (da
fehlt mir jetzt eben der Zusammenhang) wichtig, dass man nicht
Daten irgendwo „in der Leitung“ haben darf, die weder am einen
noch am anderen Ende sind.

Mh… Ich poste dir nochmal den ganzen Absatz:

„Um eine korrekte Kollisionsbehandlung zu gewährleisten muß jede Station noch während der
Aussendung eines Paketes die Chance haben, eine Kollision zu erkennen, um die Aussendung
als nicht erfolgreich zu bewerten. Die Signallaufzeit (hin und retour) zwischen den
entferntesten Stationen eines Ethernet-Netzes darf also nicht größer sein als die Zeit zum
Aussenden des kürzest möglichen Paketes. Da die Minimalgröße eines Ethernetpaketes mit 64
Byte festgelegt ist, dauert die Aussendung von 64*8=512 Bit bei einer Übertragungsrate von
10 MBit/s 512*0,1=51,2 μs.“

Entweder fehlt da irgendetwas im Text, ich weiss es nicht.

Bedeutet Punkt 3 jetzt, dass die Signallaufzeit(hin und retour) nicht länger dauern darf, als die Zeit, in der man keine Daten also Daten „ohne ballast“ versendet?

Wie soll das gehn? Ich glaub ich das nicht ganz verstanden.

Hallo,

leider fehlt mir der Bezug zu dem Dokument welches erwähnt wurde.

Aber versuchen wir es trotzdem mal:

1.) Die Ausbreitungsgeschwindigkeit wurde im Endeffekt mit durch die Framegröße im Netzwerk (64K) bestimmt.
Da jedes Frame diese Größe hat, kann anhand der Netzwerkgeschwindigkeit die Ausbreitungsgeschwindigkeit berechnet werden. In diesem Bezug ist auch die Slot-Time wichtig, welche jedoch nicht zwangsläufig identisch ist.
Die beiden betroffenen Stationen wählen eine Zahl aus einem definierten Verfahren (der Link dazu folgt am Ende des Beitrags).

2.) Die Station sendet etwas da „Ihre errechnete Zeit“ ergab das die Möglichkeit besteht etwas zu senden, da in diesem Moment die Leitung frei ist, wird gesendet. (Auch dazu etwas mehr im nachfolgenden Link).

3.)In der heutigen aktuellen Verkabelung inkl. Netzwerkkarten im Vollduplexmodus, wird CSMA/CD deaktiviert, daher muss auch geschaut werden wie verkabelt wird. Um den Satz ganz genau zu analysieren bräuchte ich den Text im Kontext des Dokumentes.

Link mit Erklärung:
http://de.wikipedia.org/wiki/Carrier_Sense_Multiple_…

Ausdrucksstarke bilder gibt es indem bei Google CSMA/CD eingegeben wird.

Ich hätte welche verklinkt, weiß jedoch nicht wieweit ich das hier darf.

Bei weiteren Fragen stehe ich gerne zur Verfügung.

Hallo
um die Fragen zu beantworten, hier etwas grundlegendes:
Weiterführendes kann man mit Bildern und Diagrammen unter dem jeweiligen Link finden.

Medienzugangskontrolle
Medium Access Control (MAC)
Problem:
• Broadcast-Medium
• unabhängige Stationen
=> Sendekollisionen
Lösung: Medienzugangskontrolle
Zwei Medienbelegungsprinzipien:
• Kollisionsentdeckung
Lasse Kollisionen stattfinden, entdecke sie, wiederhole die Übertragung.
• Kollisionsvermeidung
Verwende ein zirkulierendes Token, um den Zugriff auf das Medium zu
steuern…

Sicherungsschicht
-Aufgaben der Sicherungsschicht (Data Link Layer):
*Pakete der Vermittlungsschicht in Rahmen (Frames) unterteilen
*Korrekte Übertragung der Rahmen auf einem physischen Netz von einem Netzwerkgerät zum anderen gewährleisten
*Fehlererkennung mit Prüfsummen
*Physische Adressen (MAC-Adressen) bereitstellen
*Zugriff auf das Übertragungsmedium regeln

Sicherungsschicht
-Medienzugriffsverfahren
*Medienzugriffsverfahren bei Ethernet
*Medienzugriffsverfahren bei WLAN
*Adressauflösung mit ARP

http://www.informatik.hs-mannheim.de/~baun/Netzwerke…

ALOHA
• Ein einfaches MAC-Protokoll mit Kollisionsentdeckung.
• Wurde beim „Packet Radio System“ der Universität von Hawaii 1970
erstmals verwendet.
• Im reinen ALOHA werden die Rahmen zu willkürlichen Zeiten
übertragen. Jede Station kann zu jeder Zeit senden. Falls der Sender eine Kollision entdeckt, wartet er eine durch Zufall bestimmte Zeitspanne und wiederholt dann die Übertragung.

Slotted ALOHA
Die Zeit wird in Intervalle eingeteilt, die so genannten Zeitschlitze (slots).
Die Intervallgröße entspricht einem Rahmen. Die Übertragung erfolgt nur zu Beginn eines Zeitschlitzes. Kollisionen sind immer noch möglich…

Quelle:
http://pi4.informatik.uni-mannheim.de/pi4.data/conte…

CSMA/CD und Kollisionen (Ethernet)

CSMA/CD (Carrier Sense Multiple Access with Collision Detection) ist ein Zugriffsverfahren von Ethernet, um auf das Übertragungsmedium zugreifen zu können.

Carrier Sense (Träger-Zustandserkennung): Jede Station kann feststellen, ob das Übertragungsmedium frei ist.
Multiple Access (Mehrfachzugriff): Mehrere Stationen können sich das Übertragungsmedium teilen.
Collision Detection (Kollisionserkennung): Wenn mehrere Stationen gleichzeitig senden, können sie die Kollision erkennen.

Als Mehrfachzugriffsnetz können mehrere Ethernet-Stationen unabhängig voneinander auf das Übertragungsmedium zugreifen (Multiple Access). Alle Stationen hören permanent das Übertragungsmedium ab (Carrier Sense) und können zwischen einem freien und besetzten Übertragungsmedium unterscheiden. Bei einem freien Übertragungsmedium kann gesendet werden. Während der Datenübertragung wird überprüft, ob eine andere Station gleichzeitig gesendet hat und eine Kollision der Daten aufgetreten ist (Collision Detection). Ist keine Kollision aufgetreten wurde die Übertragung erfolgreich abgeschlossen. Verloren gegangene Pakete müssen durch Protokolle, wie z. B. TCP, neu angefordert werden. Tritt dies häufiger auf, werden mehr Datenpakete gesendet und das drückt auf die effektive Übertragungsgeschwindigkeit des Netzwerks…

Quelle:
http://www.elektronik-kompendium.de/sites/net/140618…

Danke für deine Hilfe!

Ich bin einen Schritt weiter! Habe aber noch Fragen bitte.

  1. „Bei der Behandlung von Kollisionen muss auch die
    Ausbreitungsgeschwindigkeit auf dem Netz beachtet werden. So
    kann z.B. eine Station den Kanal für frei befinden, obwohl
    eine Station „am anderen Ende“ schon zu senden begonnen hat,
    das Signal aber ncoh „auf dem Weg ist“. Man definiert aus
    diesem Grund die sog. Slot-Time.“

Nunja, wie soll das denn bitte gehn? Ich dachte wenn Daten im
Übertragungskanal unterwegs sind und eine Station hört ab,
dann weiß diese das hier Daten darin sind? Was hat das nun mit
der Ausbreitungsgeschwindigkeit zu tun und mit der Slot-Time?

Die Slot-Time ist ja die maximale Zeit, während der eine
Kollision auftreten kann, nachdem der Übertragungskanal als
frei erkannt wurde.

Ich denke, hier hilft ein Beispiel:
Station 1 in Hamburg, Station 2 in New York.

Station 1 sendet Daten. Station 2 will auch senden, und
prueft, ob der Kanal frei ist. Die Daten sind zu dem Zeitpunkt
aber erst bis zum Relay in London gekommen, d.h., Station 2
sieht die noch nicht und denkt daher, der Kanal sei frei. Wenn
Station 2 jetzt sendet, kommt es irgendwo zwischen New York
und London zur Kollision. Um das zu vermeiden, muessen New
York und Hamburg Time Slots aushandeln, zu denen
sichergestellt ist, dass nur einer sendet (da eben eine
Pruefung direkt vor dem Senden an der Verzoegerung scheitert).
S. hierzu als Beispiel
http://de.wikipedia.org/wiki/IEEE_802.15.4#Slotted_M….

Achso, heißt das einfach, das Station 2 nur auf dem Kanal nach
London schauen kann, ob hier Daten sind? Also kann z.b eine
Station A nur zu Station B schauen, ob da jetzt was ist oder
nicht, aber nicht auf die Strecke B-C?

Ich hab mir nämlich immer 2 Stationen vorgestellt, die direkt
mit einem Kabel verbunden sind.

Weil wenns nur 2 Stationen geben würde, die direkt mit einem
Kabel verbunden sind, dann würden die 3 Punkte, die ich in
meinem Text zitiert habe, gar nicht vorkommen oder?

Was meinst du mit „Relay in London“? Das es einfach in London
angekommen ist?

Das Relay in London hatte ich nur zur Verbildlichung eingefuehrt. Das klappt auch einfach mit zwei Stationen mit einem Kabel dazwischen. Wenn Station 1 Daten losschickt, sind die ja nicht instantan bei Station 2, sondern brauchen eine Weile fuer den Weg (auch Daten im Kabel sind immernoch physikalischen Beschraenkungen unterworfen: in einer Glasfaser maximal Lichtgeschwindigkeit, in einem Kupferkabel sogar nur ca. 2/3 davon).
D.h., wenn Station 1 gesendet hat und die Daten noch auf dem Weg zu Station 2 sind, kann Station 2 nicht sehen, dass die Verbindung blockiert ist und koennte trotzdem versuchen zu senden => Kollision.

  1. „Sendet eine Station ein Ethernet-Paket aus, so brauchen
    die Signale eine gewisse Zeit bis sie eine andere Station
    erreichen(Laufzeit). Im schlechtesten Fall hört die
    entfernteste Station den Kanal unmittelbar vor Eintreffen des
    ersten Bits des gesendeten Paketes ab und beginnt somit zu
    senden. Es erfolgt unmittelbar darauf eine Kollision und die
    Station generiert sofort ein Jamming das wieder nach der
    Laufzeit beim Absender des Paketes eintrifft“

Ok, aber hier wieder: Warum sendet die Station etwas, bevor
das 1. Bit eintrifft? Die Statiot die horcht ja ob sich Daten
im Kanal befinden oder nicht? Im dem Fall sind Daten drinnen
–> Station darf nicht senden.

Was verstehe ich da denn Falsch? Kannst du mir ein Bilder
posten oder Zeichnen bitte bzw. erklären^^ wie das ganze
zusammenhängt?

Um beim Beispiel von oben zu bleiben: wenn die Station in New
York in den Kanal schaut, waehrend die Daten aus Hamburg erst
in London sind, muss sie annehmen, der Kanal sei frei (es sind
ja keine Daten da). Die Verzoegerungen, die auftreten, sind
auch durchaus relevant: wenn wir Daten mit
Lichtgeschwindigkeit von Hamburg nach New York schicken (gut
6000 km Luftlinie), dann sind die immerhin 0,02 Sekunden
unterwegs. Das ist in der Netzwerkkommunikation eine Ewigkeit
(vgl. Ping-Zeiten, die ja nichts anderes sind als Laufzeiten).

Heißt das, dass Punkt 2 eigentlich dasselbe wie Punkt 1 ist?

Punkt 2 ist die direkte Konsequenz aus Punkt 1 - insofern ja.

Es steht ja da, dass im schlechtesten Fall die entfernteste
Station den Kanal unmikttelbar vor Eintreffen des ersten Bits
des gesendeten Paketes ab und beginnt zu senden.

Wo trifft den das Bit ein? In London? Aber wie kann man das
herauslesen aus dem Text das es sich um 3 Station handelt,
oder mehrere? Und welche Station hört jetzt welchen Kanal hier
ab?

Für mich sagt der Text aus, dass es sich um 2 Stationen, die
mit einen Kabel direkt verbunden sind, handelt.

s. oben - das Bit haengt einfach noch irgendwo in der Leitung (ich wollte mit meinem Bild sagen, dass die Bits von Hamburg via London nach New York uebertragen werden, dabei kann man sich das durchaus als ein direktes Kabel von Hamburg nach New York vorstellen, das eben nur durch Londen verlaeuft).

  1. „Die Signallaufzeit(hin und retour) zwischen den
    entferntesten Stationen eines Ethernet-Netzes darf also nicht
    größer sein als die Zeit zum Aussenden des kürzest möglichen
    Paketes.“

„Zeit zum Aussenden des kürzest möglichen Pakets“
Darunter kann ich mir überhaupt nix vorstellen, was soll das
genau heißen? Und warum muss das bitte so sein, was Zitat/Satz
3 sagt? Kann man das vllt. auch auf einem Bild oder so sehen?

Da fehlt mir jetzt der Zusammenhang, um das genau einzuordnen.
Das „kuerzest moegliche Paket“ ist einfach die minimale
Sequenz an Daten, die immer vorhanden sein muss, um ein
gueltiges Netzwerkpaket zu bilden (also ohne Daten"ballast").
Und diese zu verschicken dauert ja auch eine gewisse Zeit. In
dem beschriebenen Gesamtkontext ist es offensichtlich (da
fehlt mir jetzt eben der Zusammenhang) wichtig, dass man nicht
Daten irgendwo „in der Leitung“ haben darf, die weder am einen
noch am anderen Ende sind.

Mh… Ich poste dir nochmal den ganzen Absatz:

„Um eine korrekte Kollisionsbehandlung zu gewährleisten muß
jede Station noch während der
Aussendung eines Paketes die Chance haben, eine Kollision zu
erkennen, um die Aussendung
als nicht erfolgreich zu bewerten. Die Signallaufzeit (hin und
retour) zwischen den
entferntesten Stationen eines Ethernet-Netzes darf also nicht
größer sein als die Zeit zum
Aussenden des kürzest möglichen Paketes. Da die Minimalgröße
eines Ethernetpaketes mit 64
Byte festgelegt ist, dauert die Aussendung von 64*8=512 Bit
bei einer Übertragungsrate von
10 MBit/s 512*0,1=51,2 μs.“

Entweder fehlt da irgendetwas im Text, ich weiss es nicht.

Bedeutet Punkt 3 jetzt, dass die Signallaufzeit(hin und
retour) nicht länger dauern darf, als die Zeit, in der man
keine Daten also Daten „ohne ballast“ versendet?

Wie soll das gehn? Ich glaub ich das nicht ganz verstanden.

Die Stationen sollen, noch waehrend sie ein Paket senden, merken, dass es zu Kollisionen kam, um darauf reagieren zu koennen. Im „allerduemmsten Fall“ koennte es ja so laufen:
Station 1 beginnt zu senden.
Station 2 beginnt zu senden ganz kurz, bevor die ersten Daten von Station 1 bei ihr eintreffen (d.h. nach fast genau der Zeit, die die Daten fuer eine Richtung brauchen).
Station 1 mekrt aber erst, dass Station 2 auch sendet, wenn deren ersten Daten bei Station 1 ankommen - was auch wieder eine volle Laufzeit dauert.
D.h., Station weiss erst nach 2 Laufzeiten, dass es zu einer Kollision kam. Wenn das jetzt Einfluss auf das aktuelle Paket haben soll, darf es zu dem Zeitpunkt natuerlich noch nicht abgeschlossen sein, d.h., seine Sendedauer muss groesser als 2 Laufzeiten sein.

Die Stationen sollen, noch waehrend sie ein Paket senden,
merken, dass es zu Kollisionen kam, um darauf reagieren zu
koennen. Im „allerduemmsten Fall“ koennte es ja so laufen:
Station 1 beginnt zu senden.
Station 2 beginnt zu senden ganz kurz, bevor die ersten Daten
von Station 1 bei ihr eintreffen (d.h. nach fast genau der
Zeit, die die Daten fuer eine Richtung brauchen).
Station 1 mekrt aber erst, dass Station 2 auch sendet, wenn
deren ersten Daten bei Station 1 ankommen - was auch wieder
eine volle Laufzeit dauert.
D.h., Station weiss erst nach 2 Laufzeiten, dass es zu einer
Kollision kam. Wenn das jetzt Einfluss auf das aktuelle Paket
haben soll, darf es zu dem Zeitpunkt natuerlich noch nicht
abgeschlossen sein, d.h., seine Sendedauer muss groesser als 2
Laufzeiten sein.

Ahhh, danke! Jetzt wird mir einiges klarer.

D.h. eine Station kann nur Daten hören, wenn diese Daten bei der Station eintreten richtig?

Ich dachte nämlich das so eine Station in den Kanal hineinhorcht, was ja blödsinn wäre, denn die haben ja keine Ohren bzw. Daten machen (fast?) keinen Lärm^^.

Wenn Station 1 sendet und Station 2 hört den Kanal unmittelbar vor den eintreffen des 1. Bits von Station 1 ab, merkt aber das der Kanal frei ist und beginnt zu senden --> Es kommt zur Kollision, aber wie merken die Stationen das eine Kollision da ist?

Also währenddessen Station 1 sendet kommen Daten von Station 2 in Station 1 rein und so merkt Station 1, dass Station 2 gesendet hat und Station 1 sendet JAM-Signal an Station 2 und dann wird erst abgebrochen.

Stimmt das?

Wie hängt das jetzt mit der Slot-Time zusammen, Frage dazu unten.

Die Datei wird dann einfach gelöscht?

Zu 3. nochmal bitte:

Mit kürzest möglichen Paket versenden meint man ja die 64 Byte zum Ziel senden. Dies dauert 51,2us --> Slot Time.

Slot Time: Ist jene max. Zeit wo nachdem Abhören noch Kollisionen auftreten können.

In meinen Text steht, das die Zeit, wo man Daten sendet, zwischen Station 1 und 2 (hin und retour) kürzer sein muss als 51,2us.

Aber das ergibt doch keinen Sinn? Warum soll es kürzer wie 51,2us sein, denn da können ja Kollisionen auftreten.
Was wäre denn wenn die Laufzeit(hin und retour) länger wäre?

Eine kleine Frage zum OSI-7-Schichten-Modell noch bitte:

Hier gibts ja 7 Schichten. Beim Sender gehn die Daten von z.B. Schicht 7 bis zu Schicht 1(kabel, funk etc.). Bei jeder Schicht wird immer vor den Daten, die man versenden will ein Header drangestellt. Schicht 7 enthält nun: Header von 7 und Daten. Schicht 6 enthählt: Header von 7,6 + Daten usw. bis Schicht 1: Header von 7,6,5,4,3,2 und 1 + Daten.

Beim Empfänger gehts von Schicht 1 bis Schicht 7. Die Header werden zum auspacken der Daten gebraucht. Nach Verbrauch des Headers der jeweiligen Schicht wird dieser gelöscht, oder?

Nachdem Schicht 7 endgültig ausgepackt hat, stehen die Daten zur Verfügung.

Stimmt dieser Ablauf?

Letzte Frage: Welche Informationen befinden sich in so einem Header eigentlich? Jene Infos, dass Schicht 3 von Sender mit Schicht 3 von empfänger „logisch kommunizieren“ können? Und was steht noch drinnen?

Trailer gibt es nur bei Schicht 2, da steht drinnen, ob richtig übertragen wurde?

mfg

Die Stationen sollen, noch waehrend sie ein Paket senden,
merken, dass es zu Kollisionen kam, um darauf reagieren zu
koennen. Im „allerduemmsten Fall“ koennte es ja so laufen:
Station 1 beginnt zu senden.
Station 2 beginnt zu senden ganz kurz, bevor die ersten Daten
von Station 1 bei ihr eintreffen (d.h. nach fast genau der
Zeit, die die Daten fuer eine Richtung brauchen).
Station 1 mekrt aber erst, dass Station 2 auch sendet, wenn
deren ersten Daten bei Station 1 ankommen - was auch wieder
eine volle Laufzeit dauert.
D.h., Station weiss erst nach 2 Laufzeiten, dass es zu einer
Kollision kam. Wenn das jetzt Einfluss auf das aktuelle Paket
haben soll, darf es zu dem Zeitpunkt natuerlich noch nicht
abgeschlossen sein, d.h., seine Sendedauer muss groesser als 2
Laufzeiten sein.

Ahhh, danke! Jetzt wird mir einiges klarer.

D.h. eine Station kann nur Daten hören, wenn diese Daten bei
der Station eintreten richtig?

Genau.

Ich dachte nämlich das so eine Station in den Kanal
hineinhorcht, was ja blödsinn wäre, denn die haben ja keine
Ohren bzw. Daten machen (fast?) keinen Lärm^^.

Wenn Station 1 sendet und Station 2 hört den Kanal unmittelbar
vor den eintreffen des 1. Bits von Station 1 ab, merkt aber
das der Kanal frei ist und beginnt zu senden --> Es kommt zur
Kollision, aber wie merken die Stationen das eine Kollision da
ist?

Also währenddessen Station 1 sendet kommen Daten von Station 2
in Station 1 rein und so merkt Station 1, dass Station 2
gesendet hat und Station 1 sendet JAM-Signal an Station 2 und
dann wird erst abgebrochen.

Stimmt das?

Ja, genau da dran merken sie (spaetestens), dass es zu einer Kollision kam.

Wie hängt das jetzt mit der Slot-Time zusammen, Frage dazu
unten.

Die Datei wird dann einfach gelöscht?

Daten, die waehrend einer (moeglichen) Kollision uebertragen werden, muessen immer als „nicht angekommen“ bzw. „fehlerhaft“ betrachtet werden - d.h., der Empfaenger verwirft sie, der Sender sendet neu.

Zu 3. nochmal bitte:

Mit kürzest möglichen Paket versenden meint man ja die 64 Byte
zum Ziel senden. Dies dauert 51,2us --> Slot Time.

Slot Time: Ist jene max. Zeit wo nachdem Abhören noch
Kollisionen auftreten können.

Als „slot“ bezeichnet man einen Zeitraum, in dem zwischen den teilnehmenden Stationen (vorher) ausgehandelt wurde, welche Station da sendet. Auf die Art kann es in einem Slot keine Kollisionen geben, ausser, wenn jemand „von aussen“ dazwischensendet (sprich: bei einem Kabel ist das voellig sicher, bei einem Funknetz natuerlich nicht, da da Aussenstehende stoeren koennten, die sich nicht an den Slot halten).

In meinen Text steht, das die Zeit, wo man Daten sendet,
zwischen Station 1 und 2 (hin und retour) kürzer sein muss als
51,2us.

Aber das ergibt doch keinen Sinn? Warum soll es kürzer wie
51,2us sein, denn da können ja Kollisionen auftreten.
Was wäre denn wenn die Laufzeit(hin und retour) länger wäre?

Lies das nochmal genau: nicht die Zeit, in der man sendet, muss kuerzer sein, sondern die Laufzeit. D.h., die kuerzest moegliche Sendezeit muss _laenger_ sein als 2x die Laufzeit (damit man sicher die Kollision erkennt).

Eine kleine Frage zum OSI-7-Schichten-Modell noch bitte:

Hier gibts ja 7 Schichten. Beim Sender gehn die Daten von z.B.
Schicht 7 bis zu Schicht 1(kabel, funk etc.). Bei jeder
Schicht wird immer vor den Daten, die man versenden will ein
Header drangestellt. Schicht 7 enthält nun: Header von 7 und
Daten. Schicht 6 enthählt: Header von 7,6 + Daten usw. bis
Schicht 1: Header von 7,6,5,4,3,2 und 1 + Daten.

Beim Empfänger gehts von Schicht 1 bis Schicht 7. Die Header
werden zum auspacken der Daten gebraucht. Nach Verbrauch des
Headers der jeweiligen Schicht wird dieser gelöscht, oder?

Nachdem Schicht 7 endgültig ausgepackt hat, stehen die Daten
zur Verfügung.

Stimmt dieser Ablauf?

Letzte Frage: Welche Informationen befinden sich in so einem
Header eigentlich? Jene Infos, dass Schicht 3 von Sender mit
Schicht 3 von empfänger „logisch kommunizieren“ können? Und
was steht noch drinnen?

Trailer gibt es nur bei Schicht 2, da steht drinnen, ob
richtig übertragen wurde?

Nicht jede Schicht muss einen Header hinzufuegen. Schicht 1 z.B. (der physical layer) enthaelt hoechstens Start- und Stopbits - wenn ueberhaupt. Auch die anwendungsorientierten Layer (5 aufwaerts) fuegen zumeinst keine Header hinzu, sondern verpacken ihre Information in den Nutzdaten. Die Schichten, die typischerweise ihre Infos in Header packen, die genau, wie oben beschrieben, der Reihe nach hinzugefuegt und wieder entfernt werden, sind die Layer 2-4.
Hierfuer verweise ich mal auf
http://de.wikipedia.org/wiki/OSI-Modell
wo das alles gut beschrieben ist sowie, etwas weniger „trocken“, aber nichtsdestotrotz richtig, erklaert:
http://www.youtube.com/watch?v=x9XWxD6cJuY

Viele Gruesse,
Volker

Als „slot“ bezeichnet man einen Zeitraum, in dem zwischen den
teilnehmenden Stationen (vorher) ausgehandelt wurde, welche
Station da sendet. Auf die Art kann es in einem Slot keine
Kollisionen geben, ausser, wenn jemand „von aussen“
dazwischensendet (sprich: bei einem Kabel ist das voellig
sicher, bei einem Funknetz natuerlich nicht, da da
Aussenstehende stoeren koennten, die sich nicht an den Slot
halten).

Danke nochmal!

Aber in meiner Doku steht ja: „Unter der Slot-Time versteht ma ndie maximale Zeit, während der eine Kollision auftreten kann, nachdem der Kanal als frei erkannt wurde“.

Das heißt für mich: Kanal wird abgehört und jetzt beginnt die Slot Time(51,2us). Und während der 51,2us kann eine Kollision auftreten.
Tritt jetzt danach auch eine Kollision auf oder nicht.

Ich bin jetzt ein bisschen verwirrt. Was stimmt da jetzt? Oder ist das falsch/anders formuliert in meinem Text?

Oder ist das so: Der Kanal wird abgehört --> er ist frei und die Station 1 beginnt sofort mit dem Senden. Und ab den Senden läuft die Slot Time.
Station 2 beginnt wieder unmittelbar vor dem eintreffen des 1. Bits zu senden --> Es kommt zur Kollision --> Es wird ein JAM-Signal zur Station 1 gesendet und dieses bricht nun den Sendevorgang hab.
Also dauert es, in dem Fall eine Laufzeit(hin und retour) bis Station 1 eine Kollision bemerkt. Und diese Laufzeit muss nun kleiner wie 51,2us sein.
Habe ich das so richtig verstanden?

Aber mh wie weiß man denn wie lange das Kabel denn ist wenn 64Byte 51,2us dauern?

Station 1 und Station 2 sind ja am weitesten Entfernt. Das ist doch unmöglich, dass die Laufzeit von 1 nach 2 kürzer wie 51,2us dauert?

Wenn ich jetzt 100m in 20sec. sprinte, dann sprinte ich 2x200m(hin und retour) auch nicht in weniger wie 20sec.^^.

Ich hab mir auch auf Wiki noch die Kollisionserkennung durchgelesen, ich verstehe da alles, außer den letzten Satz, der halt besagt das die Laufzeit kleiner wie 52,1us sein muss.

Irgendwas bringe ich da voll durcheinander denke ich.

Du hast ja ein Bsp geschrieben:

Station 1 beginnt zu senden.
Station 2 beginnt zu senden ganz kurz, bevor die ersten :smiley:aten von Station 1 bei ihr eintreffen (d.h. nach fast :genau der Zeit, die die Daten fuer eine Richtung brauchen).
Station 1 mekrt aber erst, dass Station 2 auch sendet, :wenn deren ersten Daten bei Station 1 ankommen - was auch :wieder eine volle Laufzeit dauert.
D.h., Station weiss erst nach 2 Laufzeiten, dass es zu :einer Kollision kam. Wenn das jetzt Einfluss auf das :aktuelle Paket haben soll, darf es zu dem Zeitpunkt :natuerlich noch nicht abgeschlossen sein, d.h., seine :Sendedauer muss groesser als 2 Laufzeiten sein.

Genau! Die Sendedauer muss größer als 2 Laufzeiten sein, dass Station 1 noch bevor sie fertig gesendet hat noch merkt das eine Kollision auftritt.

Aber wie realisiert man das bitte? Ich kann noch immer nicht die Slot Time = 51,2us in dieses Bsp einbringen.

Frage zum OSI:

Da gibts ja Bridge, Switch, Repeater und Hub.

Bridge teilt Netzwerke in 2 Hälften auf, so kommt es nicht os oft zu Kollisionen etc.
Die Bridge arbeitet ja auf Schicht 2 des OSI-Modells.
Schicht 2 macht Fehlererkennung und -korrektur.

Hub verbindet PCs miteinander, aber er weiß keine Zieladresse, sondern sende die Information an alle PCs.
Arbeitet auf Schicht 1(Physikalische Bitübetragung)

Ein Switch ist das gleiche wie ein Hub, nur das man hier die Zieladresse weiß und somit werdne die Informationen nur an den einen PC gesendet.
Arbeitet auf Schicht 2(Fehlererkennung etc.)

Ein Repeater regeneriert das Signal und erzeugt es neu für längere Ausdehnung.
Arbeitet auf Schicht 1(Kabel, Funk etc. da wo die Bits gehn)

Was heißt das jetzt ein Switch arbeitet auf Switch/Bridge arbeiten auf Schicht 2?
Oder warum arbeitet ein Hub auf Schicht 1, obwohl ähnlich mit Switch?

Repeater ist klar, da der ja nur Signal verstärkt und so.

Ich weiß viel Text und nur 2-3 Fragen, aber das meiste hab ich ja irgendwie erklärt^^.

Ich hoffe du liest in dir durch bitte :smile:.

Sorry^^.

mfg

MrAnonym