ich hätte gerne gewusst, wie man kbit,s und mbit,s umrechnet.
ich bin zur zeit bei unitymedia und habe einen 32 Mbit zugang. Nun möchte ich gerne verschiedene Anbieter mit einander vergleichen. Das erweist sich aber als schwierig, denn die meisten anbieter geben ihre geschwindigkeiten mit kbit,s an. Wie bekomme ich also herraus, was meiner jetztigen leistung ähnelt oder sogar besser ist. vielen dank für eure antworten.
Hallo,
erstmal bekommst Du sprichwörtlich eine klitzekleine Klatsche. Sei damit herzlich willkommen im Forum! -> Diese Adresse ist hilfreich: http://www.gidf.de/
WARUM? -> Suche nach Hilfe wird unterstützt; Faulheit nicht.
Hier ein Link: http://www.google.de/search?q=kbit+mbyte
Ob Deine Anbindung den versprochenen Leistungen entspricht, kannst Du herausfinden. - Hier nur ein Beispiel: http://www.wieistmeineip.de/speedtest/
Ob Du tatsächlich eine schnellere (teurere) Anbindung benötigst, musst Du letztendlich selbst entscheiden.
Beste Grüße zum Abend und bei weiteren Fragen bist Du hier immer gerne von allen gesehen.
Ro
Lange Rede kurzer Sinn:
1MBit/s = 1000kBit/s
Der Umrechnungsfaktor ist somit 1000.
Kurze Antwort, dafür aber falsch, der Umrechungsfaktor ist 1024.
Kurze Antwort, dafür aber falsch, der Umrechungsfaktor ist
1024.
Nöööp.
Zur Unterscheidung dezimaler/binärer Vielfacher des „bit“ hat man sich darauf geeinigt, dass man bei „k“ „M“ „G“ und „T“ als Präfix
stets dezimal meint.
Will man sich binär ausdrücken, dan spräche man von Kibibit, Mebibit, Gibibit und Tebibit, deren Kurzform kibit, Mibit, Gibit,… wären.
Die Kürzel kbit, Mbit,… sind als dezimal, somit ist der Faktor 1000 richtig.
ein lustiger standart, der sie nie durchgesetzt hat, faktisch ist der tot.
alle mir bekannten internetanbieter rechnen mit 1024, beispiel kabel deutschland, da ist die 32mbit leitung 32.768kbit schnell.
alle mir bekannten internetanbieter rechnen mit 1024
Ein lustiger Standard, der sich da durchgesetzt hat. Ist aber leider völlig falsch. Ein K sind immer 1000, ein M immer 1.000.000 u.s.w.
Die 1024bit als ein K zu bezeichnen, stammt noch aus Zeiten, als Rechner nur sehr wenig Speicher hatten und man wirklich mit jedem einzelnen bit und byte rechnen musste. Zur Vereinfachung nannte man hier z.B.1024 Byte (2hoch10)ein Kbyte, aber auch nur zur Vereinfachung, nicht weil das vielleicht inhaltlich korrekt wäre.
Dieser Unsinn schleppt sich seitdem überall mit, so falsch er auch ist. Und wir viel und gern nachgeplappert.
mfg