Die Aufgabe ist: Berechnen Sie die benötigte Übertragungsgeschwindigkeit in GiBit/s des Mediums, um die Zeitvorgabe von 30 Minuten einhalten zu können. Der Protokoll Overhead beträgt 20% der Nutzdaten. Es werden 100 GiB Daten zur Datensicherung an den Server übertragen.
Könnte mir jemand erklären, was hier gemacht werden muss ?
Man muss wissen, wie viel GiBit stecken in einem GiB. Man muss wissen, was 20% Overhead bedeutet. Und man muss wissen, wie viele Sekunden in 30 min stecken.
Dann kann man mit Multiplikation und Division die Lösung errechnen.
Overhead bedeutet doch, dass ich auf die 100 GiB 20% draufrechne. Ergibt 120 GiB. 30m x 60s = 1800s. Dann muss ja im Grunde nur noch diese Umrechnung gemacht werden, und ab da habe ich kein Durchblick mehr