Server an Glasfaser Internet Anschluss

Hat jemand Erfahrung mit einem Internet Web-Seiten Server an einem Glasfaseranschluss?

Ich habe ständig Ärger mit den Anbietern von Hosting Solutions im Internet. Die sind (fast) alle grenzwertig dumm, eingebildet und unverschämt.

Ich überlege deshalb, ob es keine bessere Lösung ist, wenn wir einfach einen Server an den Glasfaser-Internet-Anschluss hängen den wir hier haben werden und dann die Webseiten selbst hosten.

Wir brauchen sowieso in Zukunft einen Mirroir-Server irgendwo anders, auf dem die Domains und Clouds gespiegelt werden damit sie redunant sind.

Dafür habe ich einen Anbieter in Neu-Seeland der vernünftig ist und ich habe versucht hier bei Onyxhosting in DE einen 2. Server aufzubauen, aber die sind derartig unbeholfen, dass ich da nicht mehr weitermache. Da wäre ein Server an einem Glasfaseranschluss hier vielleicht eine alternative.

Danke,
brainstuff

Ich darf mal ganz blöd fragen: Was ist denn schlechter an einen gemieteten Server in einem professionellen, gesicherten, mehrfach redundant angebundenen Rechenzentrum als bei einem, der physikalisch vor Ort steht?

Mir fällt da nur ein, dass man „vor Ort“ einen Resetknopf von Hand drücken kann.

5 Like

Wer sind „wir“ denn?

Man braucht schon nen Business-Tarif, um ne fixe, „echte“ IPv4 und IPv6 zu bekommen, zumal meist auch nur dann der Betrieb eines Servers an dem Anschluss erlaubt ist.

Statt nen Webserver kann man auch nen Root-Server mieten, und hat damit sozusagen nen Rechner in einem Rechenzentrum.

2 Like

@x-storm;

Ich bin durchaus Deiner Ansicht, dass normalerweise ein Server in einem professionellen, gesicherten, mehrfach redundant angebundenen Rechenzentrum besser ist, wie eine lokale Lösung … das müsste sogar eigentlich viel billiger sein, weil das Rechenzentrum, den Server, viel billiger kaufen und administrieren kann.

Aber, dann ist man von dem good-will von den Leuten im Rechenzentrum abhängig und wenn die dann so spinnen, wie die Leute mit denen ich es zu tun habe … dann ist das doch nicht wirklich so gut.

Das mit der Redunanz und der Administration von einem lokalen Server kenne ich schon sehr gut, weil wir schon seit ca. 15 Jahren, sehr erfolgreich, dafür gesorgt haben, dass wir keine Datenverluste mehr haben, indem wir hier, lokal, NAS Geräte einsetzen, auf denen ALLE Daten, sobald das möglich ist, gespeichert und gesichert werden. Das läuft ganz toll, erfordert aber einen großen Aufwand, weil man die Festplatten regelmäßig austauschen muss.

Deshalb will ich nun die Methode, die wir bis jetzt zur Datensicherung und zum Austausch von Daten genutzt haben, nicht kaputtmachen, sondern auf ein weiteres Niveau ausweiten.

Bisher haben wir viele Sachen auf Computern erledigt, die (wenn das möglich war) an ein NAS angeschlossen werden und die konnten dann vieles autonom (ohne Anschluss an das NAS) erledigen. Neue oder geänderte Daten wurden dann, wenn diese Computer mit dem NAS verbunden waren, auf dem NAS gesichert, blieben aber solange es nötig war immer auf den Computern, die sie gebraucht haben.

Größe Datenmengen, konnten so zum Beispiel Nachts mit dem NAS abgeglichen werden und man muss das nicht machen, wenn man vor dem Kasten sitzt.

Statt dem NAS könnte man das jetzt mit einem Cloud machen: Aber das grosse Problem vom Cloud ist, dass die Übertragungszeiten derartig hoch sind, dass man noch extrem viel Zeit versaut, wenn man Daten auf so einen Cloud Server schaufelt.

Wir wollen außerdem, dass es in Zukunft einen gespiegelten Server hat, der auf einem anderen Kontinent steht und mit einem Server in Europa (oder in unserem Büro) synchronisiert wird. Das ist dann das Rechenzentrum im Cloud …

Da das Rechenzentrum dann eine Kopie von unserem lokalen Server betreibt, können wir alles so einstellen, wie wir das brauchen. Wir müssen uns dann nicht mit irgendwelchen begeisterten Deppen herumschlagen, weil wir zum Beispiel keine absurd komplizierten Passwörter für völlig sinnfreie Sicherheitsmaßnahmen wollen, oder mehr als 10 E-mails pro Stunde und Account verschicken müssen, weil wir ein paar hundert Rechnungen verschicken müssen, die wir nicht, wie im Mittelalter, einzeln schreiben.

Wenn der Glasfaser Anschluss genauso schnell ist, wie der Anschluss von einem Rechenzentrum, dann ist der lokale Server nur eine „Außenstelle“ vom Rechenzentrum. Wenn die Glasfaser zu langsam ist, dann kann man damit dafür sorgen, dass es nicht groß stört, wenn die Daten nur relativ langsam auf den Server im Rechenzentrum übertragen werden.

Das ist aber alles eine Frage der Geschwindigkeit. Wir bekommen erst in ca. 2 Monaten einen Glasfaseranschluss und ich finde nirgendwo heraus, wie schnell der wirklich sein wird. Jetzt ist es zum Beispiel völliger Unfug, dass wir uns einen 8TB Cloud mieten … bis der dann auch nur zur Hälfte gefüllt ist, werden Jahrzehnte vergehen …

Danke
brainstuff

Ich dachte, es geht um nen Webserver, und nicht um ein (dickes) NAS?

@sweber

Es geht auch zuerst einmal um einen Web Server … aber auf Dauer werden Domains dann bestimmt zu Teilen der Daten die eine Firma verwaltet.

Es ist ein grausames Problem von der jetzigen Informatik, dass Sachen die zusammengehören als Inseln verwaltet werden. Der Shop von einer Webseite zum Beispiel muss mit den Lagerdaten und den Adressen von den Kunden verknüpft werden. Es ist ein grandioser Blödsinn, dass der Shop dann auf einem Web Server läuft und dass die dazugehörigen Daten irgendwo anderst rumliegen.
Die Trennung von Cloud und Web Seiten Daten ist doch eigentlich auch völliger Unfug. Das ist wie bei den Smartphone Streichern: da muss man ständig Daten eingeben, die man schon x Mal reingetippt hat.

Dasi ist alles eine grandiose Zeitvergeudung…

brainstuff

Ohne Dir zu nahe treten zu wollen. Aber hat sich irgendwann mal ein erfahrener IT-Architekt all diese Sachen angesehen, über die Du hier schreibst? Aus deinen Darstellungen geht viel fehlendes Verständnis für ganz grundsätzliche Dinge hervor/gewinnt man den Eindruck von „Selbstgestricktem“ und „Gewachsenem“ abseits erprobter Best Practices, … Was Du brauchst scheint nichts zu sein, was man nicht mit recht banalen Standard-Vorgehensweisen sauber lösen könnte, wenn man denn bereit wäre, den ein oder anderen alten Zopf abzuschneiden, und sich auf Best Practices einzulassen. Oft versperrt einem ein: „alle-doof-außer-ich-Ansatz“ aber den Blick dafür, was x-fach erprobt und erfolgreich im Einsatz ist, weil man sich an Dingen festbeißt, die Details in einem an sich schon eher ungünstigen Szenario sind, die man so bei einer vernünftigen Architektur gar nicht benötigen würde.

7 Like

Geschwindigkeit sind zwei Dinge: Latenz und Durchsatz (Throughput).

Man mag mit einem FttH-Anschluß den Durchsatz bekommen, aber bei der Latenz sieht es mangels Peering grausig aus. Dazu kommt meistens die zweitklassige Hardware und Verkabelung, mit der man üblicherweise den Heimanschluß ausstattet bzw. auf die man gar keinen Einfluß hat (Stichwort DLSAM und Hausverteilung).

Kurzum: Ich bevorzuge das Rechenzentrum.

2 Like

Ich picke mir diesen Satz mal spezifisch für das ganze Geschriebene raus, das schreit „Ich habe nicht wirklich Ahnung von der Materie!“ - bzw. „Ich kann die Dinge nicht korrekt/konkret benennen!“

Im Augenblick muss ich sogar davon ausgehen, dass genau das Dein Problem mit Deinem Hoster sein wird.

Die zentrale Frage „Für was soll der Server genutzt werden?“ - Webserver (was dann genau?) - Dateiablage (NAS)? - Datenbank-Anwendungen?
Alles hat spezifische Anforderungen.

3 Like

Genau DAS Gefühl habe ich nach diesem und auch einem anderen Thread von ihm. Aber halt „Spezialist für alles was Windows 7/ XP […] betrifft“, super!

1 Like

@Wiz Wir leben nicht mehr im Mittelalter, Erfahrene IT-Architekten sind heute leider meistens nur noch Deppen, die Sachen empfehlen, die mal vor 30 Jahren schon völliger Mist waren.

Hier wird die „Glasfaser“ von völlig unterbelichteten Gemeindeangestellten „verlegt“ die noch nicht einmal wissen, dass sie zur Zeit gar keine Glasfaser verlegen, sondern nur Plastik-Rohre, in die später die Glasfaser eingeblasen wird.

Die wissen offenbar noch nicht einmal, wie dann der Anschluss in den Gebäuden weitergeht. Es ist geradezu revolutionnär, dass die (so wie es scheint) jetzt endlich keine mit Blei ummantelten Glasfaserkabel mehr verlegen wollen, wie das noch vor ein paar Jahren üblich war.

Die versuchen auch den Leuten irgend so eine Start-up Unternehmung die von ein paar Computerbegeisterten Leutchen gegründet wurde aufzudrehen, damit die Leute dann völlig obsolete Installationen in ihren Gebäuden zulassen.

Auch die Computer Hersteller haben es bisher ja noch nicht geschafft, auch nur die grösseren Computer mit einem Anschluss für Glasfaser zu versehen.

Es hat jetzt gar keinen Wert mehr RJ45 Netzwerkkabel zu verlegen. Da braucht es einen Router pro Gebäude mit einem Mesch-Netzwerk W-LAN der letzten Generation.

Mein Problem ist aber nicht das Hausnetzwerk (was wir selbst so gestalten werden, dass das neueste Technologie verwenden wird, sondern es ist die Tatsache, dass der Provider die Kunden offenbar belügt und ihnen bis zum Gebäude wahrscheinlich veraltete Technik installiert.

„Best practics“ aus der Kupfer Netzwerk Technologie sind jetzt schon lange nur noch Museeumsreif.

Da es ja immer noch keine Datenspeicher gibt (und geben kann) die 100% sicher sind, ist es jetzt durchaus sinnvoll, dass wir versuchen dieses Problem damit zu verbessern, dass wir in Zukunft mit Daten arbeiten wollen, die mindestens an 2 Orten gespeichert sind. Und das ist im Grunde genommen eine Art von NAS mit gespiegelten Festplatten. Da sind dann die Daten nicht mehr nur an einem Ort auf 2 gespiegelten Festplatten, sondern diese werden dann auch noch an einem anderen Ort „gespiegelt“.

Aber das ist nur dann sinnvoll, wenn ich endlich herausbringe, wie sich Latenz und Durchsatz (Throughput). in der Praxis auswirken.

Dabei ist es sogar, wahrscheinlich noch zu beachten, dass Webseiten normalerweise nur eine kleine Menge von Daten verschicken und deshalb auch keine Probleme machen, wenn das ein paar Millisekunden länger geht. Bei Cloud Anwendungen, wo es um große Datenmengen geht, ist das mit der Latenz und dem Durchsatz (Throughput) ein viel grösseres Problem, weil viel grössere Datenmengen transportiert werden müssen.

Unsere Datensicherung auf den NAS Geräten war solange die best practice wie die Daten nur von einem lokalen Netzwerk abgerufen wurden. Jetzt wird das lokale NAS auf einemInternet Cloud erver gespiegelt und spiegelt sich dann auch noch partiel oder ganz mit NAS Geräten an anderen Standorten.

Wenn diese NAS Geräte dann den Datentransport noch steuern, kann man dafür sorgen, dass die verfügbare Bandbreite zuerst einmal von den prioritären Daten genützt wird und dass weniger Wichtige Daten, erst dann auf den Cloud-Server geschickt werden, wenn das nicht stört.

Danke,
Brainstuff

sorry, das verstehe ich leider gar nicht… Was hat der „vernünftige“ Anbieter aus Neu-Seeland (?) mit Onyxhosting zu tun?

Das die unbeholfen sind und es viele Deppen usw… nun ja … vielleicht solltest Du da weniger emotional und abwertend mit diesen Leuten umgehen…

auch wenn ich da jetzt nicht wirklich helfen konnte … ich mag es einfach nicht, pauschal Menschen zu beschimpfen bzw. wenn diese beschimpft werden… :wink:

Gruß
Fronk

1 Like

Warum sollte man das auch?
Wer es braucht, kauft sich eine passende Karte.
Kupferkabel hat nunmal seine Vorteile.

Das ist grober Unfug.

WLAN? Ein Router pro Gebäude? Was soll das nun wieder heißen? Ich installiere Netzwerke für große Büros und auch für Serverräume. WLAN wird da als Gimmick für die Angestellten zur Verfügung gestellt - und natürlich für mobile Anwendungen.
Fibre to the desk spielt bislang gar keine Rolle. Zu unflexibel, zu teuer, kein praktischer Nutzen.

1 Like

Man könnte sich auch beschweren, daß der DHL-Liefermensch keine Ahnung von der Ware im Paket hat. Es ist durchaus sinvoll, daß man eher einfache Bauarbeiter mit dem Legen der Leerrohre beauftragt. Das Legen der Faser selbst ist schon etwas spezieller, und das Anschließen vielleicht auch nochmal. Wenn man den Glasfaserexperten jetzt das Leerrohr verlegen lässt, wird’s teuer.

Warum sollten sie? 1GB über Kupfer ist meistens völlig ausreichend, ein Ethernet-Port kostet praktisch nix, die Kabel sind beinahe kostenlos und verzeihen auch mal nen Knick, und auch Switches sind relativ günstig. All das sieht bei Glasfaser anders aus. Selbst ein richtiges Rechenzentrum schließt meist mehrere Server per Kupfer an einen Switch an, von dem es dann mal per Glasfaser weiter geht.
Aber es spricht auch nichts dagegen, sich ne Glasfaser-Netzwerkkarte in seinen Computer einzubauen.

Verstehe ich das richtig, du willst kein Kupfer, und weil sich das nicht ganz so leicht gegen Glasfaser ersetzen lässt, willst du lieber WLAN???

Wie meinen?

Datensicherheit besteht aus zwei Aspekten: Sicherheit vor defekten Medien (Durch Spiegeln der Daten erreichbar), und Backups zum Schutz vor Veränderung der Daten.

Das ist natürlich wichtig, hängt aber auch von den jeweiligen Gegebenheiten ab, und davon, ob man nen privaten oder nen Business-Tarif hat. Letzterer ist ja alleine schon Pflicht, wenn man nen Webserver betreiben will.

Naja, es ist noch zu spezifizeren, was große Datenmengen sind. Wenn ein 10GB Video mit 1s Latenz übertragen wird, ist das kein Problem. Bei 10000 Dateien mit 1MB sieht das anders aus.

Von was für einem Datenumfang reden wir hier eigentlicht? Klingt ja nach vielen Gigabytes pro Tag.

Und wie passen die Cloud-Anwendungen damit zusammen, daß anscheinend weitgehend lokal gearbeitet wird?

Ist das NAS also jetzt letztlich eher nur ein Cache?

Sowas kann selbst meine Fritzbox.

2 Like

Vielleicht bist Du nur auf welche gestossen, die von Deppen ausgewählt wurden. Ansonsten kann ich Deine etwas überhebliche Aussage nicht aus eigener Erfahrung bestätigen. Vielleicht solltest Du aber auch nicht den Kursteilnehmer in Windows-XP-for Dummies-Kurs Deiner VHS ansprechen.

Du bist ein Held, aber dann willst Du diesen derartig unter Deinem Niveau liegenden Daten Dein privates Hochverfügbarkeits-Rechenzentrum anvertrauen?

Stark!

?

Vielleicht solltest Du aufhören, Deine Windows-XP-CDs zu rauchen PCs mit Faser sind nun echt nicht rocket science. Was möchtes Du denn? Monomode oder Multimode?

Ach?

Was hat das mit Kabel zu tun?

100 G? DWDM? Krass!

Oder was?

Nö.
Du hast einfach nur keine Ahnung, aber einen vollen Mund!

5 Like

Sorry, aber selten so eine Ansammlung von wild zusammengewürfeltem <bitte nach eigener Wahl die schlimmste vorstellbare negative Beschreibung einer Ansammlung von Katastrophe wählen) gelesen.

Du betreibst offenbar irgendeine kleine Computer-Bastelbude, in der Du sicherheitshalber mal versuchst mit allem und jedem irgendeinen Cent zu verdienen, was irgendwie nach „IT“ riecht, und machst hier einen auf extrem dicke Hose, als ob Du Herr Amazon persönlich wärst. Dabei hast Du aber ganz offensichtlich nicht mal das Geld für einen kleinen eigenen Server und etwas Storage in einem professionellen, über alle Gebäudeseiten an diverse Anbieter angebundenen Rechenzentrum, der sich vermutlich 99,99% des Tages über die Last deiner Webseite und die paar mickrigen Bits und Bytes deiner kleinen betrieblich benötigten Datenhaltung zu Tode langweilen wird, die Du aus dem heimischen Bastelkeller über irgendeinen läppischen Privatkunden-Internetanschluss versendest, hinter dem irgendein mega-super-duper-Eigenbauserver per vermaschtem WLAN hängt.

Und wenn man nicht so wirklich mitreden kann, dann macht man sich halt über die Tiefbauer lustig, die aber nun mal genau die richtigen sind, um Leerrohre zu verlegen. Leute mit etwas mehr Hintergrund nennen das „Arbeitsteilung“.

Was Du hier so nett als

beschreibst, ist nicht nur in großen professionellen Infrastrukturen schon lange Standard. Inzwischen kann jeder Depp auf seinem kleinen SoHo-NAS eine Client für Dropbox und Co. oder ein Synchronisationsprogramm für ein zweites NAS (was sonst wo stehen kann) installieren, das genau dies macht. Und eine zeitliche Steuerung dieser Synchronisierung ist Standard, QoS zur Bandbreitensteuerung im Netz ist auch nicht gerade mehr der heißeste Sch…

Aber mach mal so weiter, es trägt zumindest zur Erheiterung von Leuten bei, die auf etwas mehr IT-Hintergrund als Win XP und 7 zurückgreifen können.

4 Like

Ich habe Erfahrungen mit Webservern auf denen u.a. Webseiten liegen, ja. Wir betreiben u.a. mehrere Rechenzentren.

Naja, kommt auf die problemstellung an.

Wenn damit gemeint ist das zu Hause oder im Office zu machen dann nein! Das ist grob fahrlässig aus allenmöglichen Gründen.

Wenn Ihr eben ein kleines rechenzentrum oder Serverraum mit entsprechender Klimatisierung, Notstrom, ggf. redundanter Anbindung, etc. habt und es um die neuanbindung oder eben dazulegen redundanter Anbindungen geht dann ja.

Wollt Ihr nur einen Server spiegeln (mirror), nur die Daten oder ein ganzes Rechenzentrum? Muß das irgendwelchen Spezifikationen entsprechen (z.B. Bankenstandard mit entsprechender Abstand Km der gespiegelten Rechenzentren, etc.)?
Domains sind ja denke ich nicht bei euchverwaltet sondern eben nur die entsprechenden Webserver-Dienste. Mit „Clouds“ meinst du sicher Daten auf einem Cloud-basierten Speicherdienst.

Naja, wie gesagt was willst Du, was sollen die Server leisten, inwieweit sind die selbst verwaltet, etc.?!
Ein Hosting-provider hosted nur die Dienste. Ein Full-Service Rechenzentrum mit sog. Helping-Hands die dann nach Deinen Angaben ggf. Arbeiten ausführen wäre die nächste Stufe. Du kannst Dir auch eine entsprechenden Dienstleister suchen,d er vor Ort die entsprechenden Wartungen durchführt oder eben einen Administrator, der das einrichtet.
Da kommt es wie gesagt eben darauf an ob Du den Server KOMPLETT selbst managen willst dann gehtd as bei sog. Co-Hosting /Co-Location (CoLo) Lösungen bzw. Höheneinheiten im Rack los oder eben „nur“ einen virtuellen Server mit entsprechenden Diensten oder Co-Locations oder man mietet sich gleich ganze Racks im RZ und macht dann damit was man will.

Ich hoffe, das Ihr nicht nur die Daten auf den NAS geräten habt sondern ein richtiges Backup Konzept! Man kann wenn man zwei so weit gelegene Standorte miteinander verbinden möchte entsprechende leitungen der großen Leitungsanbieter (Telecom, Vodafone, Orange, etc.) mieten die dann eine 1:1 Verbindung zwischend en Standorten machen. Kostet zwar, aber dann hättest Du so wie Du das willstd ie leitung mit voller bandbreite nur für Dich. Ansonsten wird man bei „normalen“ Leitungen keine entsprechende bandbreite garantiert bekommen.

Nein, das ist ein gespiegelter Server.

Naja, der Server steht im Rechenzentrum. Um dazu zugang zu erhalten müsst Ihr ja irgendwie ran kommen. Entweder physikalisch mit Schlüssel, Schlüsselkarte, Biometrischem Zugang, etc. oder „remote“ per VPN Zugang. Der Zugang kann wiederum relativ „unsicher“ nur mit einem Passwort geschehen oder per 2-Faktor-Authentifizierung (2FA) und/oder zusätzlich mit Zertifikaten und OTP Verfahren wie RSA SecureID Tokens oder ähnlichem.

Wenn hierzu eine Art automatisiertes Verfahren zum versenden von ein paar Rechnungen verwendet wird kann hier auch ein automatisiertes Verfahren verwendet werden mit entsprechenden Sicherheitsstufen.

Das klingt nach einer Site-to-Site VPN Verbindung zwischen eurem „Office RZ“ und dem „Provider RZ“. Ob das jetzt mit Glasfaser oder Kupfer gemacht wird ist eher nebensächlich. Die gesamtkonfiguration muß stimmen. Das Konzept dahinter muß stimmen. Die leitungspläne müssen stimmen. Die Security muß stimmen.

Naja, Glasfaser ist zuersteinmal Glasfaser. was Ihr bestellt habt weiss hier keiner. Im Normalfall kann man sich beim entsprechenden leitungsprovider vorab erkundigen welche Möglichkeiten es da geben wird.
Ebenso ist die Aussage „zum Beispiel völliger Unfug, dass wir uns einen 8TB Cloud mieten … bis der dann auch nur zur Hälfte gefüllt ist, werden Jahrzehnte vergehen …“ auch so ungefähr wie „Nachts ists kälter als draussen“

Ich denke mal da ist ein vernünftiger Administrator mit Projektleitererfahrung und/oder noch mindestens ein zweiter Halbmann-Job zwingend notwendig! Bis jetzt hört sich das alles nach reinem Wunschkatalog an, was vollkommen Ok ist … aber da fehlt noch eine GANZE MENGE. Um das alles zu klären benötigt Ihr eben entweder einen entsprechenden Vollzeit Mitarbeiter (Nein, das kannst weder Du selbst noch der praktikant leisten) mit entsprechenden kenntnissen oder outgesourced an ein IT-Unternehmen das dies übernimmt. Viel Glück.