Hallo,
Sollte das Konzept „Mehr Rechnen, weniger Messen“ etwa
generell besser funktionieren?
Das kommt auf die Art der Vorhersage an. Fast alle Dienste nutzen heute im wesentlichen „numerische Wettervorhersagen“, also computergestützte Wettermodelle. Die meisten Dienste verfeinern das dann noch mit herkömmlichen (synoptischen) Vorhersagen.
Wettermodelle gibt es im wesentlichen zwei Arten: Statistische Modelle und physikalische Modelle. Erstere beruhen auf einer statistischen Analyse von Stationsdaten. Hier hängt die Vorhersage sowohl von der Güte des Modells als auch von der Güte und Dichte der Stationsdaten ab.
Physikalische Modelle simulieren dagegen Wetter, d.h. sie berechnen anhand physikalischer Gleichungen wie sich das Wetter weiterentwickeln wird. Bei diesen Systemen spielen die Stationsdaten eine viel geringere Rolle, weil das Wettersystem im wesentlichen viel großräumiger bestimmt wird. Diese Systeme haben den Vorteil, dass sie Vorhersagen auch für Orte produzieren können, wo keine Stationen sind und sie können lokale Gegebenheiten solcher Orte viel besser berücksichtigen (z.B. Topographie, Hydrologie, etc). Hier spielt die Güte des Modells sowie dessen räumliche und zeitliche Auflösung die größte Rolle.
Wobei man sagen muss:
Die meisten der Wetterdienste im Internet rechnen das Wetter zum größten Teil nicht selbst. Die kaufen sich einen wesentlichen Teil der Berechnungen von anderen Dienstleistern wie den nationalen Wetterdiensten ein, die über entsprechende Modelle und Supercomputer verfügen.
Wetter-Online nutzt z.B. die Daten des GFS-Modells des amerikanischen Klimadienstes NOAA, einem statistischen Modell. Meteoblue benutzt dagegen ein physikalisches Modell, dass es selbst betreibt (Numerical Meso-Scale Modelling).
vg,
d.