Hallo zusammen,
anschaulich habe ich den Unterschied einfach noch nicht begriffen. Hier mal ein Bsp. wo mein Problem liegt:
Sei f_n: [a, b] -> \mathbb{R} eine punktweise konvergente Funktionenfolge.
d.h.: \forall \epsilon > 0 ; \forall x \in [a, b] ; \exists n_0 ; \in \mathbb{R} ; \forall n > n_0: |f_n(x)-f(x)|
Jetzt definiere ich d_{max} = max(|f_n(x)-f(x)|)
Da f_n punktw. konv. mach ich jetzt folgendes.
Für jedes beliebige Epsilon wähle n so, dass d_{max} .
–> n ist unabhängig von x, da ich ein „globales“ n gefunden habe, dass für alle x gilt.
–> f_n konvergiert gleichmäßig auf [a, b].
Ich gehe einmal stark davon aus, dass das ziemlich Mist ist, ich weiß nur nicht warum. Vieleicht kann mir das ja jemand veranschaulichen.
Gruß Zorki
Hi also anschaulich hilft vielleicht das Beispiel aus Wikipedia:
http://upload.wikimedia.org/math/7/0/b/70b8b52cf9f88…
Die Idee ist ANSCHAULICH, dass ich bei punktweise Konvergenz mich für ein x und ein epsilon entscheiden muß. Gibt es dann ein n >= N, so dass blabla kleiner epsilon ist, dann ist die Funktfolge punktweise Konvergent.
Bei gleichmäßiger Konvergenz wird verlangt, dass ich x quasi im Definitionsbereich beliebig „nachverändern“ darf, und dieser blabla immer noch kleiner als epsilon ist.
blabla ist halt die betrgsmßg Differenz zw. Grenzwert und Folgenglied ab N - bekomme das irgendwie nicht dargestellt…
Achso: übrigens ist das Ding:
http://upload.wikimedia.org/math/7/0/b/70b8b52cf9f88…
punktweise, aber nicht gleichmäßig konvergent.
ciao, Joachim
MOD: Zusatzbemerkung aus Folgeposting angefügt und Folgeposting gelöscht. TOFU-Zitat entfernt (bitte keine unnötigen Vollzitate stehenlassen).