Maximale Bildgröße bei 1024x768 Pixel?

hallo,

ich habe ein bild mit 1024x768 pixel und möchte es als foto ausdrucken lassen. 10x15 oder sowas ist mir zu klein, ich hätte es gern so groß wie möglich. am liebsten a4-format, aber das ist sicher zu groß.

welche fotogröße bietet sich dafür maximal an, damit es scharf ist?

alternativ: wie bekomme ich das bild größer? über die pixelzahl sicher nicht. was ist mit den dpi? lohnt es sich die hochzusetzen, auf 300 oder so? ich habe leider kein photoshop, nur irfanview und gimp.

vielen dank für eure hilfe!

Hallo,

ich habe ein bild mit 1024x768 pixel und möchte es als foto
ausdrucken lassen. 10x15 oder sowas ist mir zu klein, ich
hätte es gern so groß wie möglich. am liebsten a4-format, aber
das ist sicher zu groß.

welche fotogröße bietet sich dafür maximal an, damit es scharf
ist?

Du kannst rechnen, dass Du normalerweise ca 300dpi brauchst, um ein Bild scharf erscheinen zu lassen, vielleicht reicht es für den Hausgebrauch auch in 200dpi.
Dein Bild hat in der Breite 1024 Pixel - das sind ca 5*200 Pixel, also kannst Du das Bild ca 5" breit machen. 5*2,54cm sind 12,7 cm.

alternativ: wie bekomme ich das bild größer? über die
pixelzahl sicher nicht. was ist mit den dpi? lohnt es sich die
hochzusetzen, auf 300 oder so? ich habe leider kein photoshop,
nur irfanview und gimp.

Ohne Qualitätseinbussen gar nicht. Denn jede Vergrößerung würde bedeuten, dass Du Pixel hinzurechnen musst, wo keine sind. Also Bildinformationen, wo keine sind.
Das geht auf jeden Fall auf Kosten der Qualität, das Bild wirkt dann unscharf.

Sorry, am besten solltest Du versuchen, das Bild noch einmal in besserer Qualität zu bekommen.

Greetinx
Christian

Hi
das wesentliche ist schon gesagt…

alternativ: wie bekomme ich das bild größer? über die
pixelzahl sicher nicht.

Nur darüber. Besorg dir das Photo in einer höheren Auflösung.

was ist mit den dpi? lohnt es sich die hochzusetzen, auf 300 oder so?

das würde nichts an den verfügbaren Informationen ändern.

HH

Moin,

für den Hausgebrauch auch in 200dpi.

Wobei man sagen muss, es kommt auch auf das dargestellte Motiv an.
Wenn es etwas ist,was als Ganzes wirken soll, z.B. eine Landschaft, wo es fließende Übergänge, Schattenspiele oder unscharfe Konturen gibt, dort muss die Auflösung nicht so groß sein.
Es ist wie ein Gemälde, auf Entfernung wirken Dinge gemnau erkennbar, aus der Nähe entpuppen sie sich dann oft nur als verschieden farbige und getönte Kleckse.

Wenn es alledings auf die ganauen Details ankommt, dann sollte die Auflösung schon einiges höher sein, d.h. auch die Bilddatei mit einer höheren Pixelzahl daherkommen.

CU

Axel

Hallo,

welche fotogröße bietet sich dafür maximal an, damit es scharf
ist?

Wie schon erwähnt: ca. 13x18 cm

alternativ: wie bekomme ich das bild größer?

Gar nicht.

Wie ebenfalls bereits erwähnt kann es je nach Motiv trotzdem in Ordnung sein, das Bild auf 20x30 auszudrucken. So etwas kostet ja nicht die Welt, bestelle Dir das Bild halt als 20x30 und 13x18 (Gesamtkosten ca. 2 EUR) und was Dir nicht gefällt, schmeißt Du weg. Alternativ ein Freund mit einem Fotodrucker …

Gruß,

Myriam

okay, dann versuche ich es mal mit 13x18 und einer größeren variante. meines wissens wird trotzdem z.t. die dpi-zahl hochgesetzt, wenn man das bild hochauflösend benötigt.

wenn ich das bild irgendwie größer bekommen könnte, hätte ich mich längst darum gekümmert.

vielen dank!

Hallo,

okay, dann versuche ich es mal mit 13x18 und einer größeren
variante. meines wissens wird trotzdem z.t. die dpi-zahl
hochgesetzt, wenn man das bild hochauflösend benötigt.

Wenn Du nur die dpi-Zahl hochsetzt und die Pixelmaße so läßt wie sie sind, dann wird das Bild sogar kleiner ausgedruckt.
Ist ja auch logisch:
Nehmen wir einmal an, Du hast 1000 Pixel im Bild zur Verfügung.

Wenn Du dann mit 100dpi druckst, dann hast Du genug Pixel für 10 Inch (10 mal 100 Punkte pro Inch)

Wenn Du aber pro mit 500dpi druckst, dann hast Du ja nur noch genug Pixel für 2 Inch (2 mal 500 Punkte pro Inch).

Die DPI-Angabe gibt nur an, wie viele Punkte pro Inch gedruckt werden. Weniger Punkte pro Inch geben eine schlchtere Qualität, mehr eine bessere. Mit der wirklichen Bildgröße hat die DPI-Angabe also wenig zu tun, immer nur mit der Größe des Ausdrucks im Verhältnis zur Qualität.

Greetinx
Christian

Interpolieren geht schon
Hallo,

nun wurde viel erzählt, was nicht geht.

Aber auch wenn behauptet wird, daß man keine fehlenden
Informationen durch Vergrößerung der Pixelzahl bekommen
kann, so gibt es doch die Möglichkeit die Pixelzahl in
Länge und Breite z.B. zu verdoppeln. Das nennt sich Interpolieren
und ist eine Möglichkeit, ein pixeliges Bild ansehnlicher
zu machen. Schlechter wird es dabei auf keinen Fall, aber
die Konturen werden weicher und Stufeneffekte durch die
geringe Auflösung werden reduziert.

Ich würde das auf alle Fälle probieren - also aus 1024x768
ein Bild mit 2048x1536 Pixeln machen.

Gruß Uwi

ich habe ein bild mit 1024x768 pixel und möchte es als foto
ausdrucken lassen. 10x15 oder sowas ist mir zu klein, ich
hätte es gern so groß wie möglich. am liebsten a4-format, aber
das ist sicher zu groß.

welche fotogröße bietet sich dafür maximal an, damit es scharf
ist?

alternativ: wie bekomme ich das bild größer? über die
pixelzahl sicher nicht. was ist mit den dpi? lohnt es sich die
hochzusetzen, auf 300 oder so? ich habe leider kein photoshop,
nur irfanview und gimp.

vielen dank für eure hilfe!

Hallo,

nun wurde viel erzählt, was nicht geht.

Das mag am Thema liegen :smile:

Aber auch wenn behauptet wird, daß man keine fehlenden
Informationen durch Vergrößerung der Pixelzahl bekommen
kann, so gibt es doch die Möglichkeit die Pixelzahl in
Länge und Breite z.B. zu verdoppeln. Das nennt sich
Interpolieren

sorry, Einspruch.
Interpolieren nennt man (in der Grafikbearbeitung) alles das, was ein Bildbearbeitungsprogramm versucht, um fehlende Pixel hinzuzurechnen, nicht nur das Verdoppeln. Wenn man die Pixelmaße verdoppelt ist das natürlich einfacher, als wenn man um den Faktor 1,39456 vergrößert, das ist klar, aber der Vorgang ist immer der gleiche: es werden Pixel hinzugerechnet.

und ist eine Möglichkeit, ein pixeliges Bild ansehnlicher
zu machen. Schlechter wird es dabei auf keinen Fall,

sorry, noch einmal Einspruch.
Das Bild wird objektiv schlechter. Denn das was Du tun willst, ist im Endeffekt die Pixelgröße zu verdoppeln. Dadurch können Konturen nicht mehr so fein gezeichnet werden.
Dann kannst Du auch einfach den DPI-Wert halbieren.

Ich würde das auf alle Fälle probieren - also aus 1024x768
ein Bild mit 2048x1536 Pixeln machen.

Dann wie gesagt lieber den DPI-Wert halbieren und dabei die Pixelmaße unberührt lassen, dann wird wenigstens an den Bildinformationen nicht herumgedoktort.

Greetinx
Christian

Hallo,

nun wurde viel erzählt, was nicht geht.

Das mag am Thema liegen :smile:

Aber auch wenn behauptet wird, daß man keine fehlenden
Informationen durch Vergrößerung der Pixelzahl bekommen
kann, so gibt es doch die Möglichkeit die Pixelzahl in
Länge und Breite z.B. zu verdoppeln. Das nennt sich
Interpolieren

sorry, Einspruch.
Interpolieren nennt man (in der Grafikbearbeitung) alles das,
was ein Bildbearbeitungsprogramm versucht, um fehlende Pixel
hinzuzurechnen,

Also ist Pixel verdoppeln doch interpolieren!
Wo ist da ein Widerspruch ?

Außerden kennst du offenbar nicht die Bedeutung der Abkürzung z.B.
Also noch mal expliziert für Dich: Das bedeutet "zum Beispiel"

nicht nur das Verdoppeln. Wenn man die
Pixelmaße verdoppelt ist das natürlich einfacher,

Das ist nicht nur einfacher, sondern vor allem Zweckmäßiger,
um möglichst wenig Bildinformation zu verfälschen und möglichst
viel Zugewinn an Information zu bekommen.
Das ist also ein Qualitätsproblem.
Man kann natürlich die Pixel in Länge und Breite auch
verdreifachen oder vervierfachen.

Nun wird bestimmt wieder der Einspruch kommen, daß man durch
dadurch keine Informationen zugewinnen kann.

Dies stimmt aber nicht pauschal, weil meist nicht beachtet wird,
daß Bildinformation nicht nur aus den Pixeln selbst gezogen werden
können, sondern auch aus den Differenzen zwischen den Pixeln.

als wenn man
um den Faktor 1,39456 vergrößert, das ist klar, aber der
Vorgang ist immer der gleiche: es werden Pixel hinzugerechnet.

Ich habe nicht behauptet,Interpolieren ginge nur durch verdoppeln.
Ich werde mich aber hüten, solch einen krummen Faktor zu empfehlen.

und ist eine Möglichkeit, ein pixeliges Bild ansehnlicher
zu machen. Schlechter wird es dabei auf keinen Fall,

sorry, noch einmal Einspruch.
Das Bild wird objektiv schlechter.

Erstens möchte ich für diese pauschale Behauptung eine Begründung.
Dann werde ich den Beweis liefern, daß es keinesfalls so sein muß.

Zweitens impliziert „ansehnlicher machen“ einen subjektiven Eindruck.
Nur darum geht es letztlich.

Denn das was Du tun willst,
ist im Endeffekt die Pixelgröße zu verdoppeln. Dadurch können
Konturen nicht mehr so fein gezeichnet werden.

Diese Aussagen sind ziehmlicher Humbug !

Dann kannst Du auch einfach den DPI-Wert halbieren.

Ich würde das auf alle Fälle probieren - also aus 1024x768
ein Bild mit 2048x1536 Pixeln machen.

Dann wie gesagt lieber den DPI-Wert halbieren und dabei die
Pixelmaße unberührt lassen, dann wird wenigstens an den
Bildinformationen nicht herumgedoktort.

Was hast du gegen die die Methode „Ausprobieren“ ?
Gibt’s da eine Pixelphobie, oder was ?

Ich verstehe echt nicht, warum ein korrektes mathematisches
Verfahren zur Optimierung eines Bildes so einen Aufstand hervorruft.
Scheint so eine Prinzipenreiterei von einigen Puristen mit
fundiertem Halbwissen zu sein.

Gruß Uwi

1 „Gefällt mir“

Hallo,

mal gucken, einmal sag ich vielleicht noch was dazu …

nun wurde viel erzählt, was nicht geht.

Das mag am Thema liegen :smile:

Aber auch wenn behauptet wird, daß man keine fehlenden
Informationen durch Vergrößerung der Pixelzahl bekommen
kann, so gibt es doch die Möglichkeit die Pixelzahl in
Länge und Breite z.B. zu verdoppeln. Das nennt sich
Interpolieren

sorry, Einspruch.
Interpolieren nennt man (in der Grafikbearbeitung) alles das,
was ein Bildbearbeitungsprogramm versucht, um fehlende Pixel
hinzuzurechnen,

Also ist Pixel verdoppeln doch interpolieren!
Wo ist da ein Widerspruch ?

Wenn Du hier schon mit Definitionen kommst, dann achte bitte auf Deinen Satzbau. Den kann man so verstehen, wie Du ihn erklärst, den kann mn aber auch anders verstehen, nämlich: „Man kann z.B. verdoppeln, (und) das nennt sich (dann) interpolieren.“
Du hast offensichtlich gemeint: „Es gibt etwas, das nennt sich interpolieren, und darunter fällt z.B. verdoppeln.“
Aber gut. Mißverständnisse entstehen.

Außerden kennst du offenbar nicht die Bedeutung der Abkürzung
z.B.
Also noch mal expliziert für Dich: Das bedeutet "zum
Beispiel"

Danke :smile:

nicht nur das Verdoppeln. Wenn man die
Pixelmaße verdoppelt ist das natürlich einfacher,

Das ist nicht nur einfacher, sondern vor allem Zweckmäßiger,
um möglichst wenig Bildinformation zu verfälschen und
möglichst
viel Zugewinn an Information zu bekommen.
Das ist also ein Qualitätsproblem.
Man kann natürlich die Pixel in Länge und Breite auch
verdreifachen oder vervierfachen.

Ja. Und immer wird ein Rechenalgorithmus bestimmen, was ich hinterher sehe. Ein Programm bestimmt die Informationen, die dazugerechnet werden.

[…]

Das Bild wird objektiv schlechter.

Erstens möchte ich für diese pauschale Behauptung eine
Begründung.
Dann werde ich den Beweis liefern, daß es keinesfalls so sein
muß.

So lange Du senkrechte, waagerechte oder 45°-Linien ansiehst, mag das alles noch einigermaßen klappen.
Aber, wie Du ja sagtest: Eine Bildinformation entsteht auch aus Unterschieden zwischen Pixeln.

Wenn ich also eine dunklen und eine helle Bereich in einem Bild direkt mit einer scharfen Kante nebeneinander habe interpoliert mein Grafikprogramm beim Vergrößern dazwischen Pixel, die weder hell noch dunkel sind, sondern wählt Zwischentöne. Also… ach, Du wisst ja eh, was ich sagen will…

Zweitens impliziert „ansehnlicher machen“ einen subjektiven
Eindruck.
Nur darum geht es letztlich.

Äh ja. Auch. Siehe unten.

Denn das was Du tun willst,
ist im Endeffekt die Pixelgröße zu verdoppeln. Dadurch können
Konturen nicht mehr so fein gezeichnet werden.

Diese Aussagen sind ziehmlicher Humbug !

Wenn Du wirklich nur verdoppelst und der oben von mir beschrieben Effekt nicht auftritt, weil quasi im ganzen Bild nur alle Pixel um eins nach rechts und eins nach unten verdoppelt wurden - dann sind immerhin alle Linie doppelt so dick wie vorher. Also nicht mehr so fein gezeichnet.

Dann kannst Du auch einfach den DPI-Wert halbieren.

Ich würde das auf alle Fälle probieren - also aus 1024x768
ein Bild mit 2048x1536 Pixeln machen.

Das ist der gleiche Effekt, wie den DPI-Wert vor dem Ausdruck zu halbieren - nur das bei Verändern des DPI-Wertes nicht anden Pixeln im Bild gerechnet wird.
Das ist übrigens etwas, was ich in der ersten Antwort vorsichtig (quasi zum Ausprobieren) vorschlug.

Was hast du gegen die die Methode „Ausprobieren“ ?
Gibt’s da eine Pixelphobie, oder was ?

Ich verstehe echt nicht, warum ein korrektes mathematisches
Verfahren zur Optimierung eines Bildes so einen Aufstand
hervorruft.
Scheint so eine Prinzipenreiterei von einigen Puristen mit
fundiertem Halbwissen zu sein.

Vorsichtig bitte. Danke.
Nein, keine Pixelphobie. Nur die jahrelange Erfahrung, dass Menschen mit z.B. Bildern aus dem Internet zu mir kommen und die gerne gestochen scharf und mindestens Din A 4-gross ausgedruckt haben möchten.
Vermutlich haben sie die Vorstellung aus dem Kino oder aus dem Fernsehen, wo wir ja alle quasi täglich lernen, dass der Computer alles kann.
Und deswegen habe ich mir angewöhnt, erst einmal die Tatsachen und die Grenzen der Programme aufzuzeigen. Dann kann man immer noch gerne herumprobieren und schauen, ob das Ergebnis nicht vielleicht doch reicht.

Und natürlich schaut man sich ein Bild, das man in einem Din-A4-Rahmen gehängt hat aus einem anderen Betrachtungssabstand an, als seinen Bildschirmhintergrund. Und vielleicht reicht das Ergebnis dem Betrachter oft auch - aber es ist eben ein qualitativer Unterschied - und ich habe oft genug erlebt, dass den Menschen das vorher nicht klar war, weil „ich ja was mit Grafik mache“ und „das dann doch können muss.“
Geht aber nun mal seltenst zufriedenstellend. Auch mit Profiprogrammen und den ausgefeiltesten Vergrößerungsalgorithmen nicht.

So, und ich für meinen Teil würde diese Diskussion jetzt gerne beenden.
Vielleicht kann uns unser beruflicher Hintergrund da nicht einer Meinung werden lassen, vielleicht ist es etwas anderes, aber ich denke nicht, dass das hier noch irgendwen weiterbringt. Vor allem nicht den ursprünglichen Fragensteller.

In diesem Sinne einen schönen Tag
Christian

Hallo,

Wenn Du hier schon mit Definitionen kommst, dann achte bitte
auf Deinen Satzbau. Den kann man so verstehen, wie Du ihn
erklärst, den kann mn aber auch anders verstehen, nämlich:
„Man kann z.B. verdoppeln, (und) das nennt sich (dann)
interpolieren.“

Ok, darum ging es ja primär auch gar nicht.

Du hast offensichtlich gemeint: „Es gibt etwas, das nennt sich
interpolieren, und darunter fällt z.B. verdoppeln.“
Aber gut. Mißverständnisse entstehen.

Kann passieren.

Ja. Und immer wird ein Rechenalgorithmus bestimmen, was ich
hinterher sehe. Ein Programm bestimmt die Informationen, die
dazugerechnet werden.

Logisch, wer sollte es sonst machen?
Allerdings ist eine einfache lineare Interpolation kein Hexenwerk.

[…]

Das Bild wird objektiv schlechter.

So lange Du senkrechte, waagerechte oder 45°-Linien ansiehst,
mag das alles noch einigermaßen klappen.

Treppeneffekte an jeglichen geraden Kanten (egal welcher Winkel)
sind eine Sache.

Auch ein Kreis wird mit 64 Pixeln im Umfang wird besser aussehen,
als bloß mit 16 Pixeln.

Bei Strukturen, die eh nicht scharf begrenzt sind, wird die
Interpolation regelmäßig eine sichtbare Verbesserung bringen
(z.B. Gesichter)
Es sieht auch nicht mehr sehr gut aus, wenn ein Auge nur aus
3…4 Pixeln besteht. Dagegen sind 12…16 Pixel schon eine
Verbesserung .

Aber, wie Du ja sagtest: Eine Bildinformation entsteht auch
aus Unterschieden zwischen Pixeln.

Ja, bloß das Auge nimmt diese eher als störend wahr.
Der Mensch ist mehr oder weniger auf analoge Verläufe geeicht.
Eine leichte Unschärfe ist meist nicht so kritisch (wird ja
oft sogar als künstlerische Mittel eingesetzt).

Wenn ich also eine dunklen und eine helle Bereich in einem
Bild direkt mit einer scharfen Kante nebeneinander habe
interpoliert mein Grafikprogramm beim Vergrößern dazwischen
Pixel, die weder hell noch dunkel sind, sondern wählt
Zwischentöne. Also… ach, Du wisst ja eh, was ich sagen
will…

Klar, so ist es. Ist doch gut so.

Andererseits werden weiche/runde Übergänge in einem pixeligen Bild
zu scharfen Kanten/treppen. Da kann eine Interpolation sogar den
originalen Zustand rel. weit rekonstruieren.

Zweitens impliziert „ansehnlicher machen“ einen subjektiven
Eindruck.Nur darum geht es letztlich.

Äh ja. Auch. Siehe unten.

Wenn Du wirklich nur verdoppelst und der oben von mir
beschrieben Effekt nicht auftritt, weil quasi im ganzen Bild
nur alle Pixel um eins nach rechts und eins nach unten
verdoppelt wurden - dann sind immerhin alle Linie doppelt so
dick wie vorher. Also nicht mehr so fein gezeichnet.

Nein, da nachher z.B. vier Pixel genau die gleiche Fläche einnehmen,
wie vorher ein Pixel, wird nix dicker. Die Relationen zum
Gesamtbild ändern sich durch das Interpolieren so nicht.

Ich würde das auf alle Fälle probieren - also aus 1024x768
ein Bild mit 2048x1536 Pixeln machen.

Das ist der gleiche Effekt, wie den DPI-Wert vor dem Ausdruck
zu halbieren - nur das bei Verändern des DPI-Wertes nicht
an den Pixeln im Bild gerechnet wird.

Ich weiß nicht, was du immer mit dem DPI-Wert hast. Dieser
Parameter sorgt bei solchen Diskussionen regelmäßig für Verwirrung,
weil er eben von 2 weiteren Parametern abhängig ist.

DPI-Wert halbieren sagt zu wenig darüber aus, was da gerade passiert.
Man kann das Bild bei gleicher Pixelzahl vergrößern (dann passiert
der Bildinformation tatsächlich nix) oder man erhöht bei konst.
Größe die Pixelzahl (dann muß sehr wohl Interpoliert werden!).

Das ist übrigens etwas, was ich in der ersten Antwort
vorsichtig (quasi zum Ausprobieren) vorschlug.

Zitat:

Denn jede Vergrößerung würde bedeuten, dass Du Pixel hinzurechnen 
musst, wo keine sind. Also Bildinformationen, wo keine sind.
Das geht auf jeden Fall auf Kosten der Qualität, das Bild wirkt 
dann unscharf. 
  1. Vergrößerung bedeutet nicht zwingend Pixel hinzurechnen!
  2. Beim Interpolieren wird Informationen gewonnen (Diff. zw. Pixeln).
  3. Etwas Unschärfe statt pixeligem Bild ist oft subj. Verbesserung.
  4. Interpolieren geht nicht „auf jeden Fall auf Kosten der Qualität“

Nein, keine Pixelphobie. Nur die jahrelange Erfahrung, dass
Menschen mit z.B. Bildern aus dem Internet zu mir kommen und
die gerne gestochen scharf und mindestens Din A 4-gross
ausgedruckt haben möchten.

Das ist aber eine ganz andere Problemstellung. Es war nicht davon
die Rede aus 100kPixel gleich 10MPixel zu machen.

Vermutlich haben sie die Vorstellung aus dem Kino oder aus dem
Fernsehen, wo wir ja alle quasi täglich lernen, dass der
Computer alles kann.

Ja, ist sicher richtig. Aber die Fragestellerin machte gar nicht
den Eindruck, so unbeleckt zu sein.
Es ging auch nicht darum, z.B. einen Menschen aus 6 Pixeln zu
rekonstruieren.

Und deswegen habe ich mir angewöhnt, erst einmal die Tatsachen
und die Grenzen der Programme aufzuzeigen. Dann kann man immer
noch gerne herumprobieren und schauen, ob das Ergebnis nicht
vielleicht doch reicht.

Eben, hörte sich aber doch erstmal ganz anders an.
Nix andere habe ich vorgeschlagen.

…- und ich habe oft
genug erlebt, dass den Menschen das vorher nicht klar war,
weil „ich ja was mit Grafik mache“ und „das dann doch können
muss.“

Machbares kann man dann aber trotzdem machen.

Vielleicht kann uns unser beruflicher Hintergrund da nicht
einer Meinung werden lassen,

Der hat damit kaum was zu tun.

vielleicht ist es etwas anderes,
aber ich denke nicht, dass das hier noch irgendwen
weiterbringt. Vor allem nicht den ursprünglichen
Fragensteller.

Wenn du meinst ?

Gruß Uwi

Beim Interpolieren werden lediglich Pixel zwischengeschoben, die dann
einen Durchschnitts-Farbwert der Pixel bekommt, die ihn umgeben.

Hallo Fragewurm,

Beim Interpolieren werden lediglich Pixel zwischengeschoben,
die dann
einen Durchschnitts-Farbwert der Pixel bekommt, die ihn
umgeben.

Das wäre „lineares Interpolieren“, aber hier ist schon „Durchschnitt“ ein Begriff, welcher erst definiert werden muss, genauso wie „umgeben“.

MfG Peter(TOO)