Hallo liebe Leute!
Ich habe folgendes problem: Zum berechnen und simulieren eines optischen dünnschichtsystems verwenden wir erfolgreich die Transfermatrix-Methode. Mit dieser kann man wundebar unterscheiden, ob bestimmte Layer oder stacks kohärent betrachtet werden sollen oder inkohärent.
Aber wie lässt sich theoretisch ein partieller Verlust von Kohärenz beschreiben? Also wenn jede Schicht im System an sich kohärent ist - aber die Gesamtausdehnung länger ist als die Kohärenzlänge einer bestimmten Lichtquelle (z.b. 160 nm).
Man beobachtet partielle kohärenz… doch kann man die auch beschreiben?
Ich bin beim googlen auf eine 8x8 transfer matrix methode gestoßen… leider waren die Artikel jedoch nicht frei lesbar.
Ich bin sehr dankbar über Ideen, Erfahrungen oder Anregungen.
Vielen Dank, Luc
Danke für den Link zu Wikipedia
Ok… darin ist alles beschrieben zu der Theorie. Ich bräuchte noch eine Einbindung in eine Transfer-Matrix Methode.
Hat noch jemand eine Idee?