Zwei normalvektoren auf richtungsvektor finden

Hallo,

gegeben ist der Richtungsvektor (2/1/2),
für diesen will ich nun zwei vektoren finden, die auf diesen senkrecht sind.
irgendwie weiß ich nicht ganz wie ich das anstellen soll. kann mir wer weiterhelfen? lg

moin;

damit zwei Vektoren senkrecht zueinander sind, muss ihr Skalarprodukt 0 sein.

Damit der Vektor (x/y/z) senkrecht zu deinem Vektor ist, muss also gelten:
2x+y+2z=0

Diese Gleichung hat (wie bekannt sein sollte) unendlich viele reelle Lösungen; setze einfach beliebige Werte für x und y ein, löse nach z auf und du erhältst das fehlende Element, damit die beiden Vektoren senkrecht zueinander sind.

mfG

P.S.: linear voneinander abhängige Vektoren sind zwar i.A. verschieden, würden aber die gleiche Richtung angeben

Hallo,

um den zweiten gesuchten Vektor zu finden, musst Du diesen z.B. als w = a/b/c definieren. Wenn seine Länge egal ist, kannst Du gleich eine der Koordinaten festlagen, z.B. a = 1. Wenn die Länge des Vektors Eins sein soll, dann musst Du die Beziehung a**2 + b**2 + c**2 = 1 nach a auflösen. Der Vektor w ist dann in den beiden Unbekannten b und c formuliert. Nun musst Du die Skalarprodukte dieses Vektors mit den anderen beiden Vektoren (dem anfangs gegebenen und dem vorhin von DevilSuichiro berechneten) Null setzen. Das ergibt zwei Gleichungen mit den zwei Unbekannten b und c. Fertig.

Grüße

Gunter

Hallo,

da keine weiteren Einschränkungen gemacht sind, kannst Du sobald Du einen senkrechten Vektor hast, das Kreuzprodukt aus diesem und dem Ausgangsvektor bilden. Das Ergebnis steht auf beiden Vektoren senkrecht.

Gruß Volker

da keine weiteren Einschränkungen gemacht sind, kannst Du
sobald Du einen senkrechten Vektor hast, das Kreuzprodukt aus
diesem und dem Ausgangsvektor bilden. Das Ergebnis steht auf
beiden Vektoren senkrecht.

Auch den ersten senkrechten Verktor kann man mit dem Kreuzprodukt berechnen. Dazu braucht man nur einen linear unabhängigen Verktor.

Hallo,

Auch den ersten senkrechten Verktor kann man mit dem
Kreuzprodukt berechnen. Dazu braucht man nur einen linear
unabhängigen Verktor.

und man könnte auf die Idee kommen, dafür z. B. einfach den Vektor (1, 1, 1) zu nehmen. Der ist immerhin „in den meisten Fällen“ linear unabhängig zum Vektor r = (x, y, z). Der gesuchte r -Orthogonalvektor ergibt sich dann zu (x, y, z) × (1, 1, 1) = (y – z, z – x, x – y).

Nun das Problem: (1, 1, 1) ist zwar meistens, aber unschönerweise eben nicht immer linear unabhängig zu r , nämlich natürlich dann nicht, wenn r die Form (λ, λ, λ) hat. Das wirft die Frage auf, ob man einen „besseren“ Vektor als (1, 1, 1) finden kann, einen, der ausnahmslos immer funktioniert. Nur mit Zahlen als Komponenten geht das sicher nicht, also seien auch beliebige Funktionen von x, y, und z zugelassen. Im Zweidimensionalen ist es dann möglich, solche Vektoren anzugeben: (y, –x) und (–y, x) sind stets orthogonal zu (x, y) und damit automatisch linear unabhängig.

Aber was ist im 3D-Fall? Ich habe etwas herumüberlegt und -probiert aber es scheint eine vertrackte Sache zu sein. Kennt jemand die Antwort? Und wenn ‚ja‘ (was mich überraschen würde), wie sieht der Vektor aus? Any ideas? :smile:

Mit gespanntem Gruß
Martin

Aber was ist im 3D-Fall? Ich habe etwas herumüberlegt
und -probiert aber es scheint eine vertrackte Sache zu sein.
Kennt jemand die Antwort? Und wenn ‚ja‘ (was mich überraschen
würde), wie sieht der Vektor aus? Any ideas? :smile:

Warum probierst Du nicht einfach zwei linear unabhängige Vektoren (z.B. [1,0,0] und [0,1,0])? Mit einem davon klappt es ganz bestimmt.

Warum probierst Du nicht einfach zwei linear unabhängige
Vektoren (z.B. [1,0,0] und [0,1,0])? Mit einem davon klappt es
ganz bestimmt.

Huch, fastest wer-weiss-was-response ever :wink: Hm ja, das ginge natürlich. Aber ich möchte es sozusagen perfekt, d. h. ohne Fallunterscheidung und ohne irgendwelche Richtungen wie (1, 1, 1) ausnehmen zu müssen. Die Frage ist weniger praktischer als prinzipieller Natur.

Ich habe schon probiert:

(2x – y – z) yz
(–x + 2y – z) xz
(–x – y + 2z) xy

…ist orthogonal zu (x, y, z), aber nicht perfekt: Für z. B. x = y = 0 wird das Ding ohne Not zum Nullvektor. Dasselbe bei (yz, xz, –2xy), was im wesentlichen dasselbe ist, nur unsymmetriert.

(2x – y – z) 1/x
(–x + 2y – z) 1/y
(–x – y + 2z) 1/z

…ist auch orthogonal zu (x, y, z), aber auch nicht perfekt: Falls irgendeine Komponente verschwindet, ist es nicht definiert wegen „/0“. Bei (–y/x, 1, 0) betrifft es zwar nur die x-Komponente, aber doch ist diese kleine Unperfektheit nicht (prinzipiell nicht?) wegzubekommen.

Hallo =)

Es ist hier unmöglich den 0-Vektor wegzulassen ohne Bedingungen.

Wenn du einen beliebigen Vektor (x/y/z) hast, kann dieser auch der 0-Vektor sein, wenn du keine Bedingungen stellst…

Sei (a/b/c) orthogonal zu (x/y/z), x,y,z sei beliebig auf den reellen Zalen (oder sogar auf den komplexen). Eine Bedingung, die diese Lösung erfüllen muss ist: a*x+b*y+c*z=0. Egal, was du für a, b, c einsetzt eine Lösung dieser Gleichung wird immer a=b=c=0 sein (da kannst du auch nichts dran rütteln, kannst auch n-dimensionale Vektoren nehmen - du wirst immer an diesen Punkt „scheitern“). Das heisst, dass wenn du eine „perfekte“, vollständige Lösung haben willst, ist diese Lösung (der 0-Vektor) auch darin enthalten. Somit musst du eine Bedinung einsetzen, so dass a,b oder c ungleich 0 ist. Und das wäre dann eine „perfekte“ Lösung.

MfG, Christian