Geometrie
Geometrie
Geometrie
Erfolgreiche ePaper selbst erstellen
Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.
<strong>Geometrie</strong><br />
https://www.mi.fu-berlin.de/kvv/course.htm?sid=22&iid=2&cid=9923<br />
— vorläufiges Skript (ohne Garantie) —<br />
— Ich bin sehr dankbar für Hinweise auf Fehler, Korrekturen, Ergänzungen,<br />
Verbesserungsvorschläge, etc. —<br />
— Version vom 26. August 2011 —<br />
Prof. Günter M. Ziegler<br />
Fachbereich Mathematik und Informatik<br />
FU Berlin, 14195 Berlin<br />
Tel. 030 314-25730<br />
ziegler@math.fu-berlin.de<br />
http://page.mi.fu-berlin.de/gmziegler/<br />
FU Berlin, Sommer 2011<br />
Diese Vorlesung für das Bachelorstudium soll als natürliche Fortsetzung von Lineare Algebra I und II<br />
Fundamente legen für Vorlesungen/Zyklen wie Diskrete <strong>Geometrie</strong>, Algebraische <strong>Geometrie</strong> und Differenzialgeometrie.<br />
Sie behandelt grundlegende Modelle der <strong>Geometrie</strong>, insbesondere<br />
– euklidische, affine, sphärische, projektive und hyperbolische <strong>Geometrie</strong>, Möbiusgeometrie, Polarität<br />
und Dualität<br />
– Strukturgruppen, Messen (Längen, Winkel, Volumina), explizite Berechnungen und<br />
– Anwendungen, Beispiele sowie Illustrationsthemen.<br />
Dabei werden weitere Bezüge hergestellt, zum Beispiel zur Funktionentheorie und zur Numerik.<br />
Literatur<br />
[1] David A. Brannan, Matthew F. Esplen, and Jeremy J. Gray. Geometry. Cambridge University Press,<br />
Cambridge, 1999.<br />
[2] Gerd Fischer. Lernbuch Lineare Algebra und Analytische <strong>Geometrie</strong>. Vieweg+Teubner, Wiesbaden,<br />
2011.<br />
[3] Boris A. Springborn. Geometry I. Lecture Notes, TU Berlin/Berlin Mathematical School,<br />
2007/08, 59 pp., ftp://ftp.math.tu-berlin.de/pub/Lehre/GeometryI/WS07/<br />
geometry1_ws07.pdf.<br />
1
<strong>Geometrie</strong> — FU Berlin<br />
Sommersemester 2011 — Skript, Version: 26. August 2011 — Günter M. Ziegler<br />
Vorbemerkungen<br />
Dies ist nicht nur meine erste Vorlesung an der FU Berlin, sondern auch meine ersten “allgemeine”<br />
<strong>Geometrie</strong>-Vorlesung. Ich will dabei meine Begeisterung für die <strong>Geometrie</strong> vermitteln,<br />
insbesondere aber Werkzeuge für die Arbeit mit geometrischen Strukturen vermitteln, die dann<br />
in ganz unterschiedliche Richtungen hilfreich sein können, insbesondere für Vorlesungszyklen<br />
wie “Diskrete <strong>Geometrie</strong> I–III” (den ich selber halten werde), Differenzialgeometrie, Algebraische<br />
<strong>Geometrie</strong>, aber auch für Vorlesungen wie Geometry Processing und Algorithmische<br />
<strong>Geometrie</strong>.<br />
Hier kommt ein grober Zeitplan, den wir schrittweise anpassen werden:<br />
1. Euklidische <strong>Geometrie</strong>, I: Der R n mit einem Skalarprodukt . . . . . . . . . . . . . . . . . .12. April<br />
2. Euklidische <strong>Geometrie</strong>, II: Hochdimensionale Effekte . . . . . . . . . . . . . . . . . . . . . . 14. April<br />
3. Euklidische <strong>Geometrie</strong>, III: Euklidische Bewegungen . . . . . . . . . . . . . . . . . . . . . . . 19. April<br />
4. Euklidische <strong>Geometrie</strong>, IV . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21. April<br />
5. Affine <strong>Geometrie</strong>, I: . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26. April<br />
6. Affine <strong>Geometrie</strong>, II: . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28. April<br />
7. Kegelschnitte, I . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3. Mai<br />
8. Kegelschnitte, II . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .5. Mai<br />
9. Quadriken . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10. Mai<br />
10. Quadriken . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12. Mai<br />
11. Projektive <strong>Geometrie</strong>, I: . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .17. Mai<br />
12. Projektive <strong>Geometrie</strong>, II: . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19. Mai<br />
13. Projektive <strong>Geometrie</strong>, III: . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24. Mai<br />
14. Projektive <strong>Geometrie</strong>, IV: . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26. Mai<br />
15. Projektive <strong>Geometrie</strong>, V: . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31. Mai<br />
16. “Was ist eine <strong>Geometrie</strong>” . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7. Juni<br />
17. “Was ist eine <strong>Geometrie</strong>” . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9. Juni<br />
18. Sphärische <strong>Geometrie</strong>, I: . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14. Juni<br />
19. Sphärische <strong>Geometrie</strong>, II: . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16. Juni<br />
20. Möbiusgeometrie, I . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21. Juni<br />
21. Möbiusgeometrie, II . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23. Juni<br />
22. Hyperbolische <strong>Geometrie</strong>, I . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28. Juni<br />
23. Hyperbolische <strong>Geometrie</strong>, II . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30. Juni<br />
24. Hyperbolische <strong>Geometrie</strong>, III . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5. Juli<br />
25. Hyperbolische <strong>Geometrie</strong>, IV . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7. Juli<br />
26. Hyperbolische <strong>Geometrie</strong>, V . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12. Juli<br />
27. Perspektiven der <strong>Geometrie</strong> . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .14. Juli<br />
2
<strong>Geometrie</strong> — FU Berlin<br />
Sommersemester 2011 — Skript, Version: 26. August 2011 — Günter M. Ziegler<br />
1 Euklidische <strong>Geometrie</strong><br />
1.1 Der R n mit einem Skalarprodukt<br />
1.1.1 Lineare und affine Unterräume<br />
Modell: R n reeller Vektorraum mit Koordinatensystem<br />
Untervektorräume U ⊆ R n der Dimension dim U, mit 0 ≤ dim U ≤ n.<br />
“Innere Beschreibung”:<br />
U = span{v 1 , . . . , v r } = {λ 1 v 1 + · · · + λ r v r : λ 1 , . . . , λ r ∈ R}, mit r ≥ dim U.<br />
Hier gilt r = dim U wenn {v 1 , . . . , v r } eine Basis ist. Jede (geordnete) Basis liefert uns Koordinaten<br />
für U.<br />
“Äußere Beschreibung”: durch ein homogenes lineares Gleichungssystem<br />
U = {x ∈ R n : Ax = 0}, mit A ∈ R m×n , m ≥ n − dim U.<br />
Hier hat A den Rang n − dim U, und es gilt m = n − dim U wenn die Zeilen von A linear<br />
unabhängig sind.<br />
Affine Unterräume U ⊆ R n der Dimension dim U, mit −1 ≤ dim U ≤ n, sind die Lösungsmengen<br />
von linearen Gleichungssystemen, wobei ∅ als affiner Unterraum der Dimension −1<br />
betrachtet wird.<br />
“Äußere Beschreibung”: U = {x ∈ R n : Ax = b}, mit A ∈ R m×n , m ≥ n − dim U, b ∈ R n<br />
durch ein lineares Gleichungssystem. Wenn b nicht im Spaltenraum von A liegt, dann ergibt dies<br />
U = ∅. Ansonsten ist b ein Punkt in U, A hat den Rang n − dim U, und es gilt m = n − dim U<br />
wenn die Zeilen von A linear unabhängig sind.<br />
“Innere Beschreibung”: U = b + span{v 1 , . . . , v r }, mit r ≥ dim U. Hier gilt r = dim U wenn<br />
{v 1 , . . . , v r } eine Basis ist. Jeder Basispunkt mit einer (geordneten) Basis liefert uns Koordinaten<br />
für U.<br />
Symmetrischere Alternative: baryzentrische Koordinaten<br />
U = {µ 0 u 0 + · · · + µ r u r : µ 0 , . . . , µ r ∈ R, µ 0 + · · · + µ r = 1},<br />
wobei u 0 , . . . , u r affin erzeugen — zum Beispiel b, b + v 1 , . . . , b + v r .<br />
Unter anderem haben wir als affine Unterräume: Punkte, Geraden, Ebenen (Dimension 2), . . . ,<br />
Hyperebenen (Dimension n − 1). Ein affiner Unterraum hat keinen natürlichen Basispunkt.<br />
1.1.2 Abstände<br />
Standard-Skalarprodukt: 〈x, y〉 := ∑ n<br />
i=1 x iy i .<br />
Norm |x| := √ 〈x, x〉: Längenmessung<br />
Metrik d(x, y) := |x − y| = √ ∑ n<br />
i=1 (x i − y i ) 2 : Abstand zwischen den durch x, y bestimmten<br />
Punkten<br />
3
Dreiecksungleichung: d(x, z) ≤ d(x, y) + d(y, z), mit Gleichheit nur wenn x, y, z in der richtigen<br />
Reihenfolge auf einer (affinen) Geraden liegen.<br />
Theorem 1.1. Im R n gibt es n + 1 Punkte, aber keine n + 2 Punkte, die paarweise voneinander<br />
denselben Abstand haben.<br />
Beweis (für den ersten Teil der Aussage). Betrachte die Punktmenge e 1 , . . . , e n , t(e 1 +· · ·+e n )<br />
(für Abstand √ 2). Das liefert eine quadratische Gleichung für t, mit zwei Lösungen für t.<br />
Problem. Wie viele Punkte kann es im R n geben, zwischen denen nur zwei verschiedene<br />
Abstände auftreten?<br />
— nicht vollständig gelöst!<br />
1.1.3 Orthogonalisierung<br />
Zwei Vektoren x, y ∈ R n sind orthogonal, wenn 〈x, y〉 = 0 gilt.<br />
Orthogonale Projektion eines Punkts x auf eine Hyperebene H = {x ∈ R n : 〈a, x〉 = α}<br />
für a ≠ 0: der eindeutige Bildpunkt ¯x ∈ H lässt sich auf unterschiedliche Weise beschreiben/<br />
charakterisieren, die alle äquivalent sind (Übungsaufgabe! Zeichnung!):<br />
• d(¯x, x) ist minimal für ¯x ∈ H<br />
• 〈x − ¯x, y − ¯x〉 = 0 für alle y ∈ H<br />
• ¯x = x + ta mit t ∈ R so dass ¯x ∈ H<br />
• ¯x = x + α−〈a,x〉 a<br />
〈a,a〉<br />
x<br />
y<br />
x ′<br />
Die Abbildung von x auf ¯x ist linear:<br />
⃗a<br />
x ↦−→ x +<br />
α − 〈a, x〉<br />
a.<br />
〈a, a〉<br />
Vgl. Gram-Schmidt Orthogonalisierung aus der Linearen Algebra!<br />
Orthogonale Projektion auf einen affinen Unterraum: Genauso!<br />
1.1.4 Sphären und Bälle<br />
Sphäre S n−1 := {x ∈ R n : |x| = 1}, bzw. S(x 0 , r) := {x ∈ R n : |x − x 0 | = r} für x 0 ∈ R n ,<br />
r > 0.<br />
Ball B n := {x ∈ R n : |x| ≤ 1}, bzw. B(x 0 , r) := {x ∈ R n : |x − x 0 | ≤ r}.<br />
4
1.1.5 Winkel<br />
Den Winkel ∢(x, y) zwischen zwei Vektoren x, y ≠ 0 definieren wir als den Abstand zwischen<br />
x ′ := 1 x und |x| y′ := 1 y, aber gemessen auf der Einheitssphäre |y| Sn−1 := {x ∈ R n : |x| = 1}.<br />
Damit liegen alle Winkel im Intervall [0, π]. Man überlegt sich (Trigonometrie!), dass dann<br />
|x ′ − y ′ | = 2 sin( α) ist, also α = 2 2 sin−1 ( 1 2 |x′ − y ′ |).<br />
y<br />
y ′<br />
x<br />
α<br />
2<br />
x ′<br />
Oder man überlegt sich (Gram-Schmidt Orthogonalisierung! Zeichnung!), dass für x ′′ := 〈x,y〉<br />
das Dreieck 0x ′′ y rechtwinklig ist — und deshalb cos α = |x′′ |<br />
|y|<br />
y<br />
= 〈x,y〉<br />
|x||y| .<br />
〈x,x〉 x<br />
α<br />
x ′′<br />
x<br />
Das liefert<br />
〈x, y〉 =: |x||y| cos α.<br />
Lemma 1.2 (Winkel sind additiv. Dreiecksungleichung für Winkel!). Für Vektoren x, y, z ≠ 0<br />
gilt<br />
∢(x, z) ≤ ∢(x, y) + ∢(y, z),<br />
mit Gleichheit nur wenn x, y, z linear abhängig sind, mit y “zwischen” x und z.<br />
Beweis. Dreiecksungleichung auf der Sphäre.<br />
1.1.6 Volumen<br />
Volumen kann man für “geeignete” Teilmengen A ⊆ R n unterschiedlich definieren:<br />
5
1. elementar: Zerschneiden und Zusammensetzen (Isometrien)<br />
2. mit Hilfe der Determinantenfunktion (für Würfel, Spate, etc.)<br />
3. Riemann’sches Volumen: mit kleinen Würfelchen ausschöpfen (vgl. Analysis-Vorlesung).<br />
Das führt zu dem Riemann-Integral vol(A) := ∫ A 1dx.<br />
Die Volumengleichheit z.B. von Parallelotopen, also Formeln von der Form<br />
vol{λ 1 a 1 + · · · + λ n a n : 0 ≤ λ i ≤ 1} = | det(a 1 , . . . , a n )|<br />
folgen leicht mit Hilfe von Analysis-Methoden — aber lässt sich lässt sich Volumengleichheit<br />
von Polyedern “elementar” durch Zerlegungsgleichheit in kongruente Stücke begründen? Das<br />
war “Hilberts drittes Problem”; es wurde von Dehn negativ gelöst: Es gibt Tetraeder mit gleicher<br />
Grundfläche und gleicher Höhe, die nicht “zerlegungsgleich” sind. Siehe [1, Kap. 9] [2] .<br />
1.2 Hochdimensionale Effekte<br />
1.2.1 Volumen von Kugel und Würfel<br />
Das Volumen der Kugel vom Radius 1<br />
Vol(B n ) =<br />
Γ( n 2<br />
π n/2<br />
πn/2<br />
∼<br />
n<br />
+ 1) ! ∼<br />
2<br />
( 2πe<br />
) n/2<br />
n<br />
ist für großes n (d.h. in hoher Dimension) verschwindend klein verglichen mit dem Volumen<br />
Vol([−1, 1] n ) = 2 n .<br />
Daher die Zeichnung (auf Anregung von Vitaly Milman, 1998), die die Sphäre wie eine Amöbe<br />
zeigt?<br />
Wer einen zufälligen Punkt in der Einheitskugel konstruieren will, kann also nicht einfach Zufallswerte<br />
in [−1, 1] n nehmen . . .<br />
1.2.2 Lange Diagonalen im Würfel<br />
Setzen wir 2 n Bälle vom Radius 1 an die Ecken des n-Würfels [−1, 1] n , dann berühren die sich<br />
gerade. Alle Bälle sind in [−2, 2] n enthalten.<br />
Setzen wir noch einen möglichst großen Ball in den Mittelpunkt, so dass der die anderen Bälle<br />
gerade berührt. Radius: √ n − 1.<br />
Für n > 4 ist der innere Ball größer als die äußeren. Für n > 9 ragt er sogar aus dem Würfel<br />
[−2, 2] n heraus! (Siehe Matoušek [4, Chap. 13])<br />
1.2.3 Das Kusszahl-Problem<br />
“Kusszahl”-Problem: Für n = 3 können 12 Einheitskugeln eine gegebene Einheitskugel berühren<br />
(Ikosaeder, siehe Hausaufgabe!), aber nicht mehr (Newton-Gregory Problem).<br />
Betrachten wir die Konfiguration im vorigen Abschnitt für n = 4, dann ist ist der innere Ball<br />
eine Einheitskugel, und genauso groß wie die äußeren. Und man kann 8 weitere Bälle an die<br />
6
Mittelpunkte ±2e i setzen, die die Eckbälle nur berühren — das gibt eine Konfiguration von 24<br />
Kugeln vom Radius 1, die gleichzeitig die Einheitskugel berühren, ohne sich zu überlappen.<br />
Diese 24er-Konfiguration ist in verschiedenster Hinsicht außergewöhnlich; sie definiert ein 4-<br />
dimensionales reguläres Polytop mit 24 Seitenflächen, die allesamt Oktaeder sind, und sie ist<br />
hochsymmetrisch. Dieses “24-Zell” wurde von Ludwig Schläfli um 1850 entdeckt, als er die<br />
regulären Polytope in Dimension n ≥ 4 klassifiziert hat. (Siehe z.B. Hilbert & Cohn-Vossen<br />
[3])<br />
Für d = 4 ist die Zahl 24 von Berührkugeln maximal — das wurde von Musin 2008 bewiesen<br />
[5] [6]. Und man nimmt auch an, dass die Konfiguration eindeutig ist — das ist aber nicht<br />
bewiesen.<br />
Eine optimale Konfiguration kennt man auch für n = 8 und für n = 24, aber sonst für keine<br />
Dimension n ≥ 5<br />
1.3 Kongruenztransformationen<br />
1.3.1 Translationen<br />
Translationen: T a : R n → R n , x ↦→ x + a.<br />
Die Translationen sind Isometrien, das heißt, d(T a (x), T a (y)) = d(x, y) gilt für alle x, y.<br />
Die Translationen bilden eine abelsche Gruppe, die wir mit (R n , +) identifizieren können.<br />
1.3.2 Orthogonale Abbildungen<br />
Proposition 1.3. Isometrien, die den Nullpunkt festhalten, sind orthogonale Abbildungen.<br />
Solche Abbildungen sind also insbesondere linear, und können also in der Form x ↦→ Ax beschrieben<br />
werden, mit orthogonaler Matrix A.<br />
Beweis. Sei f : R n → R n Isometrie mit f(0) = 0. Dann gilt insbesondere |f(x)| = |x| für alle<br />
x, und deshalb 〈f(x), f(y)〉 = 〈x, y〉 wegen Polarisation:<br />
〈x, y〉 = 1 2 (|x|2 + |y| 2 − |x − y| 2 ).<br />
Nun sei e 1 , . . . , e n eine Orthonormalbasis (ONB), zum Beispiel die Standardbasis (wir setzen<br />
ja das Standardskalarprodukt voraus). Dann gilt für jeden Vektor<br />
x =<br />
n∑<br />
〈x, e i 〉e i ,<br />
i=1<br />
und deshalb, weil auch f(e 1 ), . . . , f(e n ) eine ONB ist, und weil f das Skalarprodukt erhält,<br />
n∑<br />
f(x) = 〈f(x), f(e i )〉f(e i ) =<br />
i=1<br />
Daran sieht man, dass f linear ist.<br />
n∑<br />
〈x, e i 〉f(e i ).<br />
i=1<br />
Lemma 1.4. Eine lineare Abbildung x ↦→ Ax is genau dann orthogonal, wenn eine der folgenden<br />
äquivalenten Bedingungen gilt:<br />
7
• sie eine Orthonormalbasis auf eine Orthonormalbasis abbildet,<br />
• sie jede Orthonormalbasis auf eine Orthonormalbasis abbildet,<br />
• die Spalten von A eine Orthonormalbasis bilden,<br />
• A t A = E n ,<br />
• die Zeilen von A eine Orthonormalbasis bilden.<br />
Jede orthogonale Abbildung hat Determinante +1 oder −1. Die orthogonalen Abbildungen<br />
des R n (und damit die darstellenden Matrizen) bilden eine Gruppe, die orthogonale Gruppe<br />
O(n) = {A ∈ R n : A t A = E n }.<br />
Die orientierungserhaltenden orthogonalen Abbildungen bilden eine Untergruppe, die spezielle<br />
orthogonale Gruppe<br />
SO(n) = {A ∈ R n : A t A = E n , det A = 1}.<br />
Die Gruppen O(n) ist nicht kommutativ für n ≥ 2, SO(n) ist nicht kommutativ für n > 2.<br />
Theorem 1.5 (Normalformsatz für orthogonale Abbildungen). Für jedes orthogonale Abbildung<br />
R n → R n gibt es eine Zerlegung des R n in ein- und zweidimensionale invariante orthogonale<br />
Unterräume, so dass<br />
– auf jedem der ein-dimensionalen invarianten Unterräumen ist die Abbildung die Identität<br />
oder ihr Negatives,<br />
– auf jedem der zwei-dimensionalen invarianten Unterräumen ist die Abbildung eine Drehung<br />
um einen Winkel im Intervall ]0, π[.<br />
Äquivalent dazu: für jede orthogonale Matrix A ∈ O(n) gibt es S ∈ O(n) so dass S −1 AS eine<br />
Blockdiagonalmatrix ist<br />
S −1 AS = diag(1, . . . , 1, −1, . . . , −1, D(α 1 ), . . . , D(α k ))<br />
mit Einsen, Minus-Einsen ( und)<br />
2 × 2 Drehmatrizen zu Winkeln 0 < α i < π auf der Diagonale,<br />
cos α − sin α<br />
also D(α) =<br />
.<br />
sin α cos α<br />
Lemma 1.6. Jede orthogonale Abbildung der Determinante +1 kann stetig (innerhalb der<br />
Gruppe O(n)!) in die Identität deformiert werden.<br />
Jede orthogonale Abbildung der Determinante −1 kann stetig in die Spiegelung s 1 : x ↦→<br />
x − 2x 1 e 1 deformiert werden.<br />
Korollar 1.7. Für n ≥ 1 hat die Gruppe O(n) ⊆ R n×n zwei Zusammenhangskomponenten,<br />
nämlich die spezielle orthogonale Gruppe SO(n) und die Nebenklasse SO(n)s 1 = {A ∈ R n :<br />
A t A = E n , det A = −1}.<br />
Korollar 1.8. Jede orthogonale Abbildung des R n kann aus höchstens n Spiegelungen an<br />
Hyperebenen durch den Nullpunkt erzeugt werden. Im Allgemeinen reichen dafür jedoch n − 1<br />
Spiegelungen nicht aus.<br />
8
1.3.3 Allgemeine Kongruenztransformationen<br />
Die Gruppe der Isometrien des R n (also der “euklidischen Bewegungen” oder “Kongruenztransformationen”)<br />
enthält einerseits die Untergruppe der Translationen — die wir mit R n identifizieren<br />
— andererseits die orthogonalen Abbildungen, also die Isometrien, die den Nullpunkt<br />
festlassen.<br />
Die Schnittmenge zwischen diesen beiden Untergruppen enthält nur die Nullabbildung (die<br />
einzige Translation, die den Nullpunkt festlässt).<br />
Jede Isometrie f : R n → R n kann man als “orthogonale Abbildung gefolgt von einer Translation”<br />
beschreiben, also als f : x ↦→ Ax + b für A ∈ O(n) und b ∈ R n . Dabei sind b = f(0) und<br />
damit auch A durch f eindeutig festgelegt.<br />
Theorem 1.9. Die volle Gruppe der euklidischen Bewegungen ist<br />
Eukl(n) = {f : f(x) = Ax + b für ein A ∈ O(n), b ∈ R n }.<br />
Achtung: Trotzdem ist die Gruppe der euklidischen Bewegungen nicht einfach das Produkt<br />
R n × O(n), weil die Translationen und die orthogonalen Abbildungen nicht kommutieren. Sie<br />
kann strukturell beschrieben werden als ein semidirektes Produkt “R n ⋊ O(n)”, das gebildet<br />
werden kann, weil die Gruppe der orthogonalen Abbildungen O(n) als eine Gruppe von Automorphismen<br />
auf der Gruppe der Translationen (isomorph zu R n ) wirkt. In dem semidirekten<br />
Produkt bilden die Translationen eine normale Untergruppe: Jede Konjugation einer Translation<br />
x ↦→ x + a hat die Form<br />
ist also eine Translation.<br />
x ↦→ S −1 (((Sx + b) + a) − b) = x + S −1 a,<br />
1.3.4 Erzeugung durch Spiegelungen<br />
Die Spiegelung an der Hyperebene H = {x ∈ R n : 〈a, x〉 = α} bildet x auf x + 2ta ab, wenn<br />
x ↦→ x + ta die Projektion auf die Hyperebene ist:<br />
x ↦−→ x + 2 α−〈a,x〉<br />
〈a,a〉<br />
a.<br />
Spiegelung in einem affinen Unterraum: Genauso!<br />
Korollar 1.10. Jede Kongruenztransformation im R n kann als Produkt von höchstens n + 1<br />
Spiegelungen an Hyperebenen dargestellt werden — von denen alle, bis auf möglicherweise die<br />
letzte, Hyperebenen durch den Nullpunkt sind.<br />
Im Allgemeinen reichen dafür jedoch n Spiegelungen nicht aus.<br />
Beweis. Dazu stellen wir die Kongruenztransformation als “orthogonale Abbildung gefolgt von<br />
einer Spiegelung” dar.<br />
9
1.3.5 Hauptsatz der Euklidischen <strong>Geometrie</strong><br />
Theorem 1.11. Sind p 0 , . . . , p m und p ′ 0, . . . , p ′ m Punkte im R n mit<br />
d(p i , p j ) = d(p ′ i, p ′ j)<br />
für alle i, j (0 ≤ i < j ≤ m),<br />
so gibt es eine euklidische Transformation f : R n → R n , x ↦→ Ax + b, mit A ∈ O(n) und<br />
b ∈ R n , so dass f(p i ) = p ′ i für alle i gilt, 0 ≤ i ≤ m.<br />
Wenn die Punkte p i nicht alle auf einer Hyperebene liegen (was insbesondere m ≥ n erzwingt),<br />
dann ist diese euklidische Transformation eindeutig bestimmt.<br />
Beweis. Nach einer Verschiebung um den Vektor b := p ′ 0 − p 0 dürfen wir annehmen, dass<br />
p 0 = p ′ 0 = 0 ist.<br />
Nun wenden wir das Gram–Schmidt-Verfahren auf die Vektoren p 0 , . . . , p m an, und erhalten<br />
daraus eine Orthogonalbasis ̂p 0 , . . . , ̂p n . Achtung: wenn die Vektoren p i nicht linear unabhängig<br />
sind, können dabei einige Vektoren durchaus Null ergeben – diese werden dann nicht weiter<br />
berücksichtigt. Wenn die Vektoren nicht aufspannen, wird am Ende zu einer Orthogonalbasis<br />
ergänzt – in diesem Fall ist die Basis ̂p 0 , . . . , ̂p n nicht eindeutig durch die Folge p 0 , . . . , p m<br />
bestimmt.<br />
Genauso erzeugen wir mit dem Gram–Schmidt-Verfahren aus der Folge p ′ 0, . . . , p ′ m von Vektoren<br />
eine Orthogonalbasis ̂p 0 , . . . , ̂p n . Dabei läuft das Gram–Schmidt-Verfahren ganz analog<br />
ab, mit denselben Koeffizienten, weil nämlich die Koeffizienten aus Skalarprodukten zwischen<br />
den Vektoren entstehen, und diese (Polarisierung!) durch die Normen der Vektoren und ihrer<br />
Differenzen bestimmt sind, und diese Daten sind nach Annahme für die Folgen p 0 , . . . , p m und<br />
p ′ 0, . . . , p ′ m gleich.<br />
Nun definiert die Vorschrift f : ̂p j ↦→ ̂p ′ j eine orthogonale Abbildung f (weil sie eine ONB auf<br />
eine ONB abbildet). Die Tatsache, dass die ̂p j mit denselben Koeffizienten aus den p i gewonnen<br />
werden, wie die ̂p ′ j aus den p ′ i ergibt insbesondere, dass auch die p i mit denselben Koeffizienten<br />
aus den ̂p j dargestellt werden können wie die p ′ i aus den ̂p ′ j. Also bildet f auch p i auf p ′ i ab.<br />
In dem Fall, dass keine Basisergänzung nötig ist, die p i also den R n aufspannen, ist die Abbildung<br />
f sogar eindeutig.<br />
Korollar 1.12 (Kongruenzsatz “SSS”). Wenn zwei Dreiecke im R n gleiche Seitenlängen haben,<br />
dann sind sie kongruent.<br />
1.3.6 Freiheitsgrade<br />
Bemerkung 1.13 ( Freiheitsgrade“ — Dimension der Gruppe der Kongruenztransformationen).<br />
”<br />
Jede Kongruenztransformation bildet (0, e 1 , . . . , e n ) auf orthogonalen Rahmen ab. Für den ersten<br />
Punkt liegt das Bild beliebig im R n , der zweite liegt auf einer (n−1)-dimensionalen Sphäre,<br />
der nächste auf einer (n − 2)-Sphäre, usw. Daher ist die Anzahl der Freiheitsgrade“ insgesamt<br />
”<br />
n + (n − 1) + · · · + 1 = 1 (n + 1)n.<br />
2<br />
Alternative Rechnung: wir müssen die Bilder von n + 1 Punkten festlegen, das sind (n + 1)n<br />
Variable, aber es gibt ( )<br />
n+1<br />
2 Bedingungen/paarweise Distanzen, also ist die Anzahl der Freiheitsgrade:<br />
(n + 1)n − ( )<br />
n+1<br />
2 =<br />
1(n + 1)n.<br />
2<br />
Technisch (Analysis III): die Gruppe ist eine Lie-Gruppe, also insbesondere eine Mannigfaltigkeit<br />
der Dimension ( ) (<br />
n<br />
2 + n = n+1<br />
)<br />
2 =<br />
1n(n + 1).<br />
2<br />
10
Literatur<br />
[1] Martin Aigner and Günter M. Ziegler. Das BUCH der Beweise. Springer-Verlag, Heidelberg Berlin,<br />
third edition, 2009.<br />
[2] V. G. Boltianskii. Hilbert’s Third Problem. V. H. Winston & Sons (Halsted Press, John Wiley &<br />
Sons), Washington DC, 1978.<br />
[3] David Hilbert and Stephan Cohn-Vossen. Anschauliche <strong>Geometrie</strong>. Springer-Verlag, Berlin Heidelberg,<br />
1932. Second edition 1996. English translation: Geometry and the Imagination, Chelsea Publ.,<br />
1952.<br />
[4] Jiří Matoušek. Lectures on Discrete Geometry, volume 212 of Graduate Texts in Math. Springer-<br />
Verlag, New York, 2002.<br />
[5] Oleg R. Musin. The kissing number in four dimensions. Annals of Mathematics, 168:1–32, 2008.<br />
[6] Florian Pfender and Günter M. Ziegler. Kissing numbers, sphere packings, and some unexpected<br />
proofs. Notices of the AMS, 51(8):873–883, September 2004.<br />
11
2 Affine <strong>Geometrie</strong><br />
2.1 Affine Transformationen<br />
Definition 2.1. Eine Abbildung f : R n → R m heißt affin, wenn<br />
f(λx + (1 − λ)y) = λf(x) + (1 − λ)f(y)<br />
gilt für alle x, y ∈ R n und λ ∈ R.<br />
Sie heißt Affinität, wenn sie bijektiv ist (was insbesondere m = n impliziert).<br />
Eine affine Abbildung ist also eine Abbildung, die Geraden auf Geraden abbildet, und auf den<br />
Geraden Teilungsverhältnisse erhält (z.B. Mittelpunkte).<br />
Bemerkung 2.2. Die erste Bedingung reicht nicht allein, wie man z.B. am Fall m = n = 1 sieht.<br />
(Man kann aber zeigen, dass für n ≥ 2 sogar jede Abbildung f : R n → R n , die Geraden auf<br />
Geraden abbildet, eine Affinität ist — für n ≥ 2 und über den reellen Zahlen braucht man also<br />
die Voraussetzung über Teilungsverhältnisse nicht.) Siehe Fischer [2, Abschnitt 1.3].<br />
Proposition 2.3. f : R n → R m ist genau dann affin, wenn es eine Matrix A ∈ R m×n und einen<br />
Vektor b ∈ R m gibt mit f(x) = Ax + b für alle x ∈ R n .<br />
f : R n → R n ist genau dann eine Affinität, wenn es eine Matrix A ∈ GL(n, R) = {A ∈ R n×n :<br />
det A ≠ 0} und einen Vektor b ∈ R m gibt mit f(x) = Ax + b für alle x ∈ R n .<br />
Lemma 2.4. Wenn f affin ist, dann gilt<br />
f(λ 1 x 1 + · · · + λ k x k ) = λ 1 f(x 1 ) + · · · + λ k f(x k )<br />
für k ≥ 1, x 1 , . . . , x k ∈ R n , λ 1 , . . . , λ k ∈ R mit λ 1 + · · · + λ k = 1.<br />
Beweis. Für k = 1 ist das trivial. Für k > 1 können nicht alle λ i gleich 1 sein, also können wir<br />
annehmen, dass λ 1 ≠ 1 ist, und dann argumentieren wir mit Induktion:<br />
f(λ 1 x 1 + · · · + λ k x k ) = f(λ 1 x 1 + (1 − λ 1 )( x 2 · · · + λ 2<br />
x k )).<br />
1 − λ 1 1 − λ 1<br />
λ 2<br />
Ende 26.4.2011<br />
Korollar 2.5. Die Affinitäten f : R n → R m bilden eine Gruppe, nämlich<br />
Affin(n) = {f : f(x) = Ax + b für ein A ∈ GL(n), b ∈ R n } ∼ = R n ⋊ GL(n).<br />
Beweis. Die Umkehrabbildung zu f(x) = Ax+b ist f −1 (x) = A −1 (x−b) = A −1 x+(−A −1 b).<br />
Man kann sich überlegen, dass auch Affin(n) zwei Zusammenhangskomponenten hat, die durch<br />
det A > 0 bzw. det A < 0 gegeben sind.<br />
12
2.1.1 Hauptsatz der Affinen <strong>Geometrie</strong><br />
Definition 2.6 (affin unabhängig, affine Basis). Punkte p 0 , . . . , p k ∈ R n heißen affin unabhängig,<br />
wenn es keine nichttriviale affine Abhängigkeit λ 0 p 0 + · · · + λ k p k = 0, λ 0 + · · · + λ k = 0 gibt;<br />
äquivalent, wenn es für jeden der Punkte eine affine Hyperebene gibt, die den Punkt nicht enhält,<br />
alle anderen aber schon.<br />
Jede maximale Menge von affin unabhängigen Punkten bildet eine affine Basis. (Eine affine<br />
Basis ist also einfach eine Menge von n + 1 affin unabhängigen Punkten.)<br />
k + 1 affin unabhängige Punkte bilden die Ecken eines k-dimensionalen Simplex (Punkt für<br />
k = 0, Strecke für k = 1, Dreieck für k = 2, Tetraeder für k = 3).<br />
Definition 2.7 (Affiner Spann, affine Hülle). Für p 0 , . . . , p k ∈ R n heißt<br />
aff(p 0 , . . . , p k ) := {λ 0 p 0 + · · · + λ k p k : λ 0 + · · · + λ k = 1}<br />
der affine Spann oder die affine Hülle von p 0 , . . . , p k .<br />
Lemma 2.8 (Baryzentrische Koordinaten). Sind p 0 , . . . , p k ∈ R n affin unabhängig, so hat jeder<br />
Punkt x ∈ aff(p 0 , . . . , p k ) eine eindeutige Darstellung in der Form x = λ 0 p 0 + · · · + λ k p k mit<br />
λ 0 + · · · + λ k = 1.<br />
Die Koeffizienten λ 0 , . . . , λ k heißen dann die baryzentrischen Koordinaten von x. Insbesondere<br />
heißt der Punkt x 0 = 1 (p k+1 0 + · · · + p k ) das Baryzentrum oder der Schwerpunkt der Punkte<br />
p 0 , . . . , p k .<br />
Theorem 2.9 (Hauptsatz der Affinen <strong>Geometrie</strong>). Seien p 0 , . . . , p m und p ′ 0, . . . , p ′ m zwei Folgen<br />
von Punkten im R n . Dann gibt es eine Affinität f : R n → R n , x ↦→ Ax + b, mit A ∈ GL(n) und<br />
b ∈ R n mit f(p i ) = p ′ i, 0 ≤ i ≤ k, dann und nur dann, wenn zwischen den Punkten p i bzw. p ′ i<br />
dieselben affinen Abhängigkeiten (mit denselben Koeffizienten) bestehen.<br />
Die Abbildung existiert also insbesondere, wenn die Punktfolgen p 0 , . . . , p m und p ′ 0, . . . , p ′ m<br />
affin unabhängig sind. Wenn die Punktfolgen affine Basen sind (also insbesondere k = n), dann<br />
ist die Affinität eindeutig bestimmt.<br />
Beweis. Klar?<br />
Jede Affinität<br />
• bildet Geraden auf Geraden ab,<br />
• bildet parallele Geraden auf parallele Geraden ab,<br />
• erhält Strecken-/Teilungsverhältnisse entlang von Geraden,<br />
• erhält Volumenverhältnisse.<br />
13
Welche dieser Eigenschaften reicht zur Charakterisierung von Affinitäten?<br />
Proposition 2.10. f : R n → R n ist genau dann eine Affinität, wenn sie Volumenverhältnisse<br />
erhält, wenn es also eine Konstante α ∈ R, α ≠ 0, gibt mit<br />
det(f(p 1 ) − f(p 0 ), . . . , f(p n ) − f(p 0 )) = α det(p 1 − p 0 , . . . , p n − p 0 )<br />
für alle p 0 , . . . , p n ∈ R n .<br />
Beweis. Offenbar erhält jede Affinität f(x) = Ax + b Volumenverhältnisse, mit α = det A.<br />
Wenn umgekehrt f Volumenverhältnisse erhält, so bildet f Punkte auf einer Geraden auf Punkte<br />
auf einer Geraden ab — andernfalls findet man eine “affine Basis”, die auf eine “affine Nicht-<br />
Basis” abgebildet wird.<br />
Korollar 2.11. Die volumenerhaltenden Abbildungen R n → R n sind genau die Affinitäten der<br />
Determinante 1, bilden also die Gruppe<br />
{f : f(x) = Ax + b für ein A ∈ SL(n), b ∈ R n } ∼ = R n ⋊ SL(n),<br />
wobei SL(n) die spezielle lineare Gruppe SL(n) = {A ∈ R n×n : det A = 1 bezeichnet.<br />
Bemerkung 2.12 ( ”<br />
Freiheitsgrade“ — Dimension der Gruppe der affinen Transformationen).<br />
Eine Affinität ist durch die Bilder von n + 1 Punkten einer affinen Basis festgelegt, und diese<br />
können (generisch) frei gewählt werden. Also ist die Anzahl der Freiheitsgrade und die Dimension<br />
der Gruppe Affin(n) gleich (n + 1)n.<br />
In der Tat ist {(A, b) : det A ≠ 0} eine offene Teilmenge des R n×(n+1) .<br />
2.2 Anwendungen<br />
Proposition 2.13 (Die Seitenhalbierenden schneiden sich.). In jedem Dreieck schneiden sich<br />
die Verbindungslinien von den Ecken zu den gegenüberliegenden Seitenmittelpunkten.<br />
Beweis. Die Behauptung ist invariant unter affinen Transformationen, also können wir annehmen,<br />
dass wir es mit einem gleichseitigen Dreieck zu tun haben.<br />
C<br />
C ′<br />
M b<br />
M ′ b<br />
S ′<br />
M ′ a<br />
A<br />
S<br />
M a<br />
A ′ B ′<br />
M ′ c<br />
M c<br />
B<br />
14
Entsprechend höherdimensional: Baryzentren.<br />
Proposition 2.14 (Satz von Ceva). In jedem Dreieck schneiden sich die Verbindungslinien von<br />
den Ecken A, B, C zu Punkten A ′ , B ′ , C ′ auf den gegenüberliegenden Seiten dann und nur dann,<br />
wenn<br />
AC ′ BA ′ CB ′<br />
C ′ B A ′ C B ′ A = 1.<br />
Beweis. Invariant unter affinen Transformationen, also können wir annehmen, dass wir es mit<br />
einem gleichschenkligen rechtwinkligen Dreieck A = (0, 0), B = (1, 0), C = (0, 1) zu tun<br />
haben.<br />
Für dieses Dreieck rechnet man die Behauptung dann leicht(er) nach.<br />
Merke: Koordinatentransformationen ausnutzen!<br />
Dto: “Der Satz von Menelaus” über die Schnittpunkte einer Geraden mit den (verlängerten)<br />
Kanten eines Dreiecks.<br />
Quelle: Brannan et al. [1, Sect. 2.4]<br />
Literatur<br />
[1] David A. Brannan, Matthew F. Esplen, and Jeremy J. Gray. Geometry. Cambridge University Press,<br />
Cambridge, 1999.<br />
[2] Gerd Fischer. Analytische <strong>Geometrie</strong>. Vieweg, Wiesbaden, 2001. 7. Auflage.<br />
15
3 Kegelschnitte und Quadriken<br />
3.1 Kegelschnitte und ihre Eigenschaften<br />
Vorbemerkung: Quadriken (Lösungsmengen von quadratischen Gleichungen in n Variablen)<br />
werden für n = 2 oft mit Kegelschnitten “identifiziert”. Aussagen wie “Für n = 2 nennen wir<br />
die Quadriken Kegelschnitte” verdecken aber<br />
◦ die naheliegende Definition von Kegelschnitten als “Schnitten eines (Doppel-)Kegels mit<br />
einer Ebene”<br />
◦ die Tatsache, dass zum Beispiel die leere Menge zwar eine Quadrik ist, aber kein Schnitt<br />
eines Kegels,<br />
◦ die Frage, wann zwei Quadriken bzw. zwei Kegelschnitte gleich/äquivalent sind.<br />
Im Folgenden werden wir<br />
◦ Kegelschnitte als Schnitte eines (Doppel-)Kegels mit einer Ebene definieren, und (bis auf<br />
Kongruenz-/Isometrie) klassifizieren<br />
◦ Quadriken als Lösungsmengen von quadratischen Gleichungen definieren, durch Matrizen<br />
darstellen, bis auf Isometrie klassifizieren, und auch bis auf affine Transformationen klassifizieren<br />
(jeweils mit “Normalform”)<br />
◦ ableiten, dass für n = 2 die Kegelschnitte (bis auf Isometrie) genau die nicht-leeren Quadriken<br />
sind (Ausnahme: zwei parallele Geraden sind auch eine Quadrik, aber kein Kegelschnitt).<br />
3.1.1 Kegelschnitte<br />
Unser Augangspunkt ist der Kreiskegel C = {(x 1 , x 2 , x 3 ) ∈ R 3 : x 2 1 + x 2 2 = x 2 3} (der ja<br />
eigentlich ein Doppelkegel ist). Wir schreiben ihn für das Folgende einfacher als<br />
C = {(x, y, z) ∈ R 3 : x 2 + y 2 = z 2 }.<br />
Schneidet man C mit einer Ebene E, so erhält man zum Beispiel<br />
◦ für Schnitt mit z = c: einen Kreis, bzw. für c = 0 einen Punkt,<br />
◦ für Schnitt mit y = c: eine Hyperbel, bzw. für c = 0 zwei sich schneidende Geraden,<br />
◦ für Schnitt mit z = y + c: Parabel, Doppelgerade<br />
Definition 3.1. Eine Teilmenge Q ⊂ R 2 ist ein Kegelschnitt, wenn es eine Isometrie zwischen<br />
R 2 und einer Ebene E ⊂ R 3 gibt, unter der Q auf C ∩ E abgebildet wird, also auf den Schnitt<br />
der Ebene E mit dem Doppelkreiskegel C = {(x, y, z) ∈ R 3 : x 2 + y 2 = z 2 }<br />
Wir betrachten also jetzt einen Schnitt von C mit einer beliebigen Ebene E, wobei wir die<br />
Schnitte bis auf Isometrie klassifizieren. Wir können dabei die Symmetrien des Kreiskegels<br />
ausnutzen, also annehmen, dass wir eine Ebene der Form z = c, c ≥ 0 betrachten, die wir dann<br />
um einen Winkel ϕ, 0 ≤ ϕ ≤ π /2 (also um höchstens 90 Grad) um die x-Achse “kippen”.<br />
Wir überlegen uns, dass die Isometrie, die Punkte der Ebene z = 0 auf eine solche “allgemeine”<br />
Ebene gegeben ist, wie folgt abbildet:<br />
⎛<br />
⎝<br />
x<br />
y<br />
0<br />
⎞<br />
⎠ ↦−→<br />
⎛<br />
⎝<br />
x<br />
y<br />
0<br />
⎞<br />
⎛<br />
⎠+ ⎝<br />
0<br />
0<br />
c<br />
⎞<br />
⎠ =<br />
⎛<br />
⎝<br />
x<br />
y<br />
c<br />
⎞<br />
⎠ ↦−→<br />
16<br />
⎛<br />
⎝<br />
1 0 0<br />
0 cos ϕ − sin ϕ<br />
0 sin ϕ cos ϕ0<br />
⎞ ⎛<br />
⎠ ⎝<br />
x<br />
y<br />
c<br />
⎞<br />
⎠ =<br />
⎛<br />
⎝<br />
x<br />
cos ϕ y − sin ϕ c<br />
sin ϕ y + cos ϕ c<br />
⎞<br />
⎠ .
Die Bildpunkte dieser Transformation müssen also die Gleichung des Kreiskegels erfüllen:<br />
x 2 + (cos ϕ y − sin ϕ c) 2 = (sin ϕ y + cos ϕ c) 2 .<br />
Vereinfachung dieser Gleichung, unter Verwendung von cos 2 ϕ−sin 2 ϕ = cos 2ϕ und 2 cos ϕ sin ϕ =<br />
cos 2ϕ ergibt<br />
x 2 + (cos 2ϕ)y 2 − 2c sin 2ϕ y = (cos 2ϕ)c 2<br />
Fall 1. Für ϕ = π /4, also cos 2ϕ = 0 und sin 2ϕ = 1 ergibt dies<br />
x 2 − 2c y = 0<br />
also für c > 0 eine Parabel y = 1 2c x2 , und für c = 0 eine Gerade (genauer eine Doppelgerade)<br />
x 2 = 0.<br />
Nehmen wir also jetzt ϕ ≠ π /4 an, so können wir durch cos 2ϕ teilen und quadratisch ergänzen,<br />
und erhalten<br />
x 2<br />
cos 2ϕ + (y − 2c tan 2ϕ)2 = (1 + tan 2 2ϕ)c 2 .<br />
Wenn wir jetzt y − 2c tan 2φ einfach durch y ersetzen, so entspricht das einer Translation, also<br />
einer Isometrie, und wir erhalten<br />
x 2<br />
cos 2ϕ + y2 =<br />
c2<br />
cos 2 2ϕ .<br />
Fall 2. Für 0 ≤ ϕ < π /4 ist cos 2ϕ > 0, dann ist das für c > 0 die Gleichung einer Ellipse, die<br />
man mit a 2 cos 2ϕ<br />
:= und b 2 := cos2 2ϕ<br />
auf die Normalform<br />
c 2<br />
c 2<br />
x 2<br />
a 2 + y2<br />
b 2 = 1 mit a, b > 0<br />
bringen kann; für c = 0 erhält man entsprechend mit a 2 := cos 2ϕ und b 2 := cos 2 2ϕ<br />
x 2<br />
a 2 + y2<br />
b 2 = 0 mit a, b > 0<br />
also den Punkt (0, 0).<br />
Fall 3. Für π /4 < ϕ ≤ π /2 ist cos 2ϕ < 0, dann ist das für c > 0 die Gleichung einer Hyperbel,<br />
die man mit a 2 cos 2ϕ<br />
:= − und b 2 := cos2 2ϕ<br />
auf die Normalform<br />
c 2<br />
c 2<br />
− x2<br />
a 2 + y2<br />
b 2 = 1 mit a, b > 0<br />
bringen kann; für c = 0 erhält man entsprechend mit a 2 := −cos 2ϕ und b 2 := cos 2 2ϕ<br />
− x2<br />
a 2 + y2<br />
b 2 = 0 mit a, b > 0<br />
also zwei sich schneidende Geraden bx = ±ay.<br />
Damit haben wir im Wesentlichen den folgenden Satz bewiesen — dessen Zusatz man auch<br />
leicht verifiziert.<br />
17
Theorem 3.2. Die Schnitte des Kreiskegels C = {(x, y, z) ∈ R 3 : x 2 + y 2 = z 2 } mit einer<br />
Ebene im R 3 sind isometrisch zu genau einer der folgenden sechs ebenen Mengen:<br />
1. eine Ellipse x2 + y2<br />
= 1 mit a, b > 0,<br />
a 2 b 2<br />
2. eine Parabel y = ax 2 mit a > 0,<br />
3. eine Hyperbel − x2 + y2<br />
= 1 mit a, b > 0,<br />
a 2 b 2<br />
4. zwei sich schneidende Geraden, − x2 + y2<br />
= 0 mit a, b > 0,<br />
a 2 b 2<br />
5. eine Gerade, oder<br />
6. ein Punkt.<br />
Umgekehrt tritt jede dieser Figuren mit den gegebenen Parametern auch als Schnitt auf.<br />
3.1.2 Geometrische Eigenschaften<br />
1. Ellipse. Q = { x2 + y2<br />
= 1}, mit a ≥ b > 0<br />
a 2 b 2<br />
. . . ist affines Bild eines Kreises,<br />
. . . hat zwei aufeinander senkrecht stehende Symmetrieachsen, x = 0 bzw. y = 0, die Hauptachsen;<br />
vergleiche dazu die Zeichnung aus Dürers berühmter “Underweysung der Messung,<br />
mit dem Zirckel und Richtscheyt” [2]:<br />
18
. . . hat vier Scheitelpunkte (±a, 0) und (0, ±b) auf den Hauptachsen (für a = b sind alle Geraden<br />
durch das Zentrum (0, 0) Symmetrieachsen, und alle Punkte auf der Ellipse Scheitelpunkte),<br />
. . . hat Brennpunkte F = (c, 0) und F ′ = (−c, 0), für c := √ a 2 − b 2<br />
(hier verwenden wir a ≥ b; für a = b fallen die Brennpunkte zusammen),<br />
. . . Konstruktion der Brennpunkte mit dem Zirkel! (Kreise mit Mittelpunkt (±a, 0) durch (0, ±b)).<br />
Proposition 3.3 (Drei Eigenschaften/Charakterisierungen der Brennpunkte).<br />
• [“Gärtner-Konstruktion”] Für alle Punkte P = (x 0 , y 0 ) auf der Ellipse gilt<br />
d(F, P ) + d(P, F ′ ) = 2a.<br />
• [Reflexionseigenschaft] Lichtstrahlen, die von einem Brennpunkt ausgehen, und in der<br />
Ellipse reflektiert werden, gehen durch den anderen Brennpunkt; das heißt, die Strecken<br />
F P und F ′ P haben denselben Winkel zur Tangente an die Ellipse in P .<br />
y<br />
b<br />
P<br />
−a<br />
−c<br />
0<br />
c<br />
ax<br />
−b<br />
Ende 3.5.2011<br />
• [Dandelin’sche Kugeln] 3-dimensionale geometrische Konstruktion<br />
19
Lemma 3.4 (Tangentengleichung). Die Tangente an die Ellipse x2<br />
a 2<br />
(x 0 , y 0 ) ist gegeben durch<br />
xx 0<br />
a + yy 0<br />
2 b = 1. 2<br />
+ y2<br />
b 2 = 1 im Punkt P =<br />
Beweis. Leicht und elegant rechnet man nach, dass das wirklich eine Gerade ist, auf der P liegt,<br />
und dass P der einzige Schnittpunkt in T ∩ Q ist.<br />
Zwei ”<br />
affine“ Sätze über Ellipsen:<br />
Proposition 3.5. [1, Sect. 2.2.3] Die Mittelpunkte der Schnitte einer Ellipse mit einer Parallelenschar<br />
liegen auf einem Durchmesser.<br />
Proposition 3.6. [1, Sect. 2.2.3] Zu jedem Durchmesser l einer Ellipse gibt es einen anderen<br />
Durchmesser l ′ so dass:<br />
• Die Mittelpunkte der Sehnen, die zu l parallel sind, liegen auf l ′ ,<br />
• die Mittelpunkte der Sehnen, die zu l ′ parallel sind, liegen auf l.<br />
2. Hyperbel. Q = { x2 − y2<br />
= 1}, mit a, b > 0<br />
a 2 b 2<br />
. . . ist affines Bild der Standardhyperbel xy = 1,<br />
. . . hat zwei aufeinander senkrecht stehende Symmetrieachsen, x = 0 bzw. y = 0, die Hauptachsen,<br />
. . . hat zwei Scheitelpunkte (±a, 0) auf den Hauptachsen,<br />
. . . hat Brennpunkte F = (c, 0) und F ′ = (−c, 0), für c := √ a 2 + b 2 ,<br />
. . . hat zwei Asymptoten, die durch x2<br />
a 2<br />
sich die Hyperbeläste annähern,<br />
− y2<br />
b 2<br />
= 0 gegeben sind, also bx ± ay = 0, und denen<br />
. . . Konstruktion der Brennpunkte mit dem Zirkel! (Verwende Kreise mit Mittelpunkt (±a, 0)<br />
durch (0, ±b))<br />
Proposition 3.7 (Zwei Charakterisierungen der Brennpunkte).<br />
• [“Gärtner-Konstruktion”] Für alle Punkte P = (x 0 , y 0 ) auf der Hyperbel gilt<br />
|d(F, P ) − d(P, F ′ )| = 2a.<br />
• [Reflexionseigenschaft] Lichtstrahlen, die auf einen Brennpunkt zielen, aber in der Hyperbel<br />
reflektiert werden, zielen dann auf den anderen Brennpunkt; das heißt, die Strecken<br />
F P und F ′ P haben denselben Winkel zur Tangente an die Hyperbel in P .<br />
20
y<br />
P<br />
−c<br />
−a<br />
0 a<br />
c<br />
x<br />
−b<br />
Lemma 3.8 (Tangentengleichung). Die Tangente an die Hyperbel x2<br />
a 2<br />
(x 0 , y 0 ) ist gegeben durch<br />
xx 0<br />
a − yy 0<br />
2 b = 1. 2<br />
− y2<br />
b 2 = 1 im Punkt P =<br />
Lemma 3.9. Haben eine Hyperbel und eine Ellipse dieselben Brennpunkte, so haben sie 4<br />
Schnittpunkte, und sie schneiden sich in diesen senkrecht.<br />
3. Parabel. Q = {y = ax 2 }, mit a > 0<br />
. . . ist affines Bild der Standardparabel y = x 2 ,<br />
. . . hat nur eine Symmetrieachse, y = 0.<br />
. . . der Scheitelpunkt ist (0, 0),<br />
. . . der Brennpunkt ist F = (0, c), für c := 1<br />
4a ,<br />
. . . die Leitgerade ist L = {y = −c}.<br />
Proposition 3.10 (Zwei Charakterisierungen der Brennpunkte).<br />
• [Parabolspiegel!] Für alle Punkte P = (x 0 , y 0 ) auf der Parabel gilt<br />
d(F, P ) = d(P, L).<br />
• [Reflexionseigenschaft] Lichtstrahlen, die vom Brennpunkt ausgehen, und in der Parabel<br />
reflektiert werden, sind danach parallel zur Symmetrieachse.<br />
21
y<br />
Q<br />
c<br />
−c<br />
P<br />
x<br />
Lemma 3.11 (Tangentengleichung). Die Tangente an die Parabel y = ax 2 im Punkt P =<br />
(x 0 , y 0 ) ist gegeben durch<br />
y = ax 0 (2x − x 0 ).<br />
Anwendung/Illustration: “Fortune’s Sweep” zur Konstruktion von ebenen Voronoi-Diagrammen.<br />
22
Selbst ausprobieren:<br />
(Quelle/Siehe: Applet auf http://www.diku.dk/hjemmesider/studerende/duff/Fortune/)<br />
Ende 5.5.2011<br />
23
3.2 Quadriken<br />
Definition 3.12. Eine Quadrik ist die Lösungsmenge Q ⊂ R n eines Polynoms vom Grad<br />
höchstens 2 in n Variablen.<br />
Man spricht dabei von quadratischen Gleichungen, und Q wird auch als Nullstellenmenge der<br />
Gleichung q(x 1 , . . . , x n ) ∈ R[x 1 , . . . , x n ] bezeichnet.<br />
Prinzipiell lässt die obige Definition auch Polynome vom Grad höchstens 1 zu, also lineare<br />
Polynome. Dieser Fall ist nicht besonders interessant: dann ist Q entweder leer, oder eine Hyperebene<br />
im R n , oder der gesamte R n . Wir lassen diese drei ”<br />
trivialen“ Fälle als Quadriken in<br />
der Definition zu, ignorieren sie im Folgenden aber meist.<br />
If Fall n = 1 ist Q also die Lösung einer quadratischen Gleichung, also besteht Q aus ein oder<br />
aus zwei Punkten oder ist leer (oder ist ganz R).<br />
Für n = 2 können wir die quadratische Gleichung wie folgt schreiben:<br />
Q = {(x, y) ∈ R 2 : ax 2 + bxy + cy 2 + dx + ey + f = 0} für a, b, c, d, e, f ∈ R.<br />
Wenn (a, b, c) = (0, 0, 0), so erhalten wir eine lineare Gleichung, die Lösungsmenge ist dann<br />
Gerade oder leer oder der R 2 . Diesen Fall könnten wir also ausschließen . . .<br />
Bessere Notation, mehrere Möglichkeiten:<br />
Q =<br />
=<br />
{ ( x 1<br />
x 2<br />
)<br />
{ ( x 1<br />
x 2<br />
)<br />
}<br />
∈ R 2 : a 11 x 2 1 + 2a 12 x 1 x 2 + a 22 x 2 2 + 2a 01 x 1 + 2a 02 x 2 + a 00 = 0<br />
⎛<br />
⎞ ⎛ ⎞<br />
a 00 a 01 a 02 1<br />
∈ R 2 : (1, x 1 , x 2 ) ⎝a 10 a 11 a 12<br />
⎠ ⎝x 1<br />
⎠ }<br />
a 20 a 21 a 22 x 2<br />
für a ij ∈ R 2 (0 ≤ i, j ≤ 2).<br />
Entsprechend können wir n-dimensionale Quadriken wie folgt schreiben:<br />
∑<br />
Q = {x ∈ R n : a ij x i x j = 0, mit x 0 := 0}<br />
0≤i,j≤n<br />
( ) ( )<br />
= {x ∈ R n : (1, x t t a00 a<br />
)<br />
0 1<br />
a 0 A x<br />
( ( ) c b<br />
= {x ∈ R n : (1, x t t 1<br />
)<br />
b A)<br />
x<br />
= {x ∈ R n : x t Ax + 2b t x + c = 0}<br />
für A ∈ R n×n symmetrisch, a 0 ∈ R n , a 00 ∈ R<br />
bzw. A ∈ R n×n symmetrisch, b ∈ R n , c ∈ R.<br />
3.2.1 Euklidische Klassifikation der Quadriken<br />
Im Folgenden werden Koordinatentransformationen angewandt, um die Quadriken auf besonders<br />
einfache, und eindeutig bestimmte, Gleichungen zu bringen, also auf ”<br />
Normalform“. Dabei<br />
wenden wir in dieser Reihenfolge an:<br />
24
(1) orthogonale Transformationen<br />
(2) Translationen<br />
(3) Skalierung<br />
Dabei verwenden wir, dass die Kombination (1) von (2) eine beliebige Isometrie ergibt. Diese<br />
Kombination muss uns also die Klassifiktation der Quadriken bis auf Isometrie liefern. Lassen<br />
wir zusätzlich Skalierung zu, so ergibt das beliebige affine Transformationen, und damit die<br />
entsprechende Klassifikation der Quadriken.<br />
Fundamentales Hilfsmittel aus der Linearen Algebra ist der Spekralsatz für selbstadjungierte<br />
Endomorphismen/symmetrische Matrizen:<br />
Theorem 3.13 (Spekralsatz). Jeder Endomorphismus auf einem endlich-dimensionalen reellen<br />
Vektorraum mit Skalarprodukt hat eine Orthonormalbasis aus Eigenvektoren.<br />
Äquivalent: Für jede symmetrische Matrix A ∈ R n×n (also mit A t = A) gibt es eine orthogonale<br />
Matrix S ∈ R n×n (also mit S t = S −1 ) so dass S t AS = Λ eine Diagonalmatrix ist.<br />
Der Beweis für die Äquivalenz der beiden Formulierungen wird hier nicht gegeben. Die Diagonaleinträge<br />
von Λ sind die Eigenwerte von A. Die Spalten von S bilden eine Orthonormalbasis<br />
aus Eigenvektoren von A, wobei für die zweite Formulierung das Standardskalarprodukt auf<br />
dem R n angenommen wird (was wegen Gram–Schmidt zulässig ist). Damit ist der Spektralsatz<br />
konstruktiv: wir wissen, wie man S konstruieren kann.<br />
Sei nun die Quadrik Q ⊂ R n gegeben als Menge der Nullstellen von<br />
( ( ) c b<br />
q(x) = (1, x t t 1<br />
)<br />
b A)<br />
x<br />
mit A = A t ∈ R n×n , b ∈ R n , c ∈ R.<br />
(1) Orthogonale Transformation. Wir konstruieren S ∈ O(n) so, dass<br />
⎛<br />
⎞<br />
λ 1 .. . λ k λ k+1 S t AS =<br />
. .. λ k+l 0<br />
⎜<br />
⎟<br />
⎝<br />
.. . ⎠<br />
0<br />
mit λ 1 , . . . , λ k > 0 und λ k+1 , . . . , λ k+l < 0. (Zum Beispiel kann man die nichtverschwindenden<br />
Eigenwerte nach Größe ordnen, und erhält damit λ 1 ≥ · · · ≥ λ k > 0 > λ k+1 ≥ · · · ≥ λ k+l .)<br />
Damit können wir das quadratische Polynom q(x) wie folgt faktorisieren:<br />
( ) ( ) ( ) ( ) ( ) ( )<br />
1 0 1 0 c b<br />
q(x) = (1, x t t 1 0 1 0 1<br />
)<br />
0 S 0 S t b A 0 S 0 S −1 x<br />
( ) ( ) c<br />
= (1, ¯x t ¯bt<br />
) ¯b Λ<br />
1¯x<br />
mit ¯x := S −1 x, ¯b := S t b und Λ := S t AS.<br />
25
Hier sind also die ersten k ≥ 0 Spalten von S orthonormale Eigenvektoren zu positiven Eigenwerten<br />
von A, die nächsten l ≥ 0 Spalten von S sind orthonormale Eigenvektoren zu negativen<br />
Eigenwerten von A, und die letzten n−k −l ≥ 0 Spalten von S sind eine Orthonormalbasis für<br />
den Eigenraum zum Eigenwert 0, also zum Kern von A. Dabei dürfen wir im Fall, dass das mehr<br />
als eine Spalte ist, also für n − k − l ≥ 2, annehmen, alle diese Spalten außer möglicherweise<br />
der ersten, senkrecht auf b stehen, dass also die letzten n − k − l − 1 Koordinaten von ¯b = S t b<br />
verschwinden.<br />
Damit liegt das Polynom q(x) jetzt in der Form<br />
q(x) = λ 1 x 2 1 + · · · + λ k+l x k+l 2 + 2¯b 1 x 1 + · · · + 2¯b k+l+1 x k+l+1<br />
vor. Dieses kann man nun durch eine quadratische Ergänzung vereinfachen, oder — äquivalent<br />
dazu (!) — durch eine geeignete Translation.<br />
(2) Translation. Eine Translation x ↦→ x + u (also eine affine Abbildung) lässt sich in den “homogenen”<br />
Koordinaten (mit zusätzlicher Koordinate x 0 = 1) als lineare Abbildung darstellen:<br />
( ( ) ( ( )<br />
1 1 1 0<br />
t 1<br />
↦→ =<br />
.<br />
x)<br />
u + x u E)<br />
x<br />
wobei E die Einheitsmatrix darstellt (hier: E ∈ R n×n ). Die Inverse der Translation um u ist die<br />
Translation um −u. Daher faktorisieren wir weiter q(x) als<br />
( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( )<br />
(1, x t 1 0 1 −u<br />
t 1 u<br />
t 1 0 c b<br />
t 1 0 1 0<br />
t 1 0<br />
t 1 0 1<br />
)<br />
0 S 0 E 0 E 0 S t b A 0 S u E −u E 0 S −1 x<br />
(<br />
= (1, ¯x t c +<br />
) 2¯bt u + u t Λu ¯b t + u t ) ( )<br />
Λ<br />
¯b + Λu Λ<br />
1¯x<br />
mit ¯x = S −1 x − u.<br />
Nun setzen wir<br />
und<br />
( ) c b<br />
r ′ t<br />
:= rank<br />
b A<br />
r := rank A = rank Λ = k + l<br />
( ) ( c ¯bt c +<br />
= rank = rank 2¯bt u + u t Λu ¯b )<br />
t + u t Λ<br />
.<br />
¯b Λ ¯b + Λu Λ<br />
Dabei ist offenbar 0 ≤ r ≤ r ′ ≤ r + 2, r ≤ n und r ′ ≤ n + 1.<br />
Fall 1: Liegt ¯b im Spaltenraum von A, also rank(¯b Λ) = rank(Λ) = k + l, so gibt es ein u mit<br />
¯b + Λu = 0 (nämlich u := −Λ ∗¯b, wobei Λ ∗ die Diagonaleinträge λ i −1 hat), und wir berechnen<br />
c + 2¯b t u ∗ u t Λu = c −¯b t Λ ∗¯b =: ¯c. In diesem Fall ist r ′ = r wenn ¯c = 0 ist, und sonst r ′ = r + 1.<br />
Fall 2: Liegt ¯b nicht im Spaltenraum von A, so hat q(x) also einen linearen Term, und wir<br />
können c durch eine weitere Translation wegtransformieren.<br />
Insgesamt ergibt das den folgenden Normalformsatz:<br />
Theorem 3.14 (Euklidische Hauptachsentransformation). Jede Quadrik im R n (mit Ausnahme<br />
der linearen Quadriken, also der Hyperebenen, sowie Q = ∅ und Q = R n ) lässt sich durch<br />
eine Isometrie auf eine der folgenden drei Typen von Normalformen bringen, für k ≥ 1, l ≥ 0,<br />
k + l ≤ n, und 0 < a 1 ≤ · · · ≤ a k , a k+1 ≥ · · · ≥ a k+l > 0:<br />
(1a) x2 1<br />
a 2 1<br />
+ · · · + x2 k<br />
a 2 k<br />
− x2 k+1<br />
a 2 k+1<br />
− · · · − x2 k+l<br />
a 2 k<br />
= 1,<br />
26
(1b) x2 1<br />
+ · · · + x2 k<br />
a 2 1 a 2 k<br />
(2) x2 1<br />
a 2 1<br />
+ · · · + x2 k<br />
a 2 k<br />
− x2 1<br />
− · · · − x2 k+l<br />
a 2 k+1<br />
a 2 k<br />
− x2 1<br />
− · · · − x2 k+l<br />
a 2 k+1<br />
a 2 k<br />
= 0 mit k ≥ l und a 1 = 1,<br />
= 2x k+l+1 , mit k ≥ l, k + l < n.<br />
Hier entspricht (1a) dem Fall r ′ = r + 1, (1b) ist der Fall r ′ = r, und (2) ist der Fall r ′ = r + 2.<br />
Dass man jede Quadrik auf eine dieser Normalformen transformieren kann, haben wir im Wesentlichen<br />
bewiesen; dafür setzt man λ i =: für i ≤ k und λ<br />
1<br />
a 2 i =: − 1 für k < i ≤ k + l. Die<br />
i<br />
a 2 i<br />
Bedingung k ≥ 1 schließt die linearen Quadriken aus.<br />
Eigentlich würde man den Normalformsatz so formulieren, dass die Normalformen alle unterschiedlich<br />
sind, und Quadriken mit unterschiedlicher Normalform auch nicht ineinander transformierbar.<br />
Das ist für die oben angegebene Formulierung nicht ganz richtig, aus zwei Gründen:<br />
1. die Quadriken der Form (1b) haben im Fall k = l zusätzliche Äquivalenzen, und<br />
2. für lineare Quadriken (insbesondere Hyperebenen) ist das Quadrat einer definierenden<br />
Gleichung wieder eine definierende Gleichung, und diese tauchen in den obigen Gleichungen<br />
eben doch noch auf.<br />
Mit etwas mehr Mühe/Geduld lässt sich die obige Beschreibung aber zu so einer “eindeutigen<br />
Normalform” verfeinern. Um dies zu formulieren, kann/müsste man insbesondere im Fall (1b)<br />
lexikographische Ordnung etc. verwenden. Um sie zu beweisen, argumentiert man entweder<br />
geometrisch, oder algebraisch — muss dann zeigen, dass die Gleichung durch die Quadrik im<br />
Wesentlichen (bis auf Vielfache) eindeutig festgelegt ist — wieder bis auf die offensichtliche<br />
Ausnahmen im Fall von linearen Quadriken (leer, Hyperebene, ganzer R n ).<br />
Wir geben die Klassifikation der Quadriken für n = 2 tabellarisch an:<br />
Typ r r ′ k l typische Gleichung Beschreibung<br />
(1a) 1 2 1 0 x 2 1 = 1 zwei parallele Geraden<br />
(1a) 2 3 2 0 x 2 1 + x 2 2 = 1 Ellipse<br />
(1a) 2 3 1 1 x 2 1 − x 2 2 = 1 Hyperbel<br />
(1b) 1 1 1 0 x 2 1 = 0 (Doppel-)Gerade<br />
(1b) 2 2 1 1 x 2 1 − x 2 2 = 0 Geradenpaar mit Schnittpunkt<br />
(1b) 2 2 2 0 x 2 1 + x 2 2 = 0 Punkt (Kreis vom Radius 0)<br />
(2) 1 3 1 0 x 2 1 = 2x 2 Parabel<br />
Wir diskutieren also nochmal die Aussage ”<br />
die Kegelschnitte sind genau die nicht-leeren ebenen<br />
Quadriken“ . . . und stellen fest, dass es drei Ausnahmen gibt, nämlich die Ebene, die leere<br />
Menge, und zwei parallele Geraden — alle drei Ausnahmen sind Quadriken, aber keine Kegelschnitte.<br />
27
Genauso bekommen wir die nichtlinearen Quadriken im R 3 als<br />
Typ r r ′ k l typische Gleichung Beschreibung<br />
(1a) 1 2 1 0 x 2 1 = 1 paralleles Ebenenpaar<br />
(1a) 2 3 2 0 x 2 1 + x 2 2 = 1 Zylinder über einer Ellipse<br />
(1a) 2 3 1 1 x 2 1 − x 2 2 = 1 Zylinder über einer Hyperbel<br />
(1a) 3 4 3 0 x 2 1 + x 2 2 + x 2 3 = 1 Ellipsoid<br />
(1a) 3 4 2 1 x 2 1 + x 2 2 − x 2 3 = 1 einschaliges Hyperboloid<br />
(1a) 3 4 1 2 x 2 1 − x 2 2 − x 2 3 = 1 zweischaliges Hyperboloid<br />
(1b) 1 1 1 0 x 2 1 = 0 Doppelebene<br />
(1b) 2 2 2 0 x 2 1 + x 2 2 = 0 Gerade<br />
(1b) 2 2 1 1 x 2 1 − x 2 2 = 0 Ebenenpaar mit Schnittgerade<br />
(1b) 3 3 3 0 x 2 1 + x 2 2 + x 2 3 = 0 Punkt<br />
(1b) 3 3 2 1 x 2 1 + x 2 2 − x 2 3 = 0 Kreiskegel<br />
(1b) 1 3 1 0 x 2 1 = 2x 2 Zylinder über einer Parabel<br />
(1b) 2 4 2 0 x 2 1 + x 2 2 = 2x 3 elliptisches Paraboloid<br />
(1b) 2 4 1 1 x 2 1 − x 2 2 = 2x 3 hyperbolisches Paraboloid<br />
Bemerkung 3.15. Die interessantesten Fälle sind offenbar die mit r ′ = n + 1; alle anderen<br />
Quadriken erhält man als Zylinder oder Kegel über niedrigdimensionaleren Quadriken.<br />
Bemerkung 3.16. Unter den Quadriken im R 3 mit r ′ = n + 1 (nichtlinear, nicht Zylinder oder<br />
Kegel (im Fall (1b))) sind<br />
• einschaliges Hyperboloid und<br />
• hyperbolisches Paraboloid<br />
Regelflächen, bei denen es durch jeden Punkt der Quadrik zwei Geraden gibt, die in der Quadrik<br />
verlaufen.<br />
Unter den Regelflächen wird insbesondere auf das einschalige Hyperboloid hingewiesen —<br />
siehe die “Mae West”-Skulptur in München [3].<br />
3.2.2 Affine Klassifikation der Quadriken<br />
Wenn wir nur auf Klassifikation der Quadriken bis auf affine Transformation interessiert sind,<br />
dann dürfen wir insbesondere Koordinatentransformationen der Form x i<br />
a i<br />
↦→ x i durchführen,<br />
und bekommen damit aus dem euklidischen den affinen Normalformsatz:<br />
Theorem 3.17 (Affine Hauptachsentransformation). Jede nicht-lineare Quadrik im R n lässt<br />
sich durch eine affine Transformation auf eine der folgenden drei Typen von Normalformen<br />
bringen, für k ≥ 1, l ≥ 0, k + l ≤ n:<br />
(1a) x 2 1 + · · · + x 2 k − x2 1 − · · · − x 2 k+l = 1,<br />
(1b) x 2 1 + · · · + x 2 k − x2 1 − · · · − x 2 k+l = 0<br />
mit k ≥ l,<br />
(2) x 2 1 + · · · + x 2 k − x2 1 − · · · − x 2 k+l = 2x k+l+1<br />
mit k + l < n.<br />
28
Dass man jede Quadrik auf eine dieser Normalformen transformieren kann, folgt aus dem euklidischen<br />
Fall mit einer zusätzlichen Substitution x i<br />
a i<br />
↦→ x i .<br />
Quadriken mit diesen Normalformen sind alle unterschiedlich sind und nicht durch affine Transformationen<br />
ineinander transformierbar — wieder mit den offensichtlichen“ Ausnahmen, bei<br />
”<br />
den linearen Quadriken. Um das zu beweisen, argumentiert man wieder entweder geometrisch,<br />
oder algebraisch.<br />
Literatur<br />
[1] David A. Brannan, Matthew F. Esplen, and Jeremy J. Gray. Geometry. Cambridge University Press,<br />
Cambridge, 1999.<br />
[2] Albrecht Dürer. Unterweysung der Messung mit dem Zyrkel und Rychtscheydt. Nürnberg, 1525<br />
(English translation with commentary by W. L. Strauss: “The Painter’s Manual: Instructions for<br />
Measuring with Compass and Ruler”, New York 1977); http://de.wikisource.org/<br />
wiki/Underweysung_der_Messung,_mit_dem_Zirckel_und_Richtscheyt,<br />
_in_Linien,_Ebenen_unnd_gantzen_corporen/Erstes_Buch.<br />
[3] Günter M. Ziegler. Mathematik im Alltag: Der Name der Rose. Mitteilungen der DMV, 19(1):42–44,<br />
2011.<br />
29
4 Projektive <strong>Geometrie</strong><br />
4.1 Motivation<br />
• Affine <strong>Geometrie</strong>: Punkte im Unendlichen“, so dass sich zwei Geraden in einer Ebene<br />
immer in einem Punkt schneiden; es gibt keine Parallen; perfekte Dualität zwischen<br />
”<br />
Punkten und Hyperebenen<br />
• Gebrochen-lineare“ Transformationen können <strong>Geometrie</strong> vereinfachen, aber schieben<br />
”<br />
Hyperebenen nach Unendlich“<br />
”<br />
• Was passiert, wenn man bei Kegelschnitten die Ebene stetig verändert?<br />
Ellipse → Parabel → Hyperbel?<br />
• Zentralprojektion: Streckenverhältnisse ändern sich, aber “Doppelverhältnisse” bleiben<br />
gleich.<br />
Was haben wir davon? <strong>Geometrie</strong> mit<br />
• perfekter Dualität<br />
• vielen Transformationen, also vielen Möglichkeiten zur Vereinfachung<br />
• Matrix-Beschreibung für Transformationen<br />
4.2 Der n-dimensionale projektive Raum<br />
4.2.1 Definition; mehrere Modelle<br />
Definition 4.1 (Der n-dimensionale projektive Raum). Der n-dimensionale projektive Raum<br />
RP n ist die Menge<br />
RP n<br />
:= {L ⊆ R n+1 : L ist ein 1-dimensionaler linearer Unterraum}.<br />
aller 1-dimensionalen Unterräume im Vektorraum R n+1 .<br />
Für −1 ≤ k ≤ n sind die k-dimensionalen projektiven Unterräume die Teilmengen<br />
P (U) := {L ∈ RP n : L ⊆ U} für (k + 1)-dimensionale Unterräume U ⊆ R n+1 .<br />
Achtung: die projektive Dimension von P (U) ist also gegeben durch<br />
dim P (U) = dim U − 1.<br />
Bemerkung 4.2 (Mehrere Modelle). Den Projektiven Raum RP n können wir äquivalent betrachten<br />
als<br />
(1) Raum der eindimensionalen Unterräume im R n+1 , wie hier definiert,<br />
(2) die Menge der Vektoren in R n+1 \ {0}, modulo Identifikation von Vielfachen,<br />
(3) die Sphäre S n ⊂ R n+1 modulo Identifizierung gegenüberliegender Punkte, oder<br />
(4) affiner Raum R n plus “Punkte im Unendlichen”.<br />
Wichtig sind die Übersetzungen zwischen diesen Modellen, wobei wir identifizieren:<br />
(1) einen eindimensionalen Unterräume im R n+1 mit<br />
(2) den nicht-verschwindenden Vektoren in den Unterraum, bzw.<br />
(3) den (beiden) Vektoren der Länge 1 in dem Unterraum,<br />
30
(4) dem Vektor in dem Unterraum mit x 0 -Koordinate 1, bzw. sonst einer Richtung (d.h. einem<br />
Element von RP n−1 ).<br />
Lemma 4.3. Zwei verschiedene Geraden G 1 , G 2 ⊂ RP 2 schneiden sich in genau einem Punkt.<br />
Proposition 4.4 (Plücker-Koordinaten). Sei U ein k-dimensionaler linearer Unterraum U ⊆<br />
R n . Sei A ∈ R n×k eine Matrix, deren Spalten eine Basis von U bilden. Der Plücker-Vektor von<br />
A ist der Vektor x A ∈ R (n k) der k × k-Unterdeterminanten von A. Dieser ist bis auf Vielfache<br />
eindeutig bestimmt, ergibt also einen eindeutigen Punkt im RP (n k)−1 . Dieser Punkt bestimmt<br />
den linearen Unterraum eindeutig (wobei nicht jeder Punkt in RP (n k)−1 einen Unterraum entspricht).<br />
Beweis. Die Matrix A ist bis auf invertierbare Spaltenoperationen eindeutig bestimmt. Also ist<br />
der Vektor der Unterdeterminanten bis auf ein gemeinsames Vielfaches eindeutig bestimmt.<br />
Die Rekonstruktion des Unterraums aus dem gegebenen Plücker-Vektor überlegt man sich am<br />
Beispiel.<br />
4.3 Projektive Transformationen<br />
Definition 4.5 (Projektive Transformationen; Projektivitäten). Eine Abbildung f : RP m →<br />
RP n heißt projektiv, wenn sie durch eine lineare Abbildung ˆf : R m+1 → R n+1 , x ↦→ Ax<br />
induziert wird, für A ∈ R (n+1)×(m+1) . (Insbesondere muss dann x ↦→ Ax injektiv sein, A also<br />
vollen Rang m haben, insbesondere also m ≤ n gelten.)<br />
Eine Projektivität ist eine projektive Abbildung f : RP n → RP n . (Projektivitäten sind also die<br />
bijektiven projektiven Abbildungen.)<br />
Lemma 4.6. Die projektiven Transformationen RP n → RP n eingeschränkt auf R n ⊂ RP n<br />
sind genau die gebrochen-linearen“ Transformationen x ↦→ Ax+b für nichtsinguläre Matrix<br />
( ) ” c t x+δ<br />
δ c<br />
t<br />
.<br />
b A<br />
Beachte: die gebrochen-lineare Abbildung ist für c ≠ 0 nur außerhalb der Hyperebene H :=<br />
{x : c t + δ = 0} definiert. Interpretation: diese bildet H ”<br />
nach Unendlich“ ab.<br />
Beweis. ( 1<br />
x)<br />
↦−→<br />
( δ c<br />
t<br />
b A) ( 1<br />
x<br />
)<br />
=<br />
( ) c t x + δ<br />
Ax + b<br />
∼<br />
( ) 1<br />
Ax+b .<br />
c t x+δ<br />
Proposition 4.7 (Invarianten). Projektive Transformationen<br />
(i) bilden projektive Unterräume auf projektive Unterräume (derselben Dimension!) ab,<br />
(ii) bilden Quadriken auf Quadriken ab.<br />
Definition 4.8 (Projektive Basis). Eine projektive Basis des RP n besteht aus n + 2 Punkten<br />
p 0 , p 1 , . . . , p n+1 , von denen keine n + 1 auf einer Hyperebene (also in einem Unterraum der<br />
Dimension n − 1) liegen.<br />
31
Proposition 4.9 (Hauptsatz der Projektiven <strong>Geometrie</strong>). Seien (p 0 , . . . , p n+1 ) und (p ′ 0, . . . , p ′ n+1)<br />
zwei (geordnete) projektive Basen des R n , so gibt es genau eine projektive Abbildung f :<br />
RP n → RP n , die p i auf p ′ i abbildet (0 ≤ i ≤ n + 1).<br />
Beweis. Seien ˆp i bzw. ˆp ′ i entsprechende Vektoren im R n+1 . Dann gibt es lineare Abhängigkeiten<br />
λ 0ˆp 0 + · · · + λ n+1ˆp n+1 und λ ′ 0ˆp ′ 0 + · · · + λ ′ n+1ˆp ′ n+1, die beide bis auf Vielfache eindeutig sind,<br />
und deren Koeffizienten nicht Null sind. Weiter sind (λ 0ˆp 0 , . . . , λ nˆp n ) und (λ ′ 0ˆp ′ 0, . . . , λ ′ nˆp ′ n)<br />
Basen des R n+1 , so dass λ iˆp i ↦→ λ ′ iˆp ′ i eine eindeutige lineare Abbildung definiert. Die linearen<br />
Abhängigkeiten garantieren dann, dass λ n+1ˆp n+1 ↦→ λ ′ n+1ˆp ′ n+1.<br />
Ende 19.5.2011<br />
Korollar 4.10. Die projektiven Transformationen auf dem RP n bilden eine Gruppe.<br />
Diese ist gegeben durch lineare Transformationen auf dem R n+1 modulo Dilatationen, also<br />
PGL(n, R) = GL(n + 1, R)/R ∗<br />
Die Dimension dieser Gruppe, also auch die Anzahl der Freiheitsgrade, die wir für eine projektive<br />
Transformation haben, ist (n + 1) 2 − 1 = (n − 2)n.<br />
Beispiel 4.11. In der Ebene, kann man mit projektiven Transformationen jedes Dreieck auf<br />
jedes Dreieck abbilden, und jedes Viereck auf ein beliebiges Viereck (z.B. ein Einheitsquadrat),<br />
aber nicht jedes Fünfeck auf ein beliebiges (z.B. das regelmäßige) Fünfeck.<br />
Korollar 4.12 (Projektives Koordinatensystem). Die Vektoren e 0 , e 1 , . . . , e n , e 0 + · · · + e n ∈<br />
R n+1 induzieren eine geordnete projektive Basis im RP n .<br />
Ist nun (p 0 , . . . , p n+1 ) eine beliebige geordnete Basis des RP n , so gibt es eine eindeutige Projektivität<br />
nach Hauptsatz 4.9. Diese induziert Koordinaten<br />
(1 : 0 : 0 : · · · : 0) für p 0 ,<br />
(0 : 1 : 0 : · · · : 0) für p 1 ,<br />
. ..<br />
(0 : 0 : 0 : · · · : 1) für p n ,<br />
(1 : 1 : 1 : · · · : 1) für p n+1 ,<br />
wobei die Notation (x 0 : x 1 : x 2 : · · · : x n ) betont, dass diese Vektoren von “Koordinaten” nur<br />
bis auf Vielfache definiert sind.<br />
Mit diesen projektiven Koordinaten kann man rechnen. So entsprechen die Koordinatenvektoren<br />
mit x n ≠ 0 (ohne Einschränkung der Allgemeinheit: x n = 1) genau den Punkten im affinen<br />
Raum R n ⊆ RP n , während die Koordinatenvektoren mit x n = 0 genau den Punkten “im<br />
Unendlichen” entsprechen. Punkte, die auf einer Hyperebene liegen, erfüllen eine homogene<br />
lineare Gleichung, usw.<br />
32
4.4 Das Doppelverhältnis<br />
Definition 4.13 (Doppelverhältnis). Seien a, b, c, d ∈ RP n vier Punkte im RP n , die auf einer<br />
Geraden liegen, mit a ≠ b.<br />
Dann können wir ĉ = αâ + βˆb, ˆd = γâ + δˆb schreiben.<br />
Das Doppelverhältnis ist dann<br />
[a, b; c, d] = β/α<br />
δ/γ<br />
= βγ<br />
αδ ∈ R ∪ {∞}.<br />
Das Doppelverhältnis [a, b; c, d] ist<br />
= ∞ für d = a<br />
= 0 für d = b<br />
= 1 für d = c<br />
Lemma 4.14. Das Doppelverhältnis ist wohl-definiert.<br />
Beweis. Für den Beweis wählen wir â, ˆb, ĉ, ˆd ∈ R n+1 \ {0}, und beobachten, dass sich das<br />
Doppelverhältnis nicht verändert, wenn wir die Vektoren â, ˆb, ĉ, ˆd durch Vielfache ersetzen.<br />
Affine Teilungsverhältnisse sind Doppelverhältnisse: Liegen b, c, d auf einer affinen Geraden, a<br />
“im Unendlichen” auf der Geraden, mit ˆd = (1 − λ)ĉ + λˆb, so können wir â = ĉ − ˆb setzen,<br />
also ĉ = â + ˆb und ˆd = λâ + ˆb, und das ergibt [a, b; c, d] = λ.<br />
Kurz also: [∞, b; c, (1 − λ)c + λb] = λ.<br />
Bemerkung 4.15. Wir können das Doppelverhältnis immer dann definieren, wenn die vier Punkte<br />
a, b, c, d kollinear sind, und mindestens drei von ihnen verschieden. Falls a = b ist, setzen wir<br />
dafür [a, b; c, d] = [c, d; a, b].<br />
Theorem 4.16 (Invarianten). Projektive Transformationen erhalten Doppelverhältnisse. Sind<br />
also unter a, b, c, d ∈ RP m mindestens drei verschiedene Punkte, und ist f : RP m → RP n , so<br />
gilt<br />
[a, b; c, d] = [f(a), f(b); f(c), f(d)].<br />
Beweis. Wir stellen a, b, c, d dar durch â, ˆb, ĉ, ˆd ∈ R m+1 , und f durch A ∈ R (n+1)×(m+1) . Gilt<br />
ĉ = αâ + βˆb, ˆd = γâ + δˆb, so folgt Aĉ = αAâ + βAˆb, A ˆd = γAâ + δAˆb, und damit ergeben<br />
f(a), f(b), f(c), f(d) dieselben Parameter α, β, γ, δ und damit auch dasselbe Doppelverhältnis.<br />
Im Fall a = b argumentiert man separat.<br />
Proposition 4.17. Seien a, b, c, d ∈ R n mit [a, b; c, d] = λ. Dann gilt<br />
(1) [a, b; c, d] = [b, a; d, c] = [c, d; a, b] = [d, c; b, a] = λ,<br />
(2) [a, b; d, c] = 1 , [b, a; c, d] = 1/λ,<br />
λ<br />
(3) [a, c; b, d] = 1 − λ<br />
(4) und damit sind alle anderen Werte des Doppelverhältnisses einer Permutation der vier<br />
Punkte festgelegt; dabei können nur 6 verschiedene Werte auftreten, nämlich λ, 1 , 1 − λ,<br />
λ<br />
1 − 1 , 1<br />
und λ . λ 1−λ λ−1<br />
33
Beweis. Wegen Theorem 4.16 genügt es, dies für n = 1 zu beweisen.<br />
(1) und (4) folgen aus (2) und (3).<br />
Dabei ist (2) ziemlich offensichtlich, während (3) auf eine polynomiale Identität zwischen Determinanten<br />
hinausläuft, eine “3-Term Grassmann-Plücker-Identität”.<br />
Proposition 4.18 (Zentralprojektionen). Sind a, b, c, d und A, B, C, D jeweils kollineare Punkte,<br />
so dass sich die Geraden aA, bB, cC, dD schneiden (bzw. so dass es einen Punkt o gibt, der<br />
nicht auf den beiden Geraden abcd und ABCD liegt und oaA, obB, ocC, odD kollinear sind),<br />
so gilt [a, b, c, d] = [A, B, C, D].<br />
Beweis. Wegen Theorem 4.16 genügt es, dies für n = 2 zu beweisen.<br />
Man konstruiert leicht eine projektive Transformation (“Zentralprojektion”), die o festhält und<br />
a auf A und b auf B abbildet, und so weiter: Dafür arbeiten wir wieder im R n+1 , ergänzen dort<br />
ô, â, ˆb zu einer Basis, und legen die lineare Abbildung R n+1 → R n+1 dadurch fest, dass wir ô<br />
auf sich selbst abbilden und â ↦→ Â, ˆb ↦→ ˆB, und die weiteren Basisvektoren (für n > 2) wieder<br />
auf sich selbst. Die lineare Abbildung induziert eine projektive Abbildung mit o ↦→ o, a ↦→ A<br />
und b ↦→ B. Diese erhält Kollinearitäten, also wird c auf C und d auf D abgebildet. Und dann<br />
können wir Theorem 4.16 anwenden.<br />
Projektive Abbildungen erhalten Doppelverhältnisse. Es gilt aber auch eine Umkehrung:<br />
Theorem 4.19. Jede Abbildung f : RP m → RP n , kollineare Punkte auf kollineare Punkte abbildet<br />
(also Geraden auf Geraden abbildet), und Doppelverhältnisse erhält, ist eine projektive<br />
Abbildung.<br />
Bemerkung: für n ≥ 2 braucht man die Bedingung über Doppelverhältnisse nicht, dann muss<br />
man für den Beweis aber signifikant härter arbeiten.<br />
4.5 Projektive Inzidenzgeometrie<br />
4.5.1 Schnitt und Verbindung<br />
U, V ⊂ RP n projektive Unterräume, dann ist U ∧ V := U ∩ V wieder projektiver Unterraum.<br />
Dieser ist auch der größte Unterraum, der sowohl in U als auch in V enthalten ist. In dieser<br />
Charakterisierung wird er auch als Meet von U und V bezeichnet und als U ∧ V notiert.<br />
Aber U ∪ V ist üblicherweise kein projektiver Unterraum.<br />
Definition 4.20 (Verbindung). Die Verbindung (oder auch der Join) U ∨V von zwei projektiven<br />
Unterräumen U, V ⊂ RP n ist der Schnitt aller projektiven Unterräume, die U ∪ V enthalten.<br />
Proposition 4.21 (Dimensionsformel: Modulare Gleichung). Für beliebige projektive Unterräume<br />
U, V ⊂ RP n gilt<br />
dim U + dim V = dim(U ∧ V ) + dim(U ∨ V ).<br />
Beweis. Dies folgt sofort aus der Dimensionsformel für lineare Unterräume Û, ˆV ⊆ R n+1 für<br />
lineare Unterräume, mit dim P (Û) = dim U − 1 für P (Û) = U usw.<br />
Korollar 4.22. Gilt dim U + dim V ≥ n für U, V ⊆ RP n , so folgt U ∩ V ≠ ∅.<br />
Korollar 4.23. Sei H ⊂ RP n eine Hyperebene und p ∈ RP n \ H. Dann schneidet jede Gerade<br />
durch p die Hyperebene H in einem einzigen Punkt.<br />
34
4.5.2 Dualität<br />
Theorem 4.24. Für jedes n ≥ 0 gibt es eine Abbildung, die jedem projektiven Unterraum von<br />
U ⊆ R n einen projektiven Unterraum U ∗ ⊆ RP n zuordnet mit<br />
• dim U ∗ = n − 1 − dim U,<br />
• (U ∗ ) ∗ ,<br />
• U ⊆ V ⇔ V ∗ ⊆ U ∗ ,<br />
• U ∧ U ∗ = ∅, U ∨ U ∗ = RP n .<br />
Die Abbildung U ↦→ U ∗ heißt auch Dualitätsabbildung. Sie bildet insbesondere Punkte auf<br />
Hyperebenen ab, und umgekehrt.<br />
Beweis. Für U = P (Û) setze U ∗ := P (Û ⊥ ).<br />
Ende 26.5.2011<br />
Damit übersetzt sich jedes Inzidenztheorem in ein duales Inzidenztheorem. Beispiele:<br />
(i) Zwei verschiedene Geraden im RP 2 schneiden sich in genau einem Punkt ←→<br />
Zwei verschiedene Punkte im RP 2 liegen auf genau einer Gerade<br />
(ii) n Geraden in allgemeiner Lage im RP 2 bestimmen ( n<br />
2)<br />
Schnittpunkte ←→<br />
n Punkte in allgemeiner Lage im RP 2 liegen auf ( n<br />
2)<br />
Verbindungsgeraden<br />
(iii) n Punkte in der projektiven Ebene, nicht alle auf einer Geraden, bestimmen immer eine<br />
Verbindungsgerade, die genau zwei der Punkte enthält ←→<br />
n Geraden in der projektiven Ebene, nicht alle durch einen Punkt, bestimmen immer einen<br />
Schnittpunkt, der auf genau zwei Geraden liegt<br />
(das ist der Satz von Sylvester–Gallai, siehe [1, Kap. 10])<br />
(iv) Drei Ebenen im RP 3 haben immer einen gemeinsamen Punkt ←→<br />
Drei Punkte im RP 3 liegen immer auf einer Ebene.<br />
(v) etc.<br />
4.5.3 Pappus und Desargues<br />
Theorem 4.25 (Satz von Pappus). Sind A, B, C Punkte auf einer Geraden G und A ′ , B ′ , C ′<br />
Punkte auf einer Geraden G ′ , und ist γ der Schnittpunkt von AB ′ mit A ′ B, β der Schnittpunkt<br />
von AC ′ mit A ′ C, α der Schnittpunkt von BC ′ mit B ′ C, so sind α, β, γ kollinear.<br />
Beweis. Nach projektiver Transformation (!) dürfen wir annehmen, dass αγ die Gerade im<br />
Unendlichen ist.<br />
Schneiden sich G und G ′ in der affinen Ebene, so betrachtet man die affinen Streckungen ϕ :<br />
A ↦→ B und ψ : B ↦→ C mit Zentrum G ∩ G ′ . Affine Streckungen erhalten Parallelität, also gilt<br />
ϕ : B ′ ↦→ A ′ und ψ : C ′ ↦→ B. Also ψ ◦ϕ : A ↦→ C, ϕ◦ψ : C ′ ↦→ A ′ . Es gilt aber ψ ◦ϕ = ϕ◦ψ.<br />
Sind G und G ′ parallel, so argumentiert man separat.<br />
Beobachtung: Kommutativität spielt eine entscheidende Rolle im Beweis. (In der Tat ist der<br />
Satz von Pappus für projektive <strong>Geometrie</strong> über einem Schiefkörper nicht richtig.)<br />
Theorem 4.26 (Satz von Desargues). Dreiecke ABC und A ′ B ′ C ′ und sind perspektivisch (also<br />
die Verbindungsgeraden entsprechender Ecken AA ′ , BB ′ , CC ′ konkurrent) dann und nur dann<br />
35
wenn die Schnittpunkte α = BC ∩ B ′ C ′ β = AC ∩ A ′ C ′ γ = AB ∩ A ′ B ′ der entsprechenden<br />
Seiten kollinear sind.<br />
Beweis. Für “⇐=”: Nach projektiver Transformation liegen α, β, γ auf der Geraden im Unendlichen.<br />
Also ist AB‖A ′ B ′ , AC‖A ′ C ′ und BC‖B ′ C ′ . Damit sind die Dreiecke ABC und<br />
A ′ B ′ C ′ ähnlich, ihr Zentrum kann durch Schnitt von Geraden ausgerechnet werden.<br />
Dabei verwendet man das “Lemma von Thales”, wonach parallele Geraden auf unterschiedlichen<br />
Geraden dieselben Teilungsverhältnisse induzieren — was man nachrechnen kann.<br />
Für “=⇒”: Dualität!<br />
Beobachtung: Arithmetik spielt eine entscheidende Rolle im Beweis. (In der Tat ist der Satz<br />
von Desargues für “synthetische” projektive Ebenen nicht richtig.) Es gibt einen 3D-Beweis für<br />
den Satz von Desargues – aber in der Tat lässt sich jede “synthetische” projektive Raum der<br />
Dimension n ≥ 3 über einem Schiefkörper koordinatisieren.<br />
Bemerkung 4.27. Vorsicht bei der Formulierung mit degenerierten Versionen!<br />
Vergleiche Richter-Gebert [4, Example 1.1]<br />
Bemerkung 4.28. Es gibt vielfältige Verallgemeinerungen: So kann man im Satz von Pappus<br />
die Vereinigung der beiden Geraden G ∪ G ′ durch einen beliebigen Kegelschnitt ersetzen!<br />
4.6 Quadriken<br />
Theorem 4.29 (Projektive Hauptachsentransformation). Jede Quadrik im R n (mit Ausnahme<br />
der linearen Quadriken, also der Hyperebenen, sowie Q = ∅ und Q = R n ) lässt sich durch eine<br />
projektive Transformation auf eine Normalform der Form<br />
mit k + 1 ≥ l ≥ 1, k + l ≤ n bringen.<br />
In projektiven Koordinaten:<br />
1 + x 2 1 + · · · + x 2 k − x 2 k+1 − · · · − x 2 k+l = 0,<br />
Q = {(x 0 : x 1 : · · · : x n ) ∈ RP n : x 2 0 + · · · + x 2 k − x 2 k+1 − · · · − x 2 k+l = 0}<br />
mit k + 1 ≥ l ≥ 1, k + l ≤ n.<br />
Beweis. Wir schreiben Q als<br />
( ( ) c b<br />
Q = {x ∈ R n : (1, x t t 1<br />
)<br />
b A)<br />
x<br />
( 1<br />
= {x ∈ R n : (1, x t )Â<br />
x)<br />
für A ∈ R n×n symmetrisch, b ∈ R n , c ∈ R, bzw. Â ∈ R(n+1)×(n+1) symmetrisch.<br />
Weil  symmetrisch ist, gibt es eine orthogonale Matrix Ŝ ∈ O(n + 1) so dass Ŝt ÂŜ diagonal<br />
ist, also gleich diag(λ 0 , λ 1 , . . . , λ k , −λ k+1 , . . . , −λ k+l , 0, . . . , 0) mit λ i > 0, und dann eine<br />
Diagonalmatrix ̂D ∈ R (n+1)×(n+1) mit Diagonaleinträgen 1/ √ λ i für 0 ≤ i ≤ k + l, so dass<br />
̂DŜt ÂŜ ̂D = diag(1, . . . , 1, −1, . . . , −1, 0, . . . , 0).<br />
36
Die Tatsache, dass bei dieser Koordinatentransformation k und l eindeutig bestimmt sind, folgert<br />
man aus Sylvester’scher Trägheitssatz [2, S. 186] [3, S. 362]: k + 1 ist nämlich die Dimension<br />
des größten Unterraums von R n+1 , auf dem die quadratische Form ̂x t Â̂x positiv definit ist,<br />
und genauso für l und negativ definit.<br />
Die Bedingung k + 1 ≥ l stellt man her, indem man ggf. Â durch −Â ersetzt.<br />
Literatur<br />
[1] Martin Aigner and Günter M. Ziegler. Das BUCH der Beweise. Springer-Verlag, Heidelberg Berlin,<br />
third edition, 2009.<br />
[2] Gerd Fischer. Analytische <strong>Geometrie</strong>. Vieweg, Wiesbaden, 2001. 7. Auflage.<br />
[3] Gerd Fischer. Lernbuch Lineare Algebra und Analytische <strong>Geometrie</strong>. Vieweg+Teubner, Wiesbaden,<br />
2011.<br />
[4] Jürgen Richter-Gebert. Mechanical theorem proving in projective geometry. Annals of Mathematics<br />
and Artificial Intelligence, 13:139–172, 1995.<br />
37
5 Was ist (eine) <strong>Geometrie</strong>?<br />
5.1 Axiomatische Beschreibungen von <strong>Geometrie</strong><br />
Nach Euklid ca. 300 vor Christus [3, 5] und Hilbert 1899 [7]; siehe auch Artmann [1], Hartshorne<br />
[6]).<br />
So beschreibt Hilbert in den “Grundlagen der <strong>Geometrie</strong>” ein System von Axiomen für eine<br />
Menge von Elementen, die “Punkte” heißen, mit Teilmengen, die “Geraden” heißen, so dass<br />
ein Satz von Axiomen erfüllt ist:<br />
• 8 Axiome der Verknüpfung (Inzidenz)<br />
• 4 Axiome der Anordnung<br />
• 5 Axiome der Kongruenz<br />
• ein Parallelenaxiom<br />
• 2 Axiome der Stetigkeit.<br />
Das Hilbert’sche Axiomensystem findet man beispielsweise zusammengefasst unter<br />
http://de.wikipedia.org/wiki/Hilberts_Axiomensystem_der_euklidischen_<strong>Geometrie</strong><br />
Mühsame Arbeit ergibt dann, dass die Axiome unabhängig voneinander sind, widerspruchsfrei<br />
sind (unter der Annahme, dass die elementare Arithmetik widerspruchsfrei ist), und vollständig:<br />
dass damit die <strong>Geometrie</strong> in R 2 und R 3 eindeutig beschrieben ist.<br />
Problem: es gibt auch viele sehr unsymmetrische, unnatürliche etc. Systeme, die Axiomensysteme<br />
für <strong>Geometrie</strong> erfüllen können. Die Axiome sehen teilweise sehr willkürlich aus.<br />
Es stellt sich heraus, dass projektive <strong>Geometrie</strong> einfacher und konziser beschrieben werden kann<br />
(nach Veblen & Young 1905).<br />
Definition 5.1. Eine projektive <strong>Geometrie</strong> ist ein Paar P = (P, L), wobei die Elemente von P<br />
Punkte und die Elemente von L Geraden heißen, mit L ⊆ 2 L (die Geraden sind Mengen von<br />
Punkten), mit<br />
Axiom 1 Durch zwei verschiedene Punkte gibt es genau eine Gerade,<br />
Axiom 2 Sind A, B, C ∈ P verschiedene Punkte und schneidet l ∈ L die Geraden AB und<br />
BC in unterschiedlichen Punkten, dann schneidet sie auch BC.<br />
Axiom 3 Jede Gerade enthält mindestens 3 Punkte<br />
Theorem 5.2 (Veblen & Young). Gilt in einer projektiven <strong>Geometrie</strong> der Satz von Desargues,<br />
so ist sie als projektiver Raum über einem Schiefkörper darstellbar.<br />
Gilt in einer projektiven <strong>Geometrie</strong> der Satz von Pappus, so ist sie sogar als projektiver Raum<br />
über einem Körper darstellbar.<br />
(Nach Hessenberg 1905 impliziert der Satz von Pappus den von Desargues.)<br />
Fügt man Axiome der Ordnung und Stetigkeit hinzu, dann kann man weiter auch den RP n<br />
charakterisieren.<br />
5.2 Kleins Erlanger Programm<br />
In seiner Antrittsvorlesung in Erlangen (1872) hat Felix Klein eine andere Sichtweise auf <strong>Geometrie</strong><br />
propagiert: als eine Menge von Elementen, die “Punkte” heißen, mit einer transitiven<br />
38
Gruppenaktion, die zeigt, wie der Raum von jedem Punkt aus gleich aussieht. Eigenschaften<br />
der <strong>Geometrie</strong> sind dann Invarianten der Gruppenaktion, wie z.B. Geraden, Unterräume, etc.<br />
Wir versuchen die Idee von Klein formal zu fassen.<br />
Definition 5.3. Eine <strong>Geometrie</strong> ist eine Menge X von Elementen, die Punkte heißen, mit Wirkung<br />
einer Gruppe G, die transitiv und treu auf X wirkt.<br />
(Transformationsgruppe: jedem Element g ∈ G entspricht eine Bijektion ϕ g : X → X, so dass<br />
ϕ e die Identität ist, und ϕ g ◦ ϕ h (x) = ϕ g (ϕ h (x)) gilt: Die Wirkung ist transitiv, wenn es für<br />
beliebige x, y ∈ X ein g ∈ G gibt mit ϕ(x) = y. Die Wirkung ist treu, wenn nur das neutrale<br />
Element e ∈ G als Identität wirkt.)<br />
Aufgabe der <strong>Geometrie</strong> (als Wissenschaft) ist dann das Studium der Eigenschaften/Strukturen,<br />
die unter der Transformationsgruppe invariant sind (also erhalten bleiben).<br />
Definition 5.4. Eine Teilgeometrie einer <strong>Geometrie</strong> (X, G) ist gegeben durch eine Teilmenge<br />
X ′ ⊆ X und eine Untergruppe G ′ ⊆ G, die X ′ erhält (also ϕ g ′(x ′ ) ∈ X ′ für x ′ ∈ X ′ und<br />
g ′ ∈ G ′ ), so dass sich jede Transformation g ′ ∈ G ′ eindeutig auf X fortsetzt, es also keine<br />
unterschiedlichen Gruppenelemente in G gibt, die auf X ′ dieselbe Wirkung zeigen.<br />
In diesem Fall heißt (X, G) auch eine Erweiterung der <strong>Geometrie</strong> (X ′ , G ′ )<br />
Beispiele:<br />
<strong>Geometrie</strong> Raum Transf.gruppe Invarianten<br />
euklidisch R n R n ⋊ O(n) Kollinearität (⇒ Unterräume);<br />
Abstände (⇒ Winkel, Volumina)<br />
Ähnlichkeit R n R n ⋊ (O(n) × R >0 ) Kollinearität; Abstandsverhältnisse<br />
(⇒ Winkel, Volumenverhältnisse)<br />
affin R n R n ⋊ GL(n, R) Kollinearität; Teilungsverhältnisse<br />
auf Geraden<br />
sphärisch S n O(n + 1) Kollinearität (bzgl. Großkreisen);<br />
sphärische Abstände (⇒ Winkel,<br />
Volumina)<br />
elliptisch RP n = S n /(±) O(n + 1, R)/(±I) Kollinearität; sphärische Abstände<br />
projektiv RP n GL(n + 1, R)/R ∗ Kollinearität; Doppelverhältnisse;<br />
Quadriken<br />
Hier ist mit R ∗ die multiplikative Gruppe R\{0} gemeint.<br />
Üblich sind die Bezeichnungen P O(n + 1) = O(n + 1, R)/(±I) und P GL(n + 1, R) =<br />
GL(n + 1, R)/R ∗ für die Transformationsgruppen von elliptischer bzw. projektiver <strong>Geometrie</strong>.<br />
Viele dieser <strong>Geometrie</strong>n sind Teilgeometrien/Erweiterungen von anderen – wobei wir einige<br />
erst noch kennenlernen werden:<br />
projektiv<br />
↙ ↓ ↘<br />
elliptisch affin hyperbolisch<br />
↓<br />
Ähnlichkeit<br />
↓<br />
euklidisch<br />
39
6 Sphärische und elliptische <strong>Geometrie</strong><br />
Hier diskutieren wir ausführlicher sphärische <strong>Geometrie</strong>, also<br />
X = S n , G = O(n + 1)<br />
und dann, davon abgeleitet, elliptische <strong>Geometrie</strong>, also<br />
X = S n /(x ∼ −x) = RP n ,<br />
G = P O(n + 1) = O(n + 1)/(±I).<br />
6.1 Sphärische Zweiecke<br />
Kollineare Punkte auf der Sphäre sind Punkte, die auf einem Großkreis liegen (also auf einem<br />
Schnitt der S n mit einem 2-dimensionalen Unterraum).<br />
Definition 6.1 (Hemisphäre, Zweieck). Eine Hemisphäre auf der S n ist eine Teilmenge von der<br />
Form<br />
H N := {x ∈ S n : 〈x, N〉 ≥ 0}<br />
wobei N ∈ S n der Pol der Hemisphäre ist (N ∈ H n , −N /∈ H N ).<br />
Ein Zweieck ist der Schnitt von zwei verschiedenen, nicht gegenüberliegenden Hemisphären,<br />
also H N ∩ H N ′ mit N ≠ ±N ′ .<br />
Lemma 6.2. Jede Hemisphäre hat die Hälfte des Volumens der n-dimensionalen Sphäre. Ein<br />
Zweieck hat einen Anteil von ̂α/2π am Volumen der n-Sphäre, wobei ̂α der Außenwinkel des<br />
Zweiecks ist, also<br />
̂α + α = 2π, 〈N, N ′ 〉 = cos ̂α, 〈N, N ′ 〉 = − cos α.<br />
α ′ α<br />
m<br />
n<br />
α<br />
40
6.2 Sphärische Dreiecke<br />
Sehr viel <strong>Geometrie</strong> lässt sich von der <strong>Geometrie</strong> von Dreiecken ableiten.<br />
Jedes Dreieck liegt in einer 2-dimensionalen Hypersphäre, also dem Schnitt der S n mit einem<br />
3-dimensionalen Unterraum des R n+1 . Daher nehmen wir im Folgenden ohne Einschränkung<br />
der Allgemeinheit an, dass wir ein sphärisches Dreieck in der S 2 betrachten.<br />
Definition 6.3 (Dreieck). Ein Dreieck △ ⊂ S 2 ist in der sphärischen <strong>Geometrie</strong> ein Schnitt<br />
dreier Hemisphären<br />
△ := H A ′ ∩ H B ′ ∩ H C ′<br />
deren Pole A ′ , B ′ , C ′ nicht kollinear sind (also nicht auf einem Großkreis liegen).<br />
Lemma 6.4. Jedes sphärische Dreieck △ ⊂ S 2 lässt sich auch beschreiben als<br />
△ = {x ∈ S 2 : x = λA + µB + νC, λ, µ, ν ≥ 0}<br />
für drei nicht kollineare Punkte A, B, C ∈ S 2 , die Ecken des Dreiecks.<br />
C<br />
b<br />
a<br />
A<br />
c<br />
B<br />
Beweis. Die Punkte A, B, C sind gegeben durch<br />
A = B′ × C ′<br />
|B ′ × C ′ | , B = C′ × A ′<br />
|C ′ × A ′ | , C = A′ × B ′<br />
|A ′ × B ′ | .<br />
41
Mit dieser Konstruktion überprüft man<br />
〈A ′ , A〉 > 0, 〈A ′ , B〉 = 0, 〈A ′ , C〉 = 0,<br />
〈B ′ , A〉 = 0, 〈B ′ , B〉 > 0, 〈B ′ , C〉 = 0,<br />
〈C ′ , A〉 = 0, 〈C ′ , B〉 = 0, 〈C ′ , C〉 > 0.<br />
Lemma 6.5. Im Dreieck △ = ABC sind die Kantenlängen (in der intrinsischen Metrik der<br />
Sphäre, vom Durchmesser π) gegeben durch<br />
und die äußeren Winkel durch<br />
cos a = 〈B, C〉, cos b = 〈C, A〉, cos c = 〈A, B〉<br />
cos ̂α = 〈B ′ , C ′ 〉, cos ̂β = 〈C ′ , A ′ 〉, cos ̂γ = 〈A ′ , B ′ 〉,<br />
mit Innenwinkeln α = π − ̂α usw.<br />
Proposition 6.6. Zu jedem Dreieck △ = ABC gibt es das duale Dreieck △ ′ = A ′ B ′ C ′ so dass<br />
• das Duale des Dualen ist das Ausgangsdreieck: △ ′′ = △,<br />
• die Kantenlängen des Dreiecks sind die Außenwinkel des Dualen, und umgekehrt: a ′ = ̂α,<br />
usw.<br />
Ende 14.6.2011<br />
Lemma 6.7 (Dreiecksungleichungen). Die Kantenlängen, Außenwinkel und Innenwinkel des<br />
sphärischen Dreiecks △ = ABC erfüllen<br />
a + b − c > 0 a − b + c > 0 − a + b + c > 0 a + b + c < 2π<br />
̂α + ̂β − ̂γ > 0 ̂α − ̂β + ̂γ > 0 − ̂α + ̂β + ̂γ > 0 ̂α + ̂β + ̂γ < 2π<br />
α + β − γ < π α − β + γ < π − α + β + γ < π α + β + γ > π.<br />
Beweis. Die ersten drei Ungleichungen für die Seitenlängen folgen aus der Dreiecksungleichung<br />
für die Metrik auf der Sphäre. Die vierte folgt aus<br />
a+b+c = d(B, C)+d(C, A)+d(A, B) < d(B, C)+d(C, −B)+d(−B, A)+d(A, B) = π+π.<br />
Die Ungleichungen für die Außenwinkeln folgen daraus sofort nach Proposition 6.6, und damit<br />
auch die Ungleichungen für die Innenwinkel mit α = π − ̂α usw.<br />
Insbesondere wissen wir aus Lemma 6.7, dass in jedem sphärischen Dreieck die Winkelsumme<br />
α + β + γ größer ist als π<br />
Theorem 6.8. Die Fläche des Dreiecks △ = ABC mit Innenwinkeln α, β, γ ist α + β + γ − π.<br />
42
−A<br />
C<br />
−∆<br />
∆<br />
−C<br />
A<br />
Beweis. Die Zweiecke, die von den Innenwinkeln von △ und von denen des gegenüberliegenden<br />
Dreiecks −△ aufgespannt werden, überdecken die Sphäre S 2 ganz, dabei die Dreiecke △ und<br />
−△ dreifach, den Rest aber einfach. Also erhalten wir<br />
(2α + 2β + 2γ) + (2α + 2β + 2γ) = 4π + 2Vol(△) + 2Vol(△),<br />
also<br />
4α + 4β + 4γ = 4π + 4Vol(△).<br />
Proposition 6.9. Seien a, b, c ∈ R.<br />
(i) Ein sphärisches Dreieck mit den Kantenlängen a, b, c existiert dann und nur dann, wenn<br />
die vier Dreiecksungleichungen<br />
a + b − c > 0 a − b + c > 0 − a + b + c > 0 a + b + c < 2π<br />
erfüllt sind.<br />
(ii) Wenn das Dreieck existiert, dann ist es eindeutig bis auf Kongruenztransformationen.<br />
Beweis. Wir dürfen A, B im Abstand c auf dem Äquator platzieren, und betrachten die Kreisscheiben<br />
K A und K B vom Radius b bzw. a um A bzw. B.<br />
43
Wir brauchen, dass die Kreisscheiben überlappen und sich die Randkreise in zwei Schnittpunkten<br />
(in der oberen und in der unteren Hemisphäre) schneiden. Das wird durch die vier Ungleichungen<br />
garantiert: Wenn a + b ≤ c ist, dann sind die beiden Kreisschreiben disjunkt. Wenn<br />
a + c ≥ b, dann ist K B ⊂ K A ; wenn b + c ≥ a, dann ist K A ⊂ K B . Wenn a + b + c ≥ 2π, dann<br />
ist K A ∪ K B = S 2 , die Kreischeiben überdecken die Sphäre, aber die Randkreise schneiden<br />
sich nicht.<br />
a c b<br />
In allen anderen Fällen gibt es wie gewünscht die beiden Schnittpunkte, und daraus folgt Existenz<br />
und Eindeutigkeit des Dreiecks.<br />
In jedem sphärischen Dreieck kann man aus den Seitenlängen die Winkel berechnen (wie in<br />
der eukldischen <strong>Geometrie</strong>, mit Hilfe des Kosinussatzes!), aber auch aus den Winkeln die Seitenlängen<br />
berechnen.<br />
Proposition 6.10 (Kosinussatz). Im sphärischen Dreieck mit Kantenlängen a, b, c und Außenwinkeln<br />
̂α, ̂β, ̂γ gilt der Seitenkosinussatz<br />
und der Winkelkosinussatz<br />
cos ̂α =<br />
− cos a + cos b cos c<br />
sin b sin c<br />
cos â = − cos ̂α + cos ̂β cos ̂γ<br />
sin ̂β<br />
.<br />
sin ̂γ<br />
und entsprechend für cos ̂β und cos ̂γ bzw. cos b und cos c bei gleichzeitiger Permutation von<br />
a → b → c und ̂α → ̂β → ̂γ.<br />
Beweis. Seien V := (A B C) ∈ R 3×3 und W := (A ′ B ′ C ′ ) ∈ R 3×3 die Basismatrizen, die<br />
dem Dreieck bzw. dem polaren Dreieck entsprechen.<br />
Die Gram-Matrix zu V ist dann die symmetrische, positiv-definite Matrix<br />
⎛<br />
⎞ ⎛<br />
⎞<br />
〈A, A〉 〈A, B〉 〈A, C〉<br />
G := V t V = ⎝〈B, A〉 〈B, B〉 〈B, C〉 ⎠ = ⎝<br />
〈C, A〉 〈C, B〉 〈C, C〉<br />
1 cos c cos b<br />
cos c 1 cos a⎠ .<br />
cos b cos a 1<br />
Genauso gehört zu W die Gram-Matrix<br />
⎛<br />
⎞ ⎛<br />
〈A ′ , A ′ 〉 〈A ′ , B ′ 〉 〈A ′ , C ′ 〉 1 cos ̂γ cos ̂β ⎞<br />
G ′ := W t W = ⎝〈B ′ , A ′ 〉 〈B ′ , B ′ 〉 〈B ′ , C ′ 〉 ⎠ = ⎝cos ̂γ 1 cos ̂α ⎠ .<br />
〈C ′ , A ′ 〉 〈C ′ , B ′ 〉 〈C ′ , C ′ 〉 cos ̂β cos ̂α 1<br />
44
Und schließlich berechnen wir das Produkt<br />
⎛<br />
⎞ ⎛<br />
⎞<br />
〈A ′ , A〉 〈A ′ , B〉 〈A ′ , C〉 〈A ′ , A〉 0<br />
W t V = ⎝〈B ′ , A〉 〈B ′ , B〉 〈B ′ , C〉 ⎠ = ⎝ 0 〈B ′ , B〉 0 ⎠ =: D,<br />
〈C ′ , A〉 〈C ′ , B〉 〈C ′ , C〉 0 0 〈C ′ , C〉<br />
eine Diagonalmatrix mit positiven Diagonaleinträgen, also invertierbar.<br />
Damit können wir G ′ einerseits aus W berechnen, also aus cos ̂α, cos ̂β und cos ̂γ, andererseits<br />
aus V mit W t = DV −1 und W = (V t ) −1 D, und damit G ′ = W t W = DV −1 (V t ) −1 D =<br />
DG −1 D, und damit aus a, b und c.<br />
Gleichsetzen der beiden Ausdrücke für G ′ und Vergleich der Matrixeinträge liefert zuerst Formeln<br />
für die Diagonaleinträge von D, und dann die Seitenkosinussätze.<br />
Die Winkelkosinussätze erhält man entweder analog, oder viel einfacher aus der Dualität von<br />
Proposition 6.6.<br />
Wir geben zwei weitere, wichtige Formeln/Resultat der sphärischen <strong>Geometrie</strong> ohne Beweis<br />
an.<br />
Proposition 6.11 (Sinussatz). Im sphärischen Dreieck mit Kantenlängen a, b, c und Außenwinkeln<br />
̂α, ̂β, ̂γ gilt<br />
sin a<br />
sin ̂α = sin b sin c<br />
=<br />
sin ̂β sin ̂γ .<br />
(Dies gilt natürlich genauso für die Innenwinkel α, β, γ, wegen ̂α = π − α und damit sin ̂α =<br />
sin α, usw.)<br />
Proposition 6.12 (Napier’sche Regel). Im rechtwinkligen sphärischen Dreieck mit Seitenlängen<br />
a, b, c, Innenwinkeln α, β sowie γ = π/2, und “Seitenkomplementen” â := π − a, ̂b := π − a<br />
gilt<br />
cos c = sin â sin̂b = cot α cot b,<br />
sowie die vier weiteren Gleichungen, die man durch die zyklische Vertauschung<br />
daraus gewinnen kann.<br />
c → α → ̂b → â → β → c<br />
b<br />
a<br />
b<br />
a<br />
α<br />
β<br />
α<br />
c<br />
β<br />
c<br />
Ende 16.6.2011<br />
45
6.3 Sphärische und Elliptische <strong>Geometrie</strong><br />
Im letzten Abschnitt haben wir die <strong>Geometrie</strong> von sphärischen Dreiecken in der S 2 analysiert.<br />
Alle Ergebnisse gelten aber genauso in der S n (n ≥ 2), weil jedes Dreieck der S n in einer<br />
2-dimensionalen Untersphäre liegt.<br />
Weiter kann man analysieren, dass die hochdimensionale <strong>Geometrie</strong> sehr weitgehend aus der<br />
<strong>Geometrie</strong> von Dreiecken abgeleitet werden kann. Siehe zum Beispiel die Beiträge zur “Coarse<br />
Metric Geometry” von Mikhail Gromov, dem Abel-Preisträger von 2010, vgl. Burago, Burago<br />
& Ivanov [2].<br />
Trotzdem ist auch festzustellen, dass die Gewinnung von expliziten Formeln, zum Beispiel<br />
für das Volumen eines sphärischen Tetraeders aus den Kantenlängen, schwierig ist, und tief<br />
in andere Bereiche der Mathematik führt — zum Beispiel in die Algebraische Topologie (K-<br />
Theorie!), siehe Dupont [4].<br />
Die <strong>Geometrie</strong>, die wir dabei betrachten, ist nach Klein durch<br />
X = S n G = O(n + 1)<br />
gegeben. Zu den Invarianten gehört dann die Metrik<br />
d(x, y) = cos −1 〈x, y〉,<br />
die Werte im Intervall [0, π] annimmt.<br />
Will man eine <strong>Geometrie</strong> im Sinne von Euklid und Hilbert gewinnen, in der es durch zwei<br />
verschiedene Punkte immer genau eine Gerade gibt, so muss man gegenüberliegende Punkte<br />
auf der Sphäre identifizieren:<br />
Definition 6.13 (Elliptische <strong>Geometrie</strong>). Für die Elliptische <strong>Geometrie</strong> nehmen wir als Punkte<br />
die Paare von antipodalen Punkten von S n , als Geraden die Mengen der Antipodenpaare auf<br />
einem Großkreis. Wir erhalten so die <strong>Geometrie</strong><br />
X = S n /(x ∼ −x) = RP n G = O(n + 1)/(±I) = P O(n + 1).<br />
In dieser <strong>Geometrie</strong> geht nicht nur durch zwei verschiedenen Punkte genau eine Gerade, sondern<br />
zwei verschiedene Geraden schneiden sich immer in genau einem Punkt, es gibt also keine<br />
Parallelen — genau wie in der projektiven <strong>Geometrie</strong> (X = RP n , G = P GL(n+1, R)), wobei<br />
die elliptische <strong>Geometrie</strong> aber eine viel kleinere Gruppe hat, und dafür mehr Invarianten, unter<br />
anderem die Metrik<br />
d(x, y) = min{cos −1 〈x, y〉, cos −1 〈x, −y〉} = cos −1 |〈x, y〉|,<br />
die Werte im Intervall [0, π/2] annimmt.<br />
Dreiecke, Winkel, Volumina etc. verhalten sich dabei sehr ähnlich wie in der sphärischen <strong>Geometrie</strong>,<br />
wobei die <strong>Geometrie</strong> nur für ungerades n orientierbar ist.<br />
Literatur<br />
[1] Benno Artmann. Euclid — The Creation of Mathematics. Springer-Verlag, New York, 1999.<br />
46
[2] Dmitri Burago, Yuri Burago, and Sergei Ivanov. A Course in Metric Geometry, volume 33 of Graduate<br />
Studies in Math. Amer. Math. Soc., 2001.<br />
[3] Oliver Byrne. The first six books of the elements of euclides. web presentation by Bill Casselman;<br />
http://www.math.ubc.ca/˜cass/Euclid/byrne.html.<br />
[4] Johan L. Dupont. Scissors congruences, group homology and characteristic classes,, volume 1 of<br />
Nankai Tracts in Mathematics. World Scientific, Singapore, 2001.<br />
[5] Euclid. The Elements. web presentation by David E. Joyce; http://aleph0.clarku.edu/<br />
˜djoyce/java/elements/toc.html.<br />
[6] Robin Hartshorne. Geometry: Euclid and Beyond. Undergraduate Texts in Math. Springer-Verlag,<br />
New York, 2000.<br />
[7] David Hilbert. Grundlagen der <strong>Geometrie</strong>. Chelsea Publishing Company, Leipzig, 1899. mit zahlreichen<br />
Neuauflagen, zuletzt bei Teubner, Stuttgart 1999.<br />
47
7 Möbiusgeometrie<br />
Quelle/Referenz für dieses Kapitel: Springborn [1, Lectures 28/29]<br />
7.1 Spiegelung an einer Sphäre<br />
Jede Hyperebene H ⊂ R n kann in der Form H = {x ∈ R n : 〈x − a, v〉 = 0} geschrieben<br />
werden, wobei a ∈ H ist und v ≠ 0 ein Normalenvektor ist.<br />
Die Spiegelung an H ist gegeben durch<br />
x ↦−→ x = x − 2<br />
〈x − a, v〉<br />
x.<br />
〈x, x〉<br />
Dabei liegt ̂x =: x − 〈x−a,v〉 x auf der Hyperebene, und es gilt |x − ̂x| = |x − ̂x|.<br />
〈x,x〉<br />
x<br />
v<br />
a<br />
x<br />
Sehr ähnlich definiert man die Spiegelung (oder “Inversion”) an einer Sphäre.<br />
Definition 7.1 (Spiegelung an einer Sphäre). Sei S(c, r) := {x ∈ R n : 〈x − c, x − c〉 = r 2 } die<br />
Sphäre mit Mittelpunkt c ∈ R n und Radius r > 0.<br />
Die Spiegelung an S(c, r) ist die Abbildung<br />
x ↦−→ x = c +<br />
x<br />
r 2<br />
(x − c).<br />
〈x − c, x − c〉<br />
r<br />
c<br />
x<br />
Wir notieren:<br />
• x liegt auf dem Strahl, der in c beginnt und durch x geht.<br />
• Dabei gilt |x − c||x − c| = r 2 .<br />
• Die Punkte auf S(c, r) werden auf sich selbst abgebildet.<br />
• Die Abbildung ist eine Involution: x ↦→ x ↦→ x = x.<br />
48
• Die Abbildung ist für x = c nicht definiert. Wir fügen einen Punkt im Unendlichen “∞”<br />
hinzu, und definieren dann die Abbildung als c ↦→ ∞ and ∞ ↦→ c.<br />
• Mit dieser Festsetzung ist die Spiegelung an der Sphäre S(c, r) eine Bijektion R n ∪<br />
{∞} → R n ∪ {∞}.<br />
7.2 Möbiusgeometrie<br />
Definition 7.2 (Möbiustransformationen, Möbiusgeometrie). Eine Möbiustransformation ist eine<br />
Abbildung f : R n ∪ {∞} → R n ∪ {∞}, die sich als Hintereinanderausführung von endlich<br />
vielen Spiegelungen in Hyperebenen und/oder Sphären darstellen lässt.<br />
Ist eine Möbiustransformatione ein Hintereinanderausführung einer geraden Anzahl von Spiegelungen,<br />
so ist sie orientierungs-erhaltend, andernfalls ist sie orientierungs-umkehrend.<br />
Die Gruppe der Möbiustransformationen bezeichnen wir mit Möb(n), die Untergruppe der<br />
orientierungs-erhaltenden Möbiustransformationen mit Möb + (n).<br />
X = R n ∪ {∞},<br />
G := Möb(n).<br />
In dieser Definition sind natürlich einige Behauptungen versteckt, etwa dass Möb(n) wirklich<br />
eine Gruppe ist und Möb + (n) eine Untergruppe, und dass Orientierung wohldefiniert ist.<br />
Lemma 7.3. Ähnlichkeitsabbildungen sind Möbiustransformationen:<br />
Ähnl(n, R) = R n ⋊ (O(n) × R >0 ) ⊆ Möb(n).<br />
Beweis. Jede orthogonale Abbildung in O(n) ist eine Hintereinanderausführung von höchstens<br />
n Spiegelungen an Hyperebenen.<br />
Translationen kann durch Spiegelung an zwei parallelen Hyperebenen erzeugen.<br />
Die Streckung x ↦→ λx erhält man durch Spiegelung an S n−1 = S(0, 1), gefolgt von Spiegelung<br />
an S(0, √ λ).<br />
Ab jetzt: “Sphären” in der Möbiusgeometrie meint (n − 1)-dimensionale Sphären S(c, r) ⊂ R n<br />
sowie Hyperebenen (als “Sphären durch ∞”).<br />
Theorem 7.4. Möbiustransformationen bilden Hyperebenen und Sphären auf Hyperebenen und<br />
Sphären ab.<br />
Beweis. (1) Es reicht, das für die Spiegelung in der Einheitssphäre S n−1 ⊂ R n−1 zu zeigen,<br />
weil jedes Sphäreninversion in einer beliebigen Sphäre S dargestellt werden kann als<br />
– Ähnlichkeitstransformation, die S auf S(0, 1) abbildet,<br />
– gefolgt von Inversion in S(0, 1)<br />
– gefolgt von Umkehrung der Ähnlichkeitstransformation.<br />
(2) Wir zeigen, dass<br />
{x ∈ R n : p|x| 2 − 2〈x, v〉 + q = 0} für |v| 2 − pq > 0<br />
genau die Sphären (also (n − 1)-Sphäre und Hyperebenen) im R n beschreibt. Für p = 0 folgt<br />
nämlich v ≠ 0, und wir haben eine Hyperebenengleichung. Für p ≠ 0 zeigt quadratische<br />
Ergänzung, dass dies eine Sphärengleichung ist.<br />
49
(3) Rechnung: Für x := 1<br />
|x| 2 x gilt<br />
p|x| 2 − 2〈x, v〉 + q = 0 ⇐⇒ q|x| 2 − 2〈x, v〉 + v = 0.<br />
Theorem 7.5 (Möbiustransformationen sind lokal winkelerhaltend (“konform”)). Möbiustransformationen<br />
erhalten lokal die Winkel zwischen glatten Kurven (insbesondere: Geraden, Kreise) die sich<br />
schneiden.<br />
Beweis. Weil Ähnlichkeitsabbildungen offenbar konform sind, reicht es, dies für die Inversion<br />
in der Einheitssphäre x ↦→ 1<br />
|x| 2 x nachzuweisen.<br />
Dafür betrachtet man nun zwei Kurven γ(t) und η(t) mit γ(0) = η(0) = p und rechnet nach,<br />
dass 〈γ ′ , γ ′ 〉 = 1<br />
〈γ,γ〉 2 〈γ ′ , γ ′ 〉, similarly for 〈η ′ , η ′ 〉, and evaluates at t = 0.<br />
Ende 21.6.2011<br />
Bemerkung 7.6. (1) “winkelerhaltend” gilt auch bei ∞, wenn man den Winkel im Unendlichen<br />
geeignet interpretiert. (Dazu betrachtet man Geraden durch den Mittelpunkt der Sphäre, in der<br />
invertiert wird.)<br />
(2) Für n > 2 gilt auch die Umkehrung: eine konforme Abbildung ist eine Möbiustransformation.<br />
Auch schon lokal. Für n = 2 ist das global auch richtig, lokal aber völlig falsch: Riemann’scher<br />
Abbildungssatz. Trotzdem ist komplexe Interpretation wichtig, siehe nächster Abschnitt.<br />
Umkehrung von Theorem 7.4:<br />
Proposition 7.7. Für n > 1 sind die Abbildungen f : R n ∪{∞} → R n ∪{∞}, die Hyperebenen<br />
und Sphären auf Hyperebenen und Sphären abbilden, genau die Möbiustransformationen.<br />
Beweis. Eine solche Abbildung bildet insbesondere auch Kreise und Geraden (die 1-dimensionalen<br />
Schnitte von Hyperebenen uns Sphären) auf Kreise und Geraden ab.<br />
(1) Im Fall f(∞) = ∞ werden alle Geraden auf Geraden abgebildet. ALso haben wir es nach<br />
Bemerkung 2.2 mit einer affinen Abbildung zu tun. Weiter dürfen wir (nach einer Translation)<br />
annehmen, dass die Abbildung 0 auf 0 abbildet. Also ist die Abbildung linear.<br />
Wenn nun weiter die Einheitssphäre auf die Einheitssphäre abgebildet wird, dann ist die Abbildung<br />
eine Ähnlichkeitstransformation (nämlich ein Vielfaches einer orthogonalen Abbildung).<br />
(2) Gilt f(∞) = c, so sei g die Inversion in der Sphäre S(c, 1). Weil die Sphäreninversion g<br />
Hyperebenen und Sphären auf Hyperebenen und Sphären abbildet, gilt dies auch für die Abbildung<br />
g ◦ f. Die Abbildung g ◦ f bildet nach ∞ nach ∞ ab, ist also nach Fall (1) eine<br />
Möbiustransformation. Weil g = g −1 als Sphäreninversion aber auch eine Möbiustransformation<br />
ist, gilt dies auch für f.<br />
Bemerkung: für n = 1 ist das natürlich falsch.<br />
Erweiterung von Lemma 7.3:<br />
Korollar 7.8. Ähnlichkeitstransformationen sind genau die Möbiustransformationen, die ∞<br />
fixieren.<br />
50
7.3 Komplex-projektive Interpretation der 2-dimensionalen Möbiusgeometrie<br />
Im Fall n = 2 können wir den R 2 mit der komplexen Zahlenebene identifizieren, R 2 ∪ {∞}<br />
also mit C ∪ {∞}.<br />
Die Möbiustransformationen in der Ebene können wir alle als gebrochen-lineare komplexe oder<br />
konjugiert-komplexe Funktionen darstellen:<br />
• orientierungserhaltende Ähnlichkeitstransformationen sind z ↦→ az + b für a, b ∈ C,<br />
|a| = 1,<br />
orientierungsumkehrende Ähnlichkeitstransformationen sind z ↦→ az + b für a, b ∈ C,<br />
|a| = 1,<br />
• Spiegelung an der x-Achse ist z ↦→ z,<br />
• Spiegelung im Einheitskreis ist z ↦→ 1<br />
|z| 2 z0 = 1 z .<br />
Proposition 7.9. Die orientierungserhaltenden Möbiustransformationen auf<br />
die Transformationen<br />
z ↦→ az + b<br />
( ) a b<br />
für a, b, c, d ∈ C mit det ≠ 0,<br />
cz + d<br />
c d<br />
Ĉ = sind genau<br />
die orientierungsumkehrenden Möbiustransformationen auf Ĉ = sind genau die Transformationen<br />
z ↦→ az + b<br />
( ) a b<br />
für a, b, c, d ∈ C mit det ≠ 0.<br />
cz + d<br />
c d<br />
Beweis.<br />
(1) Die angegebenen gebrochen-linearen Transformationen bilden eine Gruppe: Die orientierungserhaltenden<br />
sind dabei genau die projektiven Transformationen von CP 1 .<br />
(2) Als Spezialfälle identifizieren wir alle oben angegebenen Erzeuger für die Möbiustransformationen<br />
in der Ebene; also ist die Gruppe Möb(2) in der Gruppe der gebrochen-linearen komplexen<br />
Funktionen enthalten.<br />
(3) Umgekehrt sieht man aus<br />
az + b<br />
cz + d = a bc − ad<br />
+<br />
c c(cz + d)<br />
für c ≠ 0, dass jede gebrochen-lineare Funktion sich als Komposition der oben angegebenen<br />
Erzeuger schreiben lässt. Entsprechend gilt das, wenn wir z durch z erzeugen. Daraus folgt<br />
auch die umgekehrte Inklusion: Jede gebrochen-lineare komplexe oder konjugiert-komplexe<br />
Funktion ist eine Möbiustransformation.<br />
Insbesondere sehen wir also, dass Möb + (2) ∼ = PGL(2, C).<br />
Aus der Identifikation der Möbiusgruppe der Ebene mit komplex-projektiven Transformationen<br />
können wir nun leicht mehrere wichtige Schlussfolgerungen ziehen<br />
Korollar 7.10. (1) orientierungserhaltende Möbiustransformationen der Ebene erhalten das<br />
komplexe Doppelverhältnis<br />
[z 1 , z 2 ; z 3 , z 4 ] = (z 1 − z 3 )(z 2 − z 4 )<br />
(z 2 − z 3 )(z 1 − z 4 ) ,<br />
51
für vier beliebige komplexe Zahlen z 1 , z 2 , z 3 , z 4 ∈ C ∪ {∞} von denen mindestens drei<br />
verschieden sind, orientierungsumkehrende Möbiustransformationen konjugieren das Doppelverhältnis.<br />
(2) “6-Punkte-Formel”: Sind z 1 , z 2 , z 3 und w 1 , w 2 , w 3 jeweils drei verschiedene Werte, so gibt<br />
es genau eine gebrochen-lineare Funktion f ∈ PGL(2, z) mit f(z i ) = f(w i ).<br />
(3) Vier Punkte z 1 , z 2 , z 3 , z 4 liegen genau dann auf einem Kreis, wenn ihr Doppelverhältnis<br />
reell ist.<br />
7.4 Stereographische Projektion als Möbiusabbildung<br />
Definition 7.11 (Stereographische Projektion). Sei S n = S(0, 1) ⊂ R n+1 die Einheitssphäre,<br />
und sei H ⊂ R n+1 die durch x n+1 = 0 (Variante 1) bzw. x n+1 = −1 (Variante 2) gegebene<br />
Hyperebene, welche wir (durch weglassen der konstanten letzten Koordinate, also 0 oder −1)<br />
mit R n identifizieren können.<br />
Die stereographische Projektion ist die Abbildung<br />
S n → H ∪ {∞},<br />
die dadurch gegeben wird, dass der Nordpol N ∈ S N auf ∞ abgebildet wird, und jeder andere<br />
Punkt von P ∈ S n auf eindeutigen Schnittpunkt der Geraden P N mit der Hyperebene H.<br />
Variante 1:<br />
N<br />
O<br />
S n<br />
H = {x ∈ R n+1 | x n+1 = 0}<br />
Variante 2:<br />
N<br />
O<br />
S n<br />
H = {x ∈ R n+1 | x n+1 = −1}<br />
Proposition 7.12. Die Stereographische Projektion ist die Einschränkung einer Möbiustransformation<br />
R n+1 ∪{∞} → R n+1 ∪{∞}, nämlich der Sphäreninversion in der Sphäre S(N, √ 2)<br />
in Variante 1 bzw. der Sphäre S(N, 2) in Variante 2.<br />
52
Beweis. Die Sphäreninversion bildet (in beiden Varianten) Geraden durch den Mittelpunkt N<br />
der Inversionssphäre auf Geraden durch N ab, andererseits die Sphäre S n auf die Hyperebene<br />
H ∪{∞} ab — also den Schnittpunkt jeder Gerade mit S \{N} auf den Schnittpunkt derselben<br />
Geraden mit H. Daraus folgt schon alles.<br />
Korollar 7.13. Die stereographische Projektion ist konform.<br />
Korollar 7.14 (Delaunay-Triangulierung). [vgl. Vorlesung]<br />
7.5 Lorentz-<strong>Geometrie</strong><br />
Definition 7.15. Für p, q ≥ 0 bezeichnet R p,q den Vektorraum R n+1 mit der Bilinearform<br />
〈x, y〉 := x 1 y 1 + · · · + x p y p − x p+1 y p+1 − · · · − x p+q y p+q ,<br />
die wir als Skalarprodukt bezeichnen.<br />
Allgemeiner könnten wir mit einen endlich-dimensionalen reellen Vektorraum R m arbeiten, auf<br />
dem eine symmetrische Bilinearform gegeben ist, die nicht degeneriert (die also vollen Rang<br />
hat: nur der Nullvektor ergibt mit jedem anderen Vektor Null), die abernicht notwendigerweise<br />
positiv definit ist.<br />
In dieser Situation kann man den Algorithmus von Gram-Schmidt so anpassen, dass er doch<br />
eine “Orthogonalbasis” e 1 , . . . , e n liefert, für die<br />
⎧<br />
⎪⎨ 1 für 1 ≤ i = j ≤ p,<br />
〈e i , e j 〉 = −1 für p < i = j ≤ p + q,<br />
⎪⎩<br />
0 für i ≠ j<br />
gilt. Hier ist p die maximale Dimension eines Unterraums, auf dem 〈·, ·〉 positiv definit ist,<br />
q die maximale Dimension eines Unterraums, auf dem das Skalarprodukt negativ definit ist.<br />
Insbesondere gilt p + q = m (weil das Skalarprodukt nach Annahme nicht degeneriert ist), und<br />
die Kennzahlen p und q sind für alle Orthogonalbasen dieselben. Das Paar (p, q) heißt der Index<br />
des Vektorraums.<br />
Mit O(p, q) bezeichnet man die Gruppe aller orthogonalen Transformationen auf R p,q , die also<br />
das Skalarprodukt erhalten. Uns interessiert im Folgenden besonders der Spezialfall q = 1.<br />
Definition 7.16 (Lorentz-Raum). Der Raum R n,1 , also der Vektorraum R n+1 mit dem Skalarprodukt<br />
〈x, y〉 := x 1 y 1 + · · · + x n y n − x n+1 y n+1<br />
heißt ein Lorentz-Vektorraum.<br />
Die Lorentz-Gruppe aller linearen Transformationen T : R n+1 → R n+1 , die das Skalarprodukt<br />
erhalten, für die also 〈T v, T w〉 = 〈v, w〉 für alle v, w gilt, wird mit O(n, 1) bezeichnet.<br />
Lemma 7.17 (Koordinatendarstellung). Eine Matrix A ∈ O(n, 1) ist dadurch charakterisiert,<br />
dass die Spalten eine Orthonormalbasis bezüglich des gegebenen Skalarprodukts bilden, dass<br />
also<br />
A t EA = E<br />
53
gilt, wobei E die Diagonalmatrix<br />
bezeichnet.<br />
E =<br />
(<br />
In<br />
)<br />
0<br />
0 t −1<br />
Definition 7.18 (Bezeichungen aus der Relativitätstheorie). Ein Vektor x ∈ R n,1 heißt<br />
• raumartig, wenn 〈x, x〉 > 0,<br />
• lichtartig, wenn 〈x, x〉 = 0,<br />
• zeitartig, wenn 〈x, x〉 < 0.<br />
Der Doppelkegel der lichtartigen Vektoren heißt der Lichtkegel.<br />
R<br />
zeitartig ( ”<br />
innerhalb“ des Lichtkegels)<br />
lichtartig (auf dem Lichtkegel)<br />
raumartig ( ”<br />
außerhalb“ des Lichtkegels)<br />
R n<br />
Beispiel 7.19. Im Lorentz-Raum R 1,1 ist das Skalarprodukt durch 〈x, y〉 = x 1 y 1 −x 2 y 2 gegeben.<br />
Die Mengen {x ∈ R 1,1 : 〈x, x〉 = 1} und {x ∈ R 1,1 : 〈x, x〉 = −1} sind jeweils Hyperbeln.<br />
( ( (√ ) ( 1 0 2<br />
Orthonormalbasen sind zum Beispiel , und , √2 1<br />
).<br />
0)<br />
1)<br />
1<br />
Beachte: Orthonormalbasen müssen wir als geordnete Folgen von Vektoren schreiben, weil es<br />
auf die Reihenfolge ankommt.<br />
54
〈x, x〉 = 1<br />
〈x, x〉 = −1<br />
(1, √ 2)<br />
(0, 1)<br />
( √ 2, 1)<br />
x 2<br />
(1, 0)<br />
x 1<br />
〈x, x〉 = −1<br />
〈x, x〉 = 1<br />
Definition und Lemma 7.20. Die Menge der zeitartigen Vektoren<br />
Q := {x ∈ R n,1 : 〈x, x〉 = −1} ⊂ R n+1<br />
ist ein zweischaliges Hyperboloid.<br />
Dabei bezeichnet<br />
H n := {x ∈ R n,1 : 〈x, x〉 = −1, x n+1 > 0}<br />
die obere Schale.<br />
Jede orthogonale Transformation bildet die Vektoren in der oberen Schale H n entweder auf die<br />
Vektoren der oberen Schale ab, oder auf die Vektoren der unteren Schale (d.h., er vertauscht die<br />
Schalen.<br />
Die Untergruppe der orthogonalen Transformationen, die die obere Schale auf sich selbst abbilden,<br />
wird mit O + (n, 1) bezeichnet. Sie ist<br />
O + (n, 1) = {A ∈ O(n, 1) : a n+1,n+1 > 0}.<br />
7.6 Das reell-projektive Modell<br />
Mit Hilfe der (inversen) stereographischen Transformation können wir die n-dimensionale Möbiusgeometrie<br />
auch auf der n-dimensionalen Sphäre X := S n ⊂ R n+1 interpretieren.<br />
Die Möbiustransformationen sind also die Gruppe G der Abbildungen S n → S n , die Untersphären<br />
von S n (also die Schnitte mit Hyperebenen) auf Untersphären abbilden.<br />
Daraus folgt, dass die n-dimensionale Möbiusgruppe die Menge aller projektiven Transformationen<br />
auf dem R n+1 enthält, die die Sphäre S n auf sich selbst abbilden. Diese Gruppe kann<br />
man mit P O(n + 1, 1) identifizieren — die S n wird dabei als der projektivierte Lichtkegel im<br />
R n+1,1 interpretiert. Wir sehen also, dass P O(n + 1, 1) ⊆ Möb(n). Es gilt aber noch mehr.<br />
Theorem 7.21 (Das reell-projektive Modell der Möbiusgeometrie). Die n-dimensionale Möbiusgeometrie<br />
kann durch die Menge X = S n ⊂ R n+1 ⊂ RP n+1 mit der Gruppe<br />
dargestellt werden.<br />
P O(n + 1, 1) = Möb(n)<br />
55
Beweis. Um dies zu beweisen, müssen wir nur noch zeigen, dass die Transformationen, die die<br />
Möbiusgruppe erzeugen, mittels der stereographischen Projektion auf die Sphäre S n transportiert,<br />
durch projektive Abbildungen dargestellt werden können, die die Sphäre fest halten.<br />
Die (n−1)-dimensionalen Untersphären der S n können hierbei mit Hyperebenen im RP n+1 interpretiert<br />
werden, die S n echt schneiden — und diese können wir mit ihren Normalenvektoren,<br />
also den raumartigen Punkten in RP n+1 identifiziert werden, also mit den Punkten “außerhalb”<br />
der Sphäre S n ⊂ R n+1 . Man verifizierte dafür, dass “außerhalb” hier wohldefiniert ist . . .<br />
Korollar 7.22 (Darstellung von Möbiustransformationen durch Matrizen). Möbiustransformationen<br />
können durch Aquivalenzklassen von (n + 2) × (n + 2)-Matrizen in A ∈ O(n + 1, 1) dargestellt<br />
werden.<br />
Es ist also Möb(n) = P O(n + 1, 1) = O(n + 1, 1)/(R \ {0}).<br />
Literatur<br />
[1] Boris A. Springborn. Geometry I. Lecture Notes, TU Berlin/Berlin Mathematical School,<br />
2007/08, 59 pp., ftp://ftp.math.tu-berlin.de/pub/Lehre/GeometryI/WS07/<br />
geometry1_ws07.pdf.<br />
56
8 Hyperbolische <strong>Geometrie</strong><br />
Quelle/Referenz für dieses Kapitel: Springborn [1, Lectures 7–11]<br />
8.1 Der n-dimensionale hyperbolische Raum<br />
Definition 8.1 (Hyperbolische <strong>Geometrie</strong>). Die n-dimensionale hyperbolische <strong>Geometrie</strong> ist<br />
die Menge<br />
H n := {x ∈ R n,1 : 〈x, x〉 = −1, x n+1 > 0}<br />
(also die obere Schale des zweischaligen Hyperboloids im zeitartigen Bereich der (n + 1)-<br />
dimensionalen Lorentz-Raum) mit der hyperbolischen Gruppe<br />
O + (n, 1) = {A ∈ R (n+1)×(n+1) : A t EA = A, a n+1,n+1 > 0}<br />
der orthogonalen Lorentz-Transformationen, die die Schale auf sich selbst abbilden.<br />
Die hyperbolischen Geraden sind die nicht-leeren Schnitte von H n mit zwei-dimensionalen<br />
linearen Untervektorräumen des R n,1 .<br />
Offensichtlich gibt es durch zwei verschiedene Punkte x, y ∈ H n immer genau eine Gerade.<br />
Bemerkung 8.2 (Kleine Formelsammlung). Im Folgenden brauchen wir den hyperbolischen<br />
Sinus und Kosinus<br />
sinh x = ex − e −x<br />
, cosh x = ex + e −x<br />
2<br />
2<br />
f(x)<br />
f(x) = cosh x<br />
1<br />
f(x) = sinh x<br />
0<br />
1<br />
x<br />
Offenbar gilt sinh −x = − sinh x, cosh −x = cosh x, cosh x ≥ x, sinh ′ x = cosh x, cosh ′ x =<br />
sinh x, und insbesondere<br />
cosh 2 x − sinh 2 x = 1<br />
für alle x ∈ R.<br />
Die Umkehrfunktionen, Areasinus und Areakosinus, sind<br />
letzterer nur für x ≥ 1.<br />
arsinh x = ln(x + √ x 2 + 1), arcosh x = ln(x + √ x 2 − 1),<br />
57
Beispiel 8.3 (1-dimensionaler hyperbolischer Raum). Für n = 1 erhalten wir H 1 ⊂ R 1,1 als<br />
Hyperbelast.<br />
x 2 H 1<br />
(sinh s, cosh s)<br />
x 1<br />
Dieser kann durch<br />
γ(s) :=<br />
( ) sinh s<br />
cosh s<br />
parametrisiert werden — und dies ist die Parametrisierung mit “Geschwindigkeit 1”, also nach<br />
Bogenlänge:<br />
( ) cosh s<br />
γ ′ (s) =<br />
mit 〈γ ′ (s), γ ′ s〉 = 1.<br />
sinh s<br />
Damit berechnen wir Abstände als<br />
length(γ(s)| [s1 ,s 2 ]) = |<br />
∫ s2<br />
s 1<br />
√<br />
〈γ′ (s), γ ′ s〉| = |s 2 − s 1 |.<br />
Wir berechnen das Skalarprodukt von zwei Punkten x = γ(s 1 ) und y = γ(s 2 ) auf H 1 als<br />
〈x, y〉 = 〈γ(s 1 ), γ(s 2 )〉 = sinh s 1 sinh s 2 − cosh s 1 cosh s 2 = − cosh(s 2 − s 1 ).<br />
Damit ist die Metrik in der 1-dimensionalen hyperbolischen <strong>Geometrie</strong> gegeben durch<br />
− cosh d(x, y) = 〈x, y〉.<br />
Lemma 8.4 (Hyperbolische Drehmatrizen).<br />
( )<br />
( )<br />
cosh s sinh s<br />
− cosh s sinh s<br />
O + (1, 1) = {<br />
: s ∈ R} ∪ {<br />
: s ∈ R}.<br />
sinh s cosh s<br />
− sinh s cosh s<br />
Die erste der beiden Teilmengen von Matrizen ist die Untergruppe der Matrizen der Determinante<br />
+1, also SO + (1, 1).<br />
Die hyperbolischen Drehmatrizen sind genau die Matrizen, die H 1 auf sich selbst abbilden.<br />
Wir definieren Metrik auf hyperbolischem Raum mit Hilfe der Metrik von R n+1 .<br />
Das definiert eine Metrik, weil die Tangentialvektoren raumartig sind! Dafür verwenden wir,<br />
dass jeder Tangentialvektor γ ′ (0) an H n auf dem Vektor γ(0) senkrecht steht, 〈γ ′ (0), γ(0), und<br />
dass daraus folgt, dass γ ′ (0) raumartig ist. (Das kann man geometrisch argumentieren, weil<br />
spann{γ ′ (0), γ(0)} zweidimensional ist, also die Hyperebene x n+1 = 0 schneidet.)<br />
58
Proposition 8.5. Der kürzeste (stückweise-differenzierbare) Weg zwischen zwei Punkten in H n<br />
liegt auf der Geraden.<br />
Beweis. Das wird hier nicht bewiesen (dafür vergleicht man den Fortschritt des Weges γ(s) mit<br />
der Funktion der linearen Abstände d(x, γ(0)) = arcosh(−〈x, γ(0)), und verwendet Cauchy-<br />
Schwartz sowie 〈γ(s), γ ′ (s)〉 = 0.)<br />
Damit ist aber insgesamt die Abstandsfunktion auf H n durch<br />
− cosh d(x, y) = 〈x, y〉.<br />
gegeben, und die hyperbolischen Transformationen erhalten Abstände.<br />
Beispiel 8.6 (2-dimensionaler hyperbolischer Raum). Für n = 2 erhalten wir H 2 ⊂ R 2,1 als<br />
obere Schale des zweischaligen Hyperboloids.<br />
x 3<br />
H 2<br />
R 2<br />
Jede Gerade l ⊂ H 2 lässt sich darstellen als l = H 2 ∩ U für U = {x ∈ R 2,1 : 〈x, n〉 = 0} mit<br />
n ∈ R 2,1 raumartig und normiert, 〈n, n〉 = 1.<br />
Proposition 8.7. Seien n 1 ≠ ±n 2 raumartig, 〈n i , n i 〉 = 1, sowie l 1 , l 2 die zugehörigen Geraden.<br />
Dann sind äquivalent:<br />
(i) l 1 ∩ l 2 ≠ ∅,<br />
(ii) Das Skalarprodukt 〈·, ·〉 eingeschränkt auf spann{n 1 , n 2 } ist positiv definit,<br />
(iii) |〈n 1 , n 2 〉| < 1.<br />
Beweis. (i)⇒(ii): Für den Schnittpunkt x gilt {x} ⊥ = spann{n 1 , n 2 }. Alle Vektoren, die auf x<br />
senkrecht stehen, sind raumartig.<br />
(ii)⇒(i): spann{n 1 , n 2 } ⊥ ist eindimensional, und wird von einem zeitartigen Vektor aufgespannt.<br />
(ii)⇒(iii): Wir stellen das Skalarprodukt eingeschränkt auf spann{n 1 , n 2 } ⊥ durch die Matrix<br />
M =<br />
( 〈n1 , n 1 〉<br />
)<br />
〈n 1 , n 2 〉<br />
〈n 2 , n 1 〉 〈n 2 , n 2 〉<br />
=<br />
( 1<br />
) 〈n1 , n 2 〉<br />
〈n 2 , n 1 〉 1<br />
dar. Das Skalarprodukt ist positiv definit, wenn die Matrix positiv definit ist, und dafür muss die<br />
Determinante positiv sein, also 1 − 〈n 1 , n 2 〉 2 > 0.<br />
59
Lemma 8.8 (Winkel). Seien l 1 , l 2 zwei sich schneidende Geraden in der hyperbolischen Ebene<br />
H 2 , und seien h i := {y ∈ H 1 : 〈y, n i 〉 ≥ 0} die Halbebenen, die durch l 1 , l 2 gegeben sind, mit<br />
Einheitsnormalenvektoren n 1 , n 2 .<br />
Dann gibt es eine eindeutige hyperbolische Rotation (in H 2 ), gegeben durch eine Matrix/<br />
Transformation T ∈ O(2, 1), um den Schnittpunkt {x} = l 1 ∩ l 2 , die h 1 in h 2 überführt und x<br />
fest lässt.<br />
Der Drehwinkel ist gegeben durch<br />
cos α = 〈n 1 , n 2 〉;<br />
das ist auch der Außenwinkel des Kegels h 1 ∩ h 2 mit Spitze x in der hyperbolischen Ebene.<br />
Beweis. Nach Konstruktion steht x senkrecht auf n 1 und n 2 . Verwendet wird die Drehung um<br />
die von x aufgespannte Achse, die n 1 in n 2 überführt. Dabei ist der Winkel zwischen n 1 und n 2<br />
genau der Winkel zwischen den 2-dimensionalen Unterräumen des R 2,1 , die l 1 und l 2 enthalten,<br />
und das ist nach Definition der Winkel zwischen l 1 und l 2 .<br />
Beispiel 8.9 (Hyperbolische Dreiecke). Seien A, B, C ∈ H 2 nicht kollinear (also als Vektoren<br />
im R 2,1 linear unabhängig). Dann bestimmen sie drei unterschiedliche Geraden, die ein hyperbolisches<br />
Dreieck △ABC ⊂ H 2 begrenzen.<br />
Seien A ′ , B ′ , C ′ ⊂ R 2,1 die zugehörigen normierten raumartigen Normalenvektoren, die also<br />
nicht in R 2,1 liegen, mit 〈A, A ′ 〉 > 0, usw. Seien h A ′, h B ′, h C ′ die zugehörigen Halbräume, mit<br />
h A ′ = {y ∈ H 2 : 〈y, A ′ 〉 ≥ 0, usw. Dann kann gilt<br />
△ABC = h A ′ ∩ h B ′ ∩ h C ′.<br />
Die Kantenlängen im Dreieck sind gegeben durch<br />
− cosh a = 〈B, C〉<br />
und die Winkel durch<br />
− cos α = 〈B ′ , C ′ 〉<br />
(Achtung: hier steht ein echter Kosinus, kein cosh!)<br />
usw.<br />
usw.<br />
Theorem 8.10 (Kosinussatz). Im hyperbolischen Dreieck mit Kantenlängen a, b, c und Außenwinkeln<br />
̂α, ̂β, ̂γ gilt der Seitenkosinussatz<br />
und der Winkelkosinussatz<br />
cos α =<br />
cosh a =<br />
− cosh a + cosh b cosh c<br />
sinh b sinh c<br />
cos α + cosh β cosh γ<br />
.<br />
sin β sin γ<br />
und entsprechend für cos β und cos γ bzw. cosh b und cosh c bei gleichzeitiger Permutation von<br />
a → b → c und ̂α → ̂β → ̂γ.<br />
Beweis. Analog zum sphärischen Fall, Theorem 6.10!<br />
60
Theorem 8.11 (Dreiecksungleichungen hyperbolisch). Ein hyperbolisches Dreieck mit Kantenlängen<br />
a, b, c > 0 existiert dann und nur dann, wenn die Dreicksungleichungen gelten (also<br />
a < b + c etc.).<br />
Ein hyperbolisches Dreieck mit Innenwinkeln α, β, γ > 0 existiert dann und nur dann, wenn<br />
α + β + γ < π.<br />
Skizze. (1) Zunächst zeigen wir, dass die Gram-Matrix G = V t V für V = (A B C) von<br />
A, B, C, die ja linear unabhängig sind, Signatur (2, 1) hat — in anderen Worten, die zugehörige<br />
quadratische Form x t Gx hat diese Signatur.<br />
(2) Dann berechnen wir die Gram-Matrix explizit, als<br />
⎛<br />
−1 − cosh c<br />
⎞<br />
− cosh b<br />
G = ⎝− cosh c −1 − cosh a⎠<br />
− cosh b − cosh a −1<br />
und verwenden das Kriterium, dass sich die Signatur aus den Hauptminoren ablesen lässt: Die<br />
Dimension des negativ-definiten Teils ist die Anzahl der Vorzeichenwechsel in der Folge G 0 :=<br />
1, G 1 := g 11 = −1, G 2 = 1 − cosh 2 c = − sinh c < 0. Also hat G genau dann die Signatur<br />
(2, 1), wenn die Determinante det G < 0 ist.<br />
(3) Explizite Berechnung der Determinante und Halbwinkelformeln ergeben<br />
det G = −4 sinh −a+b+c sinh a−b+c sinh a + b − c sinh a+b+c<br />
2 2 2<br />
2<br />
und man überlegt sich, dass diese Determinante genau dann negativ ist, wenn die drei Dreiecksungleichungen<br />
gelten.<br />
(Hinweis: Es kann von den drei Dreiecksungleichungen nicht mehr als eine falsch sein, weil<br />
aus a > b + c und b > a + c folgt 0 > 2c.)<br />
(4) Und dann ganz analog für G ′ , wobei die Rechnung ergibt<br />
det G ′ = −4 cos −α+β+γ cos α−β+γ cos α+β−γ cos α + β + γ .<br />
2 2 2<br />
2<br />
Theorem 8.12. Die hyperbolische Gruppe O + (n, 1) operiert transitiv auf dem H n , und in jedem<br />
Punkt kann sie eine beliebige Orthonormalbasis auf eine beliebige andere abbilden.<br />
Insgesamt gilt also<br />
dim O + (n, 1) = n + (n − 1) + · · · + 1 = 1 (n + 1).<br />
2<br />
Die Gruppe O + (n + 1) der Isometrien des n-dimensionalen hyperbolischen Raums H n hat also<br />
dieselbe Dimension wie die Gruppen O(n + 1) der Isometrien des sphärischen Raums S n und<br />
wie die euklidische Gruppe Eukl(n).<br />
8.2 Die Modelle von Klein und Poincaré<br />
Bezeichne im Folgenden D n := {u ∈ R n : |u| < 1} den offenen Einheitsball im R n , also das<br />
Innere des abgeschlossenen Einheitsballs B n . Insbesondere ist also D 2 eine offene Kreisscheibe.<br />
61
Definition 8.13 (Das Kreisscheibenmodell von Klein). Die bijektive Abbildung<br />
⎛ ⎞<br />
x 1<br />
( x1<br />
)<br />
κ : H 2 −→ D 2 ⎝x 2<br />
⎠ x<br />
↦−→ 3<br />
x 2<br />
x x 3 3<br />
überträgt die 2-dimensionale hyperbolische <strong>Geometrie</strong> auf die offenen Kreisscheibe D 2 . Dies<br />
ergibt das Klein’sche Kreisscheibenmodell für die 2-dimensionale hyperbolische <strong>Geometrie</strong>.<br />
Die Geraden sind darin als die nicht-leeren Schnitte von D 2 mit affinen Geraden des R 2 gegeben.<br />
Die Gruppenaktion der O + (2, 1) sowie Winkel und Abstände werden durch κ auf das Modell<br />
übertragen, können/müssen also mit Hilfe der Umkehrabbildung<br />
⎛ ⎞<br />
κ −1 : D 2 −→ H 2<br />
(<br />
u1<br />
)<br />
1<br />
↦−→<br />
⎝<br />
u 2 1 − u 2 1 − u 2 2<br />
übertragen, zum Beispiel durch d(u, u ′ ) := d(κ −1 (u), κ −1 (u ′ )).<br />
BILD 8.13<br />
Definition 8.14 (parallel, ultraparallel). Zwei Geraden l 1 , l 2 schneiden sich, wenn die Normalenvektoren<br />
|〈n 1 , n 2 〉| < 1 erfüllen.<br />
Sie heißen parallel, wenn |〈n 1 , n 2 〉| = 1 gilt, was einem “Schnittpunkt im Unendlichen” (also<br />
auf dem Rand des Kleinschen Kreisscheibenmodells) entspricht. In diesem Fall schneiden sich<br />
die zugehörigen 2-dimensionalen Unterräume U 1 , U 2 ⊂ R 2,1 im Lichtkegel.<br />
Sie heißen ultraparallel, wenn |〈n 1 , n 2 〉| > 1 gilt, was einem “Schnittpunkt jenseits des Unendlichen”<br />
(also außerhalb des Kleinschen Kreisscheibenmodells) entspricht. In diesem Fall<br />
schneiden sich die zugehörigen 2-dimensionalen Unterräume U 1 , U 2 ⊂ R 2,1 in einem raumartigen<br />
Untervektorraum.<br />
In der Zeichnung schneiden sich l 1 und l 2 , l 2 und l 3 sind parallel, l 1 und l 3 sind ultraparallel,<br />
u 1<br />
u 2<br />
1<br />
⎠<br />
l 3<br />
l 1<br />
l 2<br />
Proposition 8.15. Ist l ⊂ H 2 eine Gerade und x /∈ l, so gibt es zwei verschiedene Geraden<br />
und unendlich viele ultraparallele Geraden zu l durch x.<br />
Das Klein-Modell für den hyperbolischen Raum “funktioniert” ganz genauso in höheren Dimensionen:<br />
Die bijektive Abbildung<br />
( ) x<br />
κ : H n −→ D n<br />
↦−→<br />
x 1<br />
x n+1 n+1<br />
x<br />
62
überträgt die n-dimensionale hyperbolische <strong>Geometrie</strong> auf den offenen Ball D n ; die Umkehrabbildung<br />
ist gegeben durch<br />
( ) u<br />
κ −1 : D n −→ H n u ↦−→ 1 .<br />
1−|u| 2 1<br />
Das Klein-Modell hat die besondere Eigenschaft, dass die Geraden des Modells genau die Geraden<br />
des R n sind (die den offenen Ball D n schneiden). Weiter kann man das Modell mit dem<br />
Inneren der Sphäre S n ⊂ R n+1 ⊂ RP n+1 identifizieren, und daran sehen, dass die <strong>Geometrie</strong><br />
auf dem Rand des Klein-Modells genau wieder die Möbiusgeometrie Möb(n) ist. Das soll hier<br />
aber nicht mehr ausgeführt werden.<br />
Das Klein-Modell ist aber nur eines von mehreren Modellen für die n-dimensionale hyperbolische<br />
<strong>Geometrie</strong>, die alle ihre interessanten Aspekte haben, und daher ein intensiveres Studium<br />
wert wären. Wir geben hier aus Zeitmangel nur noch ein solches Modell an.<br />
Definition 8.16 (Das Kreisscheibenmodell von Poincaré). Die bijektive Abbildung<br />
⎛ ⎞<br />
x 1<br />
( )<br />
π : H 2 −→ D 2 ⎝x 2<br />
⎠ ↦−→ 1 x1<br />
x 3 +1 x<br />
x 2<br />
3<br />
überträgt die 2-dimensionale hyperbolische <strong>Geometrie</strong> auf die offenen Kreisscheibe D 2 . Dies<br />
ergibt das Poincaré’sche Kreisscheibenmodell für die 2-dimensionale hyperbolische <strong>Geometrie</strong>.<br />
Die Geraden sind darin als die Schnitte von D 2 mit Kreisen gegeben, die den Rand S 1 = ∂D 2<br />
der Kreisscheibe senkrecht schneiden.<br />
Die Gruppenaktion der O + (2, 1) sowie Winkel und Abstände werden durch π auf das Modell<br />
übertragen, können/müssen also mit Hilfe der Umkehrabbildung<br />
π −1 : D 2 −→ H 2<br />
(<br />
u1<br />
u 2<br />
)<br />
↦−→ 1<br />
1−u 2 1 −u2 2<br />
übertragen, zum Beispiel durch d(u, u ′ ) := d(π −1 (u), π −1 (u ′ )).<br />
⎛<br />
⎝<br />
⎞<br />
2u 1<br />
2u 2<br />
⎠<br />
1 + u 2 1 + u 2 2<br />
Auch das Poincaré-Modell kann analog für den n-dimensionalen Fall konstruiert werden:<br />
x<br />
H n<br />
π(x)<br />
O<br />
S<br />
D n<br />
63
Theorem 8.17 (Geraden und Unterräume des Poincaré-Modells). Die stereographische Projektion<br />
π : H n → D n ⊂ R n bildet Schnitte von H n mit linearen Unterräumen des R n+1 auf<br />
Schnitte von D n mit Sphären und mit linearen Unterräumen ab, die senkrecht auf dem Rand<br />
S n−1 = ∂D n des Modells stehen. (Die linearen Unterräume gehen also durch den Mittelpunkt<br />
von D n .)<br />
Theorem 8.18 (Das Poincaré-Modell ist konform). Das Poincaré-Modell ist konform: Winkel<br />
sind euklidische Winkel!<br />
Die Metrik ist im Poincaré-Modell zum Beispiel dadurch gegeben, dass<br />
d(0, y) = 1 2<br />
ln<br />
1 + |y|<br />
1 − |y| .<br />
Proposition 8.19 (ideale Dreiecke). Alle “idealen” Dreiecke in H 2 (also Dreiecke, deren Seiten<br />
parallel sind, und deren Ecken auf dem Rand des Modells “im Unendlichen” liegen, sind<br />
kongruent. Sie haben alle die Fläche π.<br />
Proposition 8.20 (hyperbolische Dreiecksfläche). Die Fläche eines hyperbolischen Dreiecks<br />
mit den Winkeln α, β, γ ist<br />
A(△ABC) = π − α − β − γ.<br />
Alle endlichen hyperbolischen Dreiecke haben also eine Fläche, die kleiner als π ist.<br />
Man überlege sich dazu, dass beim Zerschneiden eines Dreiecks in zwei Dreiecke (mit einem<br />
Schnitt durch einen Eckpunkt) sich die Größe π − α − β − γ additiv verhält.<br />
Man überlegt sich genauso, dass in der hyperbolischen Ebene regelmäßige n-Ecke beliebig kleine<br />
Winkel haben — im Grenzfall von “idealen” regelmäßigen n-Ecken sind die Winkel gleich<br />
0. Andererseits sind die Winkel immer kleiner als die Winkel von regelmäßigen euklidischen<br />
n-Ecken. Zum Beispiel hat ein regelmäßiges euklidisches Fünfeck Winkel gleich 3π/5 = 108 ◦ ,<br />
regelmäßige hyperbolische Fünfecke haben beliebige Winkel im offenen Intervall (0 ◦ , 108 ◦ ).<br />
Genauso existieren hyperbolische Dreiecke mit beliebigen Winkeln 0 < α, β, γ für α+β +γ <<br />
π. Experimentiert man nun mit Spiegelungen an den Kanten von solchen Dreiecken, so ergibt<br />
dies für besondere Winkeln Pflasterungen der hyperbolischen Ebene mit Dreiecken, regelmäßigen<br />
n-Ecken, usw.: wie man sie zum Beispiel aus Graphiken von Maurits Cornelis<br />
Escher 1 kennen kann.<br />
Literatur<br />
[1] Boris A. Springborn. Geometry I. Lecture Notes, TU Berlin/Berlin Mathematical School,<br />
2007/08, 59 pp., ftp://ftp.math.tu-berlin.de/pub/Lehre/GeometryI/WS07/<br />
geometry1_ws07.pdf.<br />
1 Holländischer Graphiker, 1898–1972, http://en.wikipedia.org/wiki/M._C._Escher<br />
64
9 Perspektiven der <strong>Geometrie</strong><br />
9.1 Gruppentheorie<br />
Nach Felix Klein: die Gruppe bestimmt die <strong>Geometrie</strong><br />
Bespiel: Euklidische <strong>Geometrie</strong> der Ebene: Die Elemente der Ordnung 2 sind genau die Geradenspiegelungen<br />
und die Punktspiegelungen – wobei die Punktspiegelungen die Elemente sind,<br />
die selbst Quadrate sind. Also kann man die Punkte und die Geraden der Ebene eindeutig mit<br />
Gruppenelementen identifizieren.<br />
Analog kann man versuchen, die Gruppen von bekannten <strong>Geometrie</strong>n auch algebraisch zu verstehen,<br />
und auch interessante Gruppen geometrisch zu interpretieren. Dies bietet sich bei Liegruppen<br />
an (die glatte Mannigfaltigkeiten sind; benannt nach Sophus Lie), wird aber zum Beispiel<br />
auch für endliche Gruppen/<strong>Geometrie</strong>n studiert.<br />
9.2 Differenzialgeometrie<br />
Geschlossene Flächen (technisch: orientierbare, zusammenhängende, kompakte 2-dimensionale<br />
Mannigfaltigkeiten ohne Rand) kann man klassifizieren — und dann beweisen, dass jede solche<br />
Mannigfaltigkeit eine Metrik kompakter Krümmung hat, also vollständig als Raum mit<br />
konstanter Krümmung modelliert werden kann: die Sphäre S 2 als Raum positiver Krümmung 1<br />
und sphärischer <strong>Geometrie</strong>, der Torus (S 1 ) 2 als flacher Raum von konstanter Krümmung 0 und<br />
euklischer <strong>Geometrie</strong>, sowie die Flächen vom Geschlecht g > 1 als Räume konstanter negativer<br />
Krümmung mit hyperbolsicher <strong>Geometrie</strong>. Diese Diskussion ist klassisch, man kennt sie in der<br />
Funktionentheorie als Uniformisierung, ein wesentlicher Schritt ist von Paul Koebe.<br />
Für geschlossene Mannigfaltigkeiten der Dimension 3 sind erst mit dem Beweis der Geometrisierungsvermutung<br />
von William Thurston in diesem Jahrtausend durch Grigrij Perelman ein<br />
entsprechendes Resultat: es besagt grob, dass man jede Mannigfaltigkeit aufschneiden kann<br />
in Teile, die wiederum mit “Modellgeometrien” versehen werden können — dazu gehören die<br />
sphärische, flache und hyperbolische <strong>Geometrie</strong> wie auch einige andere. Achtung: Sehr schwierig.<br />
9.3 Konforme Abbildungen<br />
Kreispackungen in der Ebene sind ein nur scheinbar elementares Thema, das das Studium lohnt.<br />
So kann der Riemannsche Abbildungssatz aus der Funktionentheorie (“jedes einfachzusammenhängende<br />
Gebiet in der komplexen Ebene kann mit einer komplex-differenzierbaren, also<br />
konformen, Abbildung auf eine Kreisscheibe abgebildet werden”) bewiesen werden, indem man<br />
erst den Kreispackungssatz beweist, und diesen dann für Approximationen nutzt.<br />
Die Theorie der ebenen Kreispackungen ist also sehr reichhaltig, während Kugelpackungen im<br />
Höherdimensionalen viel weniger verstanden sind. Es gibt höherdimensional eben auch keine<br />
lokal-konformen Abbildungen, die nicht global konform wären — also nur die Möbiustransformationen.<br />
Referenz: Stephenson [2]<br />
65
9.4 Kugelpackungen<br />
Betrachtet man Packungen von gleichgroßen Kugeln, so ist die Situation in der Ebene recht<br />
einfach: Eine Kreisscheibe vom Radius 1 kann gleichzeitig 6 weitere Kreisscheiben vom selben<br />
Radius berühren, die sich nicht überlappen. Man sagt, dass die Kusszahl in der Ebene, also<br />
Dimension d = 2, gleich κ(2) = 6 ist.<br />
Genauso ist die dichteste Kugelpackung in der Ebene die offensichtliche, in der die Kreisscheiben<br />
zeilenweise angeordnet werden.<br />
Wir diskutieren hier nur kurz die Kusszahlen in höheren Dimensionen: Man weiß, dass κ(3) =<br />
12 ist — das ist als Newton–Gregory-Problem bekannt — sowie, dass κ(4) = 24 — das wurde<br />
erst kürzlich bewiesen, zuerst von Oleg Musin, sowie, dass κ(8) = 240 und κ(24) = 196.560.<br />
Es gibt also in Dimensionen 8 und 24 ganz besondere geometrische Konstellationen, die wieder<br />
von anderen Theorien abhängen: So verwendet man<br />
◦ in Dimension 4 die Ecken des 24-Zells, ein besonders interessantes 4-dimensionales Polytop,<br />
das mit der Liegruppe F 4 zusammenhängt;<br />
◦ in Dimension 8 das Wurzelgitter der Liegruppe E 8 , die in der Klassifikation der einfachen<br />
Liegruppen als besonders interessante Struktur auftaucht;<br />
◦ in Dimension 24 das sogenannte Leech-Gitter, das man sowohl kodierungstheoretisch studieren<br />
kann (mit dem Golay-Kode der Länge 24), als auch graphentheoretisch aus dem Graphen<br />
des Ikosaeders gewinnen kann. (Siehe [1]!)<br />
Moral: Mit dem Studium der wichtigsten <strong>Geometrie</strong>n haben wir die Bühne zur Verfügung, auf<br />
der viele spannende Strukturen existieren — deren Studium sich lohnt . . .<br />
Literatur<br />
[1] Martin Aigner. Gitter, Codes und Graphen. Lecture Notes, FU Berlin, 1994/95.<br />
[2] Kenneth Stephenson. Introduction to circle packing. The theory of discrete analytic functions. Cambridge<br />
University Press, 2005.<br />
66