12.07.2015 Aufrufe

Lineare Algebra und Analytische Geometrie

Lineare Algebra und Analytische Geometrie

Lineare Algebra und Analytische Geometrie

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

<strong>Lineare</strong> <strong>Algebra</strong> <strong>und</strong> <strong>Analytische</strong> <strong>Geometrie</strong>J. Baumeister 1Skript zur Vorlesung <strong>Lineare</strong> <strong>Algebra</strong> in den SemesternWinter 1995/96, Sommer 1996an der Johann Wolfgang Goethe–Universität Frankfurt am Main1 Dies sind noch unvollständige <strong>und</strong> oberflächlich korrigierte Aufzeichnungen! Die mit * gekennzeichnetenAbschnitte waren nicht Teil der Vorlesung.


InhaltsverzeichnisEinleitungI1 Mengen <strong>und</strong> Abbildungen 11.1 Aussagen .................................... 11.2 Mengen ..................................... 21.3 Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61.4 Relationen.................................... 141.5 Zahlen...................................... 152 <strong>Lineare</strong> Gleichungssysteme 262.1 Beispiele <strong>und</strong> Einführung............................ 262.2 Matrizen<strong>und</strong>Vektoren............................. 302.3 Lösungsraum .................................. 332.4 DasEliminationsverfahren........................... 342.5 GeometrischeInterpretation .......................... 423 Vektorräume 453.1 Gruppen..................................... 453.2 Permutationsgruppen.............................. 503.3 Körper...................................... 553.4 Vektorräume................................... 613.5 Basis<strong>und</strong>Dimension .............................. 653.6 Unterräume<strong>und</strong>Dimensionsformel ...................... 744 <strong>Lineare</strong> Abbildungen 784.1 Definition<strong>und</strong>Beispiele ............................ 784.2 Rang<strong>und</strong>Defekt ................................ 834.3 Matrizen..................................... 874.4 <strong>Lineare</strong>Gleichungssysteme........................... 974.5 DieallgemeinelineareGruppe......................... 994.6 Linearformen<strong>und</strong>Dualraum..........................1024.7 Fredholm–Alternative*.............................1105 Eigenwerte <strong>und</strong> Eigenvektoren 1125.1 Definition ....................................1125.2 DasMinimalpolynom..............................1195.3 JordanscheNormalform ............................1291


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: Januar 1996 25.4 Komplexifizierung................................1325.5 EinführungderDeterminante .........................1336 <strong>Geometrie</strong> 1366.1 <strong>Geometrie</strong>,Symmetrie,Invarianz .......................1366.2 DerEuklidischeRaum .............................1426.3 Affine Räume <strong>und</strong> affine Abbildungen . . . . . . . . . . . . . . . . . . . . . 1476.4 Projektive Räume <strong>und</strong> projektive Abbildungen . . . . . . . . . . . . . . . . 1537 Determinanten 1597.1 Einführung ...................................1597.2 Multilinearformen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1627.3 Determinantenfunktion.............................1667.4 DeterminantevonEndomorphismen......................1757.5 Orientierung...................................1797.6 Anwendung: Gleichungen der Mechanik * . . . . . . . . . . . . . . . . . . . 1828 Euklidische Vektorräume 1898.1 Normierte Räume................................1898.2 Bilinearformen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1988.3 Skalarprodukte <strong>und</strong> Orthogonalität ......................2028.4 SymmetrischeEndomorphismen........................2148.5 Quadriken....................................2189 Konvexität <strong>und</strong> lineare Optimierung 2249.1 Konvexität....................................2249.2 DerProjektionssatz...............................2299.3 DerSatzvonHahn–Banach* ........................2349.4 <strong>Lineare</strong>Ungleichungen* ............................2399.5 Extremalpunkte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2449.6 Simplexverfahren ................................2489.7 Dualität* ....................................257Literatur


EinleitungSo eine Arbeit wird eigentlich nie fertig,man muß sie für fertig erklären,wenn man nach Zeit <strong>und</strong> Umständendas möglichste getan hat.J.W. von GoetheDas Studium der Mathematik an der Universität beginnt üblicherweise mit Vorlesungenzur Analysis (Studium von Funktionen) <strong>und</strong> zur <strong>Lineare</strong>n <strong>Algebra</strong> (Studium vonlinearen Strukturen <strong>und</strong> ihren Verknüpfungen). Während Form <strong>und</strong> Inhalt einer Analysisvorlesungin den ersten beiden Semestern ziemlich unumstritten festgelegt sind – fürdie fortsetzenden Vorlesungen zu Differentialgleichungen, Funktionentheorie <strong>und</strong> Funktionalanalysisgilt dies wohl schon nicht mehr – sind die Inhalte <strong>und</strong> ihre Gewichte einerVorlesung über lineare <strong>Algebra</strong> <strong>und</strong> analytische <strong>Geometrie</strong> nicht ganz so klar: Es bestehtviel Spielraum bei der Ausgestaltung <strong>und</strong> Gewichtung der AspekteStrukturen: Gruppen konkret <strong>und</strong>/oder abstrakt, Körper, Vektorräume, ... ,Anschauung: Elementargeometrie, euklidische <strong>und</strong>/oder projektive <strong>Geometrie</strong>, ... ,Beschreibung: Basisfrei, Matrizenkalkül, ... .Ziel unserer Darstellung ist eine Form, die klarmacht, woraus sich die Betrachtungsgegenständeentwickelt haben, wo ihre Untersuchung weitergetrieben wird <strong>und</strong> worin ihreBedeutung als mathematische Objekte liegt. Im Wechselspiel von geometrischer Anschauung,Entwurf einer axiomatischen Begriffswelt <strong>und</strong> Behandlung ganz konkreter Anwendungenbesteht ein ganz beträchtlicher Reiz dieser Vorlesung.Diese Vorlesung soll nicht zuletzt eine Heranführung an die <strong>Geometrie</strong> sein. Wir holendabei etwas weit aus, indem wir das “Hilfsmittel“ <strong>Lineare</strong> <strong>Algebra</strong> entwickeln <strong>und</strong> wiruns der linearen <strong>Algebra</strong> in der analytischen Beschreibung von geometrischen Objektenbedienen (<strong>Analytische</strong> <strong>Geometrie</strong>).Ordnen wir zunächst einige Begriffe historisch ganz grob ein, etwas ausführlichere historischeBezüge wollen wir im Text an passender Stelle einstreuen.<strong>Geometrie</strong>, so wie sie in der Antike verstanden wurde <strong>und</strong> von Euklid (Euklid von Alexandria(365? – 300? v.C.)) begründet wurde, beschäftigt sich mit den Lagebeziehungen vonFigureninderEbene(“Planimetrie“)<strong>und</strong>vonKörpern im Raum (“Stereometrie“). DieI


überall in der Umwelt sichtbaren Lagebeziehungen waren Gr<strong>und</strong>lage solcher Künste wieBau– <strong>und</strong> Vermessungswesen. Im Zentrum stehen die Objekte Gerade, Lot, Ebene, Kegel,Polyeder, ... .Sie wurden ordnend gesichtet in dem mathematischen Zweig “<strong>Geometrie</strong>“.Eine erste solche Sichtung war die <strong>Geometrie</strong> in der euklidischen Axiomatik, die späterunter die von R. Descartes (1596 – 1650) ausgearbeitete Koordinatengeometrie (oder analytische<strong>Geometrie</strong>) subsummiert wurde. Descartes faßt <strong>Geometrie</strong> weiter: Er zählt alleObjekte zur <strong>Geometrie</strong>, die durch algebraische Gleichungen beschrieben werden können,nicht nur die, die durch Konstruktionsverfahren zugänglich sind. Als eine weitere Sichtungkann das sogenannte “Erlanger Programm“, formuliert von F. Klein (1849 – 1925), angesehenwerden. In diesem Programm wird die <strong>Geometrie</strong> als Theorie von Invarianten unterTransformationen aufgefaßt; die Gruppentheorie wird damit beim Studium geometrischerFragen von überragender Bedeutung. Vorausgegeangen war die voneinander unabhängigeEntdeckung nichteuklidischer <strong>Geometrie</strong>n (Verzicht auf das “umstrittene“ Parallelenaxiom)durch W.F. Bolyai (1775 – 1865), C.F. Gauß (1777 – 1832) <strong>und</strong> N.I. Lobatschewski(1792 – 1856). Aufbauend auf Arbeiten von G. Desargues (1591 – 1661) über die Perspektiveentwickelte sich (vor allem im 19. Jahrh<strong>und</strong>ert) die projektive <strong>Geometrie</strong>. Mitdem Aufsatz “Gr<strong>und</strong>lagen der <strong>Geometrie</strong>“ (1899) vollendet D. Hilbert (1862 – 1943) diePräzisierung der Axiomatik der <strong>Geometrie</strong>.Die <strong>Algebra</strong>, diefrüher einmal die Kunst der Gleichungsauflösung war, ist heute in dieallgemeine Theorie der Verknüpfungen eingemündet. Die lineare <strong>Algebra</strong> ist der Teil der<strong>Algebra</strong>, der sich mit linearen Verknüpfungen beschäftigt <strong>und</strong> in der numerischen linearen<strong>Algebra</strong> seine Verbindung zur Angewandten Mathematik hat. Die <strong>Algebra</strong> wird imallgemeinen sehr abstrakt, axiomatisch betrieben, ihr F<strong>und</strong>ament hat sie in der Gruppentheorie– die systematische Untersuchung der Symmetrie fällt in diesen Bereich –,ihre Verbindung zur <strong>Geometrie</strong> im Gebiet algebraische <strong>Geometrie</strong> (siehe Erlangener Programm),Arithmetik kann als konkreter Hintergr<strong>und</strong> ausgemacht werden.Hilfsmittel der Analysis in der <strong>Geometrie</strong> wurden interessant durch die Beschreibungvon Objekten durch Koordinaten. Die Diskussion von Körpern <strong>und</strong> Kurven in ihrer ursprünglichenAusrichtung (Kegelschnitte, Spiralen, ...) wird damit um analytische Mittelbereichert. Ein Höhepunkt dieser Entwicklung ist mit C.F. Gauß verb<strong>und</strong>en: Er verknüpftezur Untersuchung der “inneren“ <strong>Geometrie</strong> von Flächen <strong>Algebra</strong> <strong>und</strong> Analysis in tiefer<strong>und</strong> fruchtbarer Weise. Differentialgeometrie <strong>und</strong> algebraische Topologie können als dieGebiete angesehen werden, in denen schließlich diese Verbindung von Analysis <strong>und</strong> <strong>Algebra</strong>intensiv weiterverfolgt wurde <strong>und</strong> wird.<strong>Geometrie</strong> hat sich von der Elementargeometrie der Antike über die Einbeziehung vonanalytischen, algebraischen <strong>und</strong> topologischen Strukturen weiterentwickelt. GeometrischeSichtweisen finden sich in aktuellen Forschungsgebieten, etwa: Geometrische Maßtheorie,geometrische Theorie dynamischer Systeme, Theorie der Fraktale, geometric aided design(Graphikoberfläche). <strong>Algebra</strong> hat Bedeutung über die oben angesprochenen klassischenGebiete hinaus etwa in der Verknüpfung von Gruppentheorie mit der theoretischen Physik,in der die Rolle der Symmetrie eine überragende ist, in der Gruppentheorie bei endlichenStrukturen, in der Computeralgebra.II


Der Stoff der Vorlesung wird von Gr<strong>und</strong> auf ohne inhaltliche Voraussetzungen aufgebaut,allerdings werden wir bei den Themen Euklidische Vektorräume, Konvexität eine gewisseVertrautheit mit den dann wohl schon vorliegenden Ergebnisse der Analysis voraussetzen.Zunächst wollen wir im ersten Kapitel die Sprache entwickeln, mit der wir über die Themender Vorlesung reden wollen; sie ist in den Gr<strong>und</strong>zügen aus der Schule bekannt. Im2. Kapitel besprechen wir die konstruktive Lösung linearer Gleichungssysteme. Sie machtuns auf viele interessante Fragen <strong>und</strong> erwünschte Abstraktionsschritte aufmerksam. Nachder Abstraktionsstufe “Vektoräume“, dem Kernstück der <strong>Lineare</strong>n <strong>Algebra</strong>, kommen wirin Kapitel 4 dann auf höherer Ebene zu den Gleichungssystemen zurück. Das Kapitelüber Eigenwerte <strong>und</strong> Eigenvektoren beinhaltet Ergebnisse, die bereits viel Bedeutung fürAnwendungen (Differentialgleichungen, Spektraltheorie) haben. Ferner führt es auf Determinantenhin, die im 7. Kapitel dann algebraisch abgehandelt werden. Im Kapitel über<strong>Geometrie</strong> kommen wir zur ursprünglichen Intention von euklidischer <strong>und</strong> analytischer<strong>Geometrie</strong> zurück. Die Kapitel über euklidische Vektorräume <strong>und</strong> Konvexität machen erste,über die elementare Lösung von Gleichungssystemen hinausgehende, Anwendungenmöglich.Die Beschäftigung mit Beispielen (kleinen Problemen) ist sehr wichtig. Zum einen kann eingutes Beispiel Intention <strong>und</strong> Kernpunkte einer Theorie einprägsam vermitteln, zum anderenwächst aus der Beschäftigung mit Beispielen eine gewisse Vertrautheit mit der Theorie.Im Skript kommen Beispiele etwas zu kurz, die Übungsaufgaben zur Vorlesung <strong>und</strong>Aufgaben in den Lehrbüchern (zum Teil mit Lösungsskizzen) sind hierzu eine Ergänzung.Mit der Vorlesung wird der Einstieg in Vorlesungen des zweiten Studienjahres, soweit esVorkenntnisse aus der <strong>Lineare</strong>n <strong>Algebra</strong> betrifft, möglich. Vorkenntnisse aus der <strong>Lineare</strong>n<strong>Algebra</strong> werden etwa unterstellt in den Vorlesungen über Mannigfaltigkeiten, <strong>Algebra</strong>,Differentialgleichungen, Funktionalanalysis <strong>und</strong> Numerische Mathematik.Die Ausarbeitung folgt keiner speziellen Lehrbuchliteratur. Besonders geeignet dafür, denStoff in kompakter Form nachzulesen, sind die Bücher [15, 16, 26, 37, 31, 48]. Als geradezuklassisches Lehrbuch über <strong>Lineare</strong> <strong>Algebra</strong> kann [32] angesehen werden; Sprache <strong>und</strong>Formulierungen entsprechen nicht mehr ganz unserem heutigen Verständnis. Bei Verbindungenzur Analysis oder Verwendung von deren Resultaten verweisen wir auf [17, 53];über Zahlen informiere man sich in [13]. Als weiterführende Literatur kann [23, 52] angesehenwerden, die Brücke zur angewandten Mathematik wird u.a. in [9, 21] <strong>und</strong> [48]deutlich.Fast alles steht so oder ähnlich in irgendeinem der im Literaturverzeichnis aufgeführten(Lehr–)Büchern. Was das Skriptum vielleicht von anderen Büchern unterscheidet, ist inder Ausformulierung die stärkere Betonung des konstruktiven Aspekts, in der Stoffauswahlder Verzicht auf eine ausführliche Darstellung der affinen <strong>und</strong> projektiven <strong>Geometrie</strong>,im Aufbau die Vermeidung von Determinanten bei der Diskussion von Eigenwerten <strong>und</strong>Normalformen.Die historischen Bezüge im Text entnehmen wir vorwiegend [14, 20, 31, 49]. Diese Anmerkungen,festgemacht an Leistungen großer Geister, sollten nicht den Eindruck erwecken,daß Geschichte der Mathematik sich nur entlang genialer Eingebungen entwickelt. Mathematikwar <strong>und</strong> ist auch Bestandteil der allgemeinen Entwicklung der NaturwissenschaftenIII


<strong>und</strong> Technik: Die Anfänge der Analysis orientierten sich an der Himmelsmechanik – wiesähe die Mathematik aus, wenn die Erde der einzige Planet der Sonne wäre <strong>und</strong> die Erdekeinen Mond hätte? –, das Buch, in dem Gauß die Gr<strong>und</strong>lagen der <strong>Geometrie</strong> legt, istgleichzeitig eine Abhandlung über Geodäsie.Ohne zusätzliche Zeichen kommt die Mathematik nicht aus. Wir versuchen, neben dennoch einzuführenden Symbolen mit dem lateinischen <strong>und</strong> dem griechischen Alphabet auszukommen.Hier ist das griechische Alphabet:A, α Alpha I,ι Jota P, ρ RhoB,β Beta K, κ Kappa Σ,σ,ς SigmaΓ,γ Gamma Λ,λ Lambda T,τ Tau∆,δ Delta M, µ My Υ,υ YpsilonE,ɛ,ε Epsilon N, ν Ny Φ,φ PhiZ, ζ Zeta Ξ,ξ Xi X, χ ChiH, η Eta O, o Omikron Ψ,ψ PsiΘ,θ,ϑ Theta Π,π Pi Ω,ω OmegaWahrlich es ist nicht das Wissen, sondern dasLernen, nicht das Besitzen sondern das Erwerben,nicht das Da–Seyn, sondern das Hinkommen,was den größten Genuss gewährt. Wenn icheine Sache ganz ins Klare gebracht <strong>und</strong> erschöpfthabe, so wende ich mich davon weg, um wiederins Dunkle zu gehen; so sonderbar ist der nimmersatteMensch, hat er ein Gebäude vollendet,so ist es nicht um nun ruhig darin zu wohnen,sondern ein andres anzufangen.(Gauß an Bolyai, 2.9.1808)IV


Kapitel 1Mengen <strong>und</strong> AbbildungenIn diesem Kapitel geben wir eine Einführung in die heute übliche Sprache der Mathematik,soweit sie hier Verwendung findet, <strong>und</strong> stellen im Kontext einige Objekte vor, die allgemeinbekannt sein dürften.1.1 AussagenFür die Formulierung unserer Aussagen von mathematischem Gehalt benötigen wir Verabredungen,Sprechweisen, Symbole <strong>und</strong> eine griffige Notation. Dabei wollen wir aber nichtin die Tiefen der mathematischen Gr<strong>und</strong>lagen (Mengenlehre, Logik) eintauchen, sonderngeben uns mit einem “naiven“ Standpunkt zufrieden. Er führt zu keinerlei Konflikten, dawir uns stets mit ziemlich konkreten Objekten beschäftigen.Als logische Verknüpfungen (Junktoren) verwenden wir:Junktor Sprechweise SymbolNegation ... nicht ... ¬Konjunktion ... <strong>und</strong> ... ∧Alternative ... oder ... ∨Implikation ... wenn, dann ... =⇒Äquivalenz ... genau dann, wenn ... ⇐⇒Beachte, daß die Äquivalenz bereits mit den darüberstehenden Junktoren formuliert werdenkann.In Definitionen weisen wir mathematischen Objekten manchmal Eigenschaften mit einemdefinierenden Äquivalenzzeichen : ⇐⇒ zu, etwa:


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 2(V ) =⇒ ... =⇒ (B)Das indirekte Beweisverfahren stellt sich dann so dar:¬(B) =⇒ ... =⇒ ¬(V )Es basiert auf der Beobachtung(P =⇒ Q) ⇐⇒ (¬Q =⇒ ¬P ),wenn P,Q Aussagen sind.1.2 MengenDen Begriff der Menge wollen <strong>und</strong> können <strong>und</strong> sollten wir hier ebenso wie die obigenJunktoren nicht im Sinne der mathematischen Gr<strong>und</strong>lagen einführen. Er dient uns nurals Hilfsmittel für eine möglichst kurze Notation von konkreten Mengen. Von G. Cantor(1845 – 1912), dem Begründer der Mengenlehre, haben wir folgende Definition:Eine Menge ist eine Zusammenfassung bestimmter wohlunterschiedener Objekteunserer Anschauung oder unseres Denkens – welche Elemente der Mengegenannt werden – zu einem Ganzen.Eine Menge besteht also aus Elementen, kennt man alle Elemente der Menge, so kenntman die Menge. Beispiele:IN := Menge der natürlichen ZahlenZZ := Menge der ganzen Zahlen′Q := Menge der rationalen ZahlenIR := Menge der reellen ZahlenDie oben eingeführten Zahlen IN , ZZ , ′Q, IR tragen zusätzliche Strukturen: In IN könnenwir ohne Einschränkung addieren <strong>und</strong> multiplizieren, in ZZ können wir ohne Einschränkungenaddieren, subtrahieren <strong>und</strong> multiplizieren, in ′Q, IR können wir addieren, subtrahieren,multiplizieren <strong>und</strong> mit Zahlen ≠ 0 dividieren. Wir werden insbesondere diese zusätzlicheStruktur von ′Q, IR noch zum Anlaß für umfangreiche Betrachtungen nehmen.Man kann eine Menge dadurch bezeichnen, daß man ihre Elemente zwischen zwei geschweifteKlammern (Mengenklammern) schreibt. Die Zuordnung eines Elements zu einerMenge erfolgt mit dem Zeichen “ ∈“.Es hat sich als zweckmäßig erwiesen, den Mengenbegriff so aufzufassen, daß eine Mengeaus gar keinem Element bestehen kann. Dies ist dann die leere Menge, das Zeichen dafürist∅ = leere Menge .


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 3Das Hinschreiben der Elemente kann auf dreierlei Weise geschehen: Hat die Menge nurganz wenige Elemente, so kann man sie einfach alle hinschreiben, durch Kommata getrennt,auf die Reihenfolge kommt es dabei nicht an, etwa:{1, 2, 3} = {2, 3, 1} = {3, 3, 1, 2} .Die zweite Möglichkeit ist, Elemente, die man nicht nennt, durch Punkte anzudeuten,etwa:{1, 2, 3, 4, 5, 6, 7, 8} = {1, 2,...,8} = {1,...,8} .Die dritte Möglichkeit besteht darin, Objekte einer Menge als Elemente dadurch zuzuordnen,daß man ihnen eine charakterisierende Eigenschaft zuweist. Ist E eine Eigenschaft,die jedes Objekt x einer Menge M hat oder nicht hat, so bezeichne{x ∈ M|x hat die Eigenschaft E}die Menge aller Elemente von M, die die Eigenschaft E haben; etwaIN 0 := {x ∈ ZZ |x nicht negativ} .Wichtig beim Hinschreiben von Mengen ist, daß stets nachgeprüft werden kann, ob einspezielles Objekt einer in Frage stehenden Menge angehört oder nicht; in der Definitionvon Cantor ist dies festgehalten. (Dies korrespondiert mit dem ausgeschlossenen Dritten).Nun haben wir schon viele Worte zu einem recht einfachen Sachverhalt gemacht.... Ähnlich ist es mit der Notation der Mengenlehre. Sie ist so einfach, daß sie schon an derGr<strong>und</strong>schule gelehrt werden kann. Was manchmal seitenlang in einem Vorwort zu einem Lehrbuchsteht, paßt schon in ganz wenige Sätze: Mit p ∈ F wird ausgedrückt, daß p ein Element der MengeF ist, <strong>und</strong> mit F ⊂ G, daßjedesElementvonF ebenso ein Element von G ist. Haben wir zweiMengen A <strong>und</strong> B, dann ist A ∩ B die Menge, die jene Elemente enthält, die sowohl zu A als auchzur Menge B gehören; mit A ∪ B ist die Menge gemeint, die jene Elemente enthält, die zur MengeA, B oder zu beiden gehören; <strong>und</strong> A ′ ist die Menge jener Elemente, die nicht zu A gehören. EineMenge, die keine Elemente enthält, ist eine leere Menge <strong>und</strong> wird mit ∅, manchmal auch mit {}angegeben, geschweifte Klammern ohne Inhalt. Ende des Mini-Kurses.Poulos, J.A.: Von <strong>Algebra</strong> bis Zufall, Campus, Frankfurt, 1992Den obigen Mini-Kurs bringen wir noch in eine “anständige“ Form:Definition 1.1Seien A, B Mengen.(a) A ⊂ B : ⇐⇒ (x ∈ A =⇒ x ∈ B)(b) A = B : ⇐⇒ (A ⊂ B,B⊂ A)(c) A ∩ B := {x|x ∈ A <strong>und</strong> x ∈ B} := {x|x ∈ A, x ∈ B}(d) A ∪ B := {x|x ∈ A oder x ∈ B}(Teilmenge)(Gleichheit)(Durchschnitt)(Vereinigung)2


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 4Das Symbol “ :=“ haben wir als definierendes Gleichsetzen von Mengen eingeführt.Die Nützlichkeit der leeren Menge ∅ wird deutlich bei der Definition des Durchschnitts.Hier ist ja der Fall, daß A ∩ B kein Element enthält, sicherlich nicht auszuschließen.Nun ist es nützlich, einige abkürzende Rechenregeln zur Hand zu haben.Rechenregeln: Seien A, B, C Mengen.(R1) A ⊂ B,B ⊂ C =⇒ A ⊂ C(R2) A ∪ (B ∪ C) =(A ∪ B) ∪ C(R3) A ∩ (B ∩ C) =(A ∩ B) ∩ C(R4) A ∪ B = B ∪ A(R5) A ∩ B = B ∩ A(R6) A ∩ (B ∪ C) =(A ∩ B) ∪ (A ∩ C)(R7) A ∪ (B ∩ C) =(A ∪ B) ∩ (A ∪ C)(Transitivität)(Assoziativgesetz)(Assoziativgesetz)(Kommutativgesetz)(Kommutativgesetz)(Distributivgesetz)(Distributivgesetz)Beweis von (R6):Wir haben zu zeigen: A ∩ (B ∪ C) ⊂ (A ∩ B) ∪ (A ∩ C), (A ∩ B) ∪ (A ∩ C) ⊂ A ∩ (B ∪ C) .Sei x ∈ A ∩(B ∪C). Dann gilt: x ∈ A, x ∈ B ∪C.Daraus folgt: x ∈ A ∩B oder x ∈ A ∩C,je nachdem, ob x ∈ B <strong>und</strong>/oder x ∈ C. Daraus schließen wir: x ∈ (A ∩ B) ⊂ (A ∩ C).Für den Beweis der anderen Inklusion lese man die eben vorgeführten Beweisschritterückwärts.Ein wichtiges Konstruktionsverfahren für Mengen ist die Produktbildung:Definition 1.2Seien A, B Mengen.(a) Sind a ∈ A, b ∈ B, so heißt (a, b) das zugeordnete geordnete Paar (bezogenauf die Reihenfolge “zuerst A, dann B“).(b) Zwei Paare (a, b), (a ′ ,b ′ ) mit a, a ′ ∈ A, b, b ′ ∈ B, heißen gleich genau dann,wenn a = a ′ ,b= b ′ .(c) Die Menge A × B := {(a, b)|a ∈ A, b ∈ B} heißt das kartesische Produktvon A, B.2Wir haben folgende Rechenregeln: Seien A, B, C Mengen:(R8) A × (B ∪ C) =(A × B) ∪ (A × C) .(R9) A × (B ∩ C) =(A × B) ∩ (A × C) .


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 5Als Kurznotation verwenden wir (A Menge):A 1 := A, A n+1 := A × A n ,n∈ IN .Hierbei haben wir die induktive Definition verwendet:Induktiver Beginn: A 1 := A.Induktiver Schluß: (A n definiert =⇒A n+1 := A × A n ist definiert)Diese Art zu definieren basiert auf der vollständigen Induktion, die wir hier ohneweitere Erläuterung anführen, eine intensive Beschäftigung damit findet in der Analysisstatt:Eine Aussage A(n) istfür alle n ∈ IN wahr, wenn gilt:• A(1) ist wahr ;• Für alle k ∈ IN gilt:Ist A(k) wahr, dann ist A(k + 1) wahr.(Induktionsbeginn)(Induktionsschluß)Beispiel 1.3Beweise, daß für jede natürliche Zahl n gilt:Wir betrachten dazu die Aussage(n +3) 2 > 3(n +3)+nA(n) : (n +3) 2 > 3(n +3)+n<strong>und</strong> beweisen die Gültigkeit der Aussage für jedes n ∈ IN nach dem Induktionsprinzip.Induktionsbeginn: A(1) ist wahr, da 4 2 > 12 + 1 ist.Induktionsschluß: Sei A(n) wahr.((n +1)+3) 2 = ((n +3)+1) 2= (n +3) 2 +2(n +3)+1> 3(n +3)+n +2(n +3)+1> 3(n +3)+n +1+3= 3(n +4)+n +1Also folgt aus der Gültigkeit der Aussage A(n) dieGültigkeit der Aussage A(n +1).Die Aussage A(n) ist nach dem Induktionsprinzip nun für alle n ∈ IN bewiesen.Man sieht, daß die Ungleichung(n +3) 2 > 3(n +3)+n, n∈ IN ,direkt auch ohne den Rückgriff auf das Induktionsprinzip bewiesen werden kann!Die Aufgabe kann offenbar auch so formuliert werden: BeweiseA ′ (n) : n 2 > 3n + n − 3 ,n∈ IN ,n>3 .


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 6Der Induktionsbeginn sieht dann so aus:A ′ (4) ist richtig, da 4 2 > 12 + 1 ist. 2Als weiteres Beispiel für die induktive Definition führen wir die Definition des Summenzeichensan. Wir setzen:n∑n+1 ∑n∑a i := a 1 ,für n =1, a i := a n+1 + a i ,für n ≥ 1;i=1i=1i=1dabei sind etwa a 1 ,...,a n+1 ∈ IR .Damit sind nun die Mengenerklärt. Ebenso etwaIN n , ZZ n , ′Q n ,n∈ IN ,N 49 := {1,...,49} ,N 6 49 := (N 49 ) 6 ,N Lotto := {x =(x 1 ,...,x 6 ) ∈ N 6 49|x 1 ,...,x 6 paarweise verschieden}.Ist A eine Menge <strong>und</strong> x ∈ A n ,n∈ IN , so gibt es x 1 ,...,x n ∈ A mit x =(x 1 ,...,x 2 ). Diesist die Schreibweise als n-Tupel der Elemente in A n . Dabei haben wir die Schreibweiseschon naheliegend verkürzt; wir haben ja zunächst nur zweistellige Paarklammern (·, ·)definiert.Definition 1.4Sei A eine Menge. Die Potenzmenge von A ist die Menge der Teilmengen von Aeinschließlich der leeren Menge:P(A) :={B|B ⊂ A} .2Mitunter benötigen wirDefinition 1.5Sei X eine Menge <strong>und</strong> seien A, B Teilmengen von X. Dann heißt die Menge C | | A :={x ∈ X|x /∈ A} das Komplement von A in X <strong>und</strong> A\B := {x ∈ A|x /∈ B} dieDifferenzmenge von A, B .21.3 AbbildungenMit Abbildungen drücken wir den mathematischen Sachverhalt aus, daß es zwischen zweiObjekten eine klar definierte Abbhängigkeit gibt. Wiederum behandeln wir den Begriffauf der Ebene einer naiven Auffassung, auf der Ebene einer f<strong>und</strong>ierten Mengenlehre läßt


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 7sich der Begriff der Abbildung ebenso wie der Umgang mit Mengen auf eine sicherereBasis stellen.Definition 1.6Seien A, B, C, D Mengen.(a) Eine Abbildung f von A nach B ist eine Vorschrift, durch die jedem a ∈ Agenau ein f(a) ∈ B zugeordnet wird; A heißt Definitionsbereich, B heißtWertebereich von f.(b) Zwei Abbildungen f : A −→ B, g : C −→ D heißen gleich, wennA = C, B = D, f(x) =g(x) für alle x ∈ Agilt.2Sei f eine Abbildung von A nach B. Wir schreiben dafüroderoder kurzf : A −→ B,x ↦−→ f(x)f : A ∋ x ↦−→ f(x) ∈ Bf : A −→ B.(Wir verwenden meist für Abbildungen zwischen Mengen von Zahlen das Wort “Funktion“.Dahinter steckt kein Tiefsinn.)Definition 1.7Sei f : A −→ B eine Abbildung. Die Mengegraph(f) :={(a, b) ∈ A × B|a ∈ A, b = f(a)}heißt der Graph von f.2Satz 1.8Seien A, B Mengen <strong>und</strong> sei G ⊂ A × B. Dann sind folgende Aussagen äquivalent:(i) Es gibt eine Abbildung f : A −→ B mit graph(f) =G.(ii) Zu jedem a ∈ A gibt es genau ein b ∈ B mit (a, b) ∈ G.Beweis:


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 8Dies ist eine triviale 1 Umformulierung der Definitionen 1.6 <strong>und</strong> 1.7.Wir führen noch Quantoren ein. Damit können wir dann viele Resultate <strong>und</strong> Definitionennoch kompakter hinschreiben.NotationSprechweise∀a ∈ A “für alle Elemente a in A“∃a ∈ A “es existiert a in A“∃ 1 a ∈ A “es existiert genau ein a in A“∀a (P )“für alle Elemente a in A ist P wahr“∀a (P ) “für alle Elemente a in A gilt P“Bemerkung 1.9Unter Benutzung der eben eingeführten Quantoren lassen sich die äquivalenten Bedingungenvon Satz 1.8 wie folgt formulieren:(i) ∃f : A −→ B (graph(f) =G) .(ii) ∀a ∈ A ∃ 1 b ∈ B ((a, b) ∈ G) .Die Bedingung (ii) – <strong>und</strong> damit auch (i) – sagt, daß eine Abbildung immer wohldefiniertist, was man noch äquivalent schreiben kann als∀a, a ′ ∈ A (a = a ′ =⇒ f(a) =f(a ′ ))oder∀a, a ′ ∈ A (f(a) ≠ f(a ′ ) =⇒ a ≠ a ′ ) .2Beispiel 1.10An folgender Funktion, die in der Analysis gelegentlich als Gegenbeispiel Verwendungfindet, wollen wir eine weitere Form des Hinschreibens einer Funktion kennenlernen.Betrachte{1 , falls x ∈′Qf : IR −→ IR ,x ↦−→0 , falls x ∈ IR \′Q .Wie soll man den Graph hinzeichnen? 21 trivial = platt, seicht, alltäglich, kommt von Trivium, ein lateinisches Wort für Dreiweg, womitderuntere Lehrgang mittelalterlichen Universitätsunterrichts (Grammatik, Dialektik, Rhetorik) bezeichnetwurde. In der Mathematik nennen wir eine elementare oder offensichtliche Schlußweise oder Aussagetrivial.


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 9Definition 1.11Sei A eine Menge. Dann nennt man die Abbildungid A : A ∋ x ↦−→ x ∈ Adie Identität auf A. (Manchmal lassen wir den Index A weg <strong>und</strong> schreiben einfachid, wenn klar ist, um welches A es sich handelt.)2Definition 1.12Seien A, B Mengen. Dann heißt die Abbildungπ 1 : A × B ∋ (a, b) ↦−→ a ∈ Adie Projektion auf den ersten Faktor.2Es sollte klar sein, daß entsprechend auch die Projektionen auf beliebige Faktoren in einemkartesischen Produkt A n erklärt sind:π j : A n ∋ x =(x 1 ,...,x j ,...,x n ) ↦−→ x j ∈ A (j ∈{1,...,n}) .Definition 1.13Sei f : X −→ Y eine Abbildung <strong>und</strong> seien A ⊂ X, B ⊂ Y.Dann heißt die Mengef(A) :={f(x)|x ∈ A}die Bildmenge von A oder das Bild von A, <strong>und</strong> die Mengef −1 (B) :={x ∈ X|f(x) ∈ B}heißt die Urbildmenge von B oder einfach das Urbild von B.2Rechenregel sind (f : X −→ Y,A 1 ,A 2 ⊂ X, B 1 ,B 2 ⊂ Y ):(R1) A 1 ⊂ A 2 =⇒ f(A 1 ) ⊂ f(A 2 )(R2) f(A 1 ∪ A 2 )=f(A 1 ) ∪ f(A 2 )(R3) f(A 1 ∩ A 2 ) ⊂ f(A 1 ) ∩ f(A 2 )(R4) B 1 ⊂ B 2 =⇒ f −1 (B 1 ) ⊂ f −1 (B 2 )(R5) f −1 (B 1 ∪ B 2 )=f −1 (B 1 ) ∪ f −1 (B 2 )


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 10(R6) f −1 (B 1 \B 2 )=f −1 (B 1 )\f −1 (B 2 )Die Beweise hierzu sind nahezu trivial, wir übergehen sie daher.In der folgenden Definition verwenden wir die kompakte Quantoren–Schreibweise, nichtimmer wollen wir so verfahren, da dann der Text ziemlich “unleserlich“ würde.Definition 1.14Sei f : X −→ Y eine Abbildung.(i) f injektiv : ⇐⇒ ∀x, x ′ ∈ X (x ≠ x ′ =⇒ f(x) ≠ f(x ′ ))(ii) f surjektiv : ⇐⇒ ∀y ∈ Y ∃x ∈ X (y = f(x))(iii) f bijektiv : ⇐⇒ f injektiv <strong>und</strong> surjektiv.2Man vergleiche (i) mit der Umformulierung der Wohldefiniertheit in Bemerkung 1.9.Definition 1.15Seien f : X −→ Y,g : Y −→ Z Abbildungen. Die Hintereinanderausführungoder Komposition g ◦ f der Abbildungen f,g ist erklärt durchg ◦ f : X ∋ x ↦−→ g(f(x)) ∈ Z.2Der Gr<strong>und</strong> für die Reihenfolge “zuerst g, dannf“ in der Schreibweise von g ◦ f ist der,daß ein Bild unter der zusammengesetzten Abbildung g ◦ f gerade g(f(x)) ist.Rechenregeln sind (f : X −→ Y,g : Y−→ Z, h : Z −→ W Abbildungen):(R7) id Y ◦ f = f ◦ id X(R8) h ◦ (g ◦ f) =(h ◦ g) ◦ f(Assoziativgesetz)Man beachte aber, daß für die Hintereinanderausführung von Abbildungen ein Kommutativgesetz( f ◦ g = g ◦ f) nicht gilt. Dies sieht man etwa mitf : IR ∋ x ↦−→ x +1∈ IR ,g: IR ∋ x ↦−→ x 3 ∈ IR ,dagilt.f ◦ g(x) =x 3 +1,g◦ f(x) =(x +1) 3 ,x∈ IR ,


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 11Satz 1.16Sei f : X −→ Y eine Abbildung <strong>und</strong> sei B := f(X). Dann gilt:(a) f ist injektiv ⇐⇒ ∃g : B −→ X(g ◦ f = id X )(b) f ist surjektiv ⇐⇒ ∃g : Y −→ X(f ◦ g = id Y )(c) f ist bijektiv ⇐⇒ ∃g : Y −→ X(g ◦ f = id X ,f ◦ g = id Y )Beweis:Zunächst eine Vorüberlegung.Sei y ∈ B.Dann ist f −1 ({y}) ≠ ∅ ;wähle x y ∈ f −1 ({y}) . Damit definieren wirĝ : B ∋ y ↦−→ ĝ(y) :=x y ∈ X.Zu (a).Sei f injektiv. Wir setzen g := ĝ.Da f injektiv ist, gilt f −1 ({y}) =x y für jedes y ∈ B.Sei x ∈ X, y := f(x) . Dann ist also x = x y <strong>und</strong> wir haben(g ◦ f)(x) =g(f(x)) = ĝ(f(x y )) = x y = x = id X (x) für alle x ∈ X.Sei nun g : B −→ X mit g ◦ f = id X . Seien x, x ′ ∈ X mit f(x) =f(x ′ ). Dann istx = id X (x) =g(f(x)) = g(f(x ′ )) = id X (x ′ )=x ′ ,was wir zeigen wollten.Zu (b).Sei f surjektiv. Wir setzen g := ĝ <strong>und</strong> beachten B = Y.Dann ist(f ◦ g)(y) =f(ĝ(y)) = f(x y )=y = id Y (y) .Die Umkehrung ist trivial.Zu (c).Gibt es g mit den notierten Eigenschaften, dann ist nach (a) <strong>und</strong> (b) die Bijektivität vonf klar.Sei nun f bijektiv. Dann gibt es nach (a) <strong>und</strong> (b) Abbildungen g a : Y −→ X <strong>und</strong>g b : Y −→ X mit g a ◦ f = id X ,f◦ g b = id Y . Wir zeigen g a = g b <strong>und</strong> sind dann fertig.Unter Verwendung der eben angeführten Identitäten folgt:g a = g a ◦ id Y = g a ◦ (f ◦ g b )=(g a ◦ f) ◦ g b = id X ◦ g b = g b .Im obigen Beweis haben wir in der Vorüberlegung das sogenannte starke Auswahlaxiom derMengenlehre verwendet. Es lautet (etwas oberflächlich): Aus einer Familie nichtleerer Mengenkann man aus jeder Menge ein Element auswählen. Es mag einleuchtend erscheinen, doch hat dieErfahrung gezeigt, daß im Umgang mit unendlichen Mengen nichts als selbstverständlich angenommenwerden sollte. Das Auswahlaxiom – von E. Zermelo (1871 – 1953) <strong>und</strong> A. Fränkel (1891 – 1965)wurde ein Axiomensystem (ZF–System) für die Mengenlehre begründet – ist so bedeutsam, weildie Beweise zahlreicher Sätze der Mengenlehre von seiner Anerkennung abhängen. Von P. Cohenwurde 1963 gezeigt, daß dieses Axiom unabhängig von den restlichen Axiomen des ZF–Systemsist, es kann also durch die anderen ZF–Axiome weder widerlegt noch bewiesen werden.


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 12Die Abbildung g aus (c) in Satz 1.16 ist eindeutig bestimmt, denn ist g ′ : Yweitere Abbildung mitg ′ ◦ f = id X ,f ◦ g ′ = id Y ,dann folgtg = g ◦ id Y = g ◦ (f ◦ g ′ )=(g ◦ f) ◦ g ′ = id X ◦ g ′ = g ′ .Dies führt zu−→ X eineDefinition 1.17Sei f : −→ Y eine bijektive Abbildung. Dann heißt die nach Satz 1.16 existierendeAbbildung g : Y −→ X mit g ◦ f = id X ,f ◦ g = id Y die Umkehrabbildung vonf. Wir schreiben dafür f −1 .2Nun haben wir zweimal das Symbol f −1 erklärt. Dies sollte jedoch keine Schwierigkeitenbereiten, da aus dem Zusammenhang heraus wohl immer klar wird, ob die Umkehrabbildungoder eine spezielle Urbildmenge gemeint ist.Mit Abbildungen können wir auch die Elemente einer Menge zählen. Als VorbereitungSatz 1.18Sei A eine Menge, seien n, m ∈ IN , <strong>und</strong> seien φ : A −→ IN n ,ψ: A −→ IN mbijektiv. Dann gilt n = m.Beweis:Wir beweisen mit vollständiger Induktion die AussageZu n ∈ IN gibt es für 1 ≤ m


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 13Definition 1.19Sei X eine Menge.(a) M heißt endlich, wenn es ein N ∈ IN <strong>und</strong> eine bijektive Abbildungξ : M −→ {1,...,N} gibt. Da nach Satz 1.18 die Zahl N eindeutig bestimmtist, ist die Schreibweise #M := N wohldefiniert.(b) M heißt abzählbar unendlich, wenn es eine bijektive Abbildungξ : M −→ IN gibt. Wir schreiben dann #M = ∞ .(c) M heißt abzählbar, wenn M endlich oder abzählbar unendlich ist.2Die obige Definition sagt also, daß wir die Elemente einer (endlichen) Menge M gezählthaben, wenn wir eine Bijektion φ : M −→ {1,...,N} gef<strong>und</strong>en haben; das Zählergebnisist #M := N.Man beachte, daß es Mengen gibt, die nicht abzählbar sind. Ein wichtiges Beispiel istM := IR . Das Cantorsche Diagonalisierungsverfahren, das üblicherweise in der Analysisim Zusammenhang mit der Dezimalbruchentwicklung vorgestellt wird, belegt dies.Satz 1.20Sei X eine Menge mit #X = N.Dann gilt #P(X) =2 N .Beweis:Wir beweisen die AussageX Menge mit #X = n =⇒ #P(X) =2 ndurch vollständige Induktion nach n.n=1: Hier ist X = {x} <strong>und</strong> daher P(X) ={∅, {x}}, #P(X)=2.(Wir hättenauchmitn = 0 beginnen können. Hier ist X = ∅ <strong>und</strong> daher P(X) ={∅}, #P(X) =1=2 0 .)n+1: Es ist etwa X = {a 1 ,...,a n+1 } . Setze X ′ := {a 1 ,...,a n } . Die Induktionsannahmebesagt #P(X ′ )=2 n .Sei nun A eine Teilmenge von X.Ist a n+1 ∈ A, dann ist A = {a n+1 }∪A ′ mit A ′ ∈P(X ′ ) .Ist a n+1 /∈ A, dann ist A ∈P(X ′ ) . Dies zeigt #P(X) =2 n +2 n =2 n+1 .Definition 1.21Sei f : X −→ Y eine Abbildung <strong>und</strong> sei A ⊂ X. Dann heißtf |A: A ∋ x ↦−→ f(x) ∈ Ydie Einschränkung von f auf A.2


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 141.4 RelationenDas Gleichheitszeichen “ =“ verwenden wir in einer Menge unter der stillschweigendenAnnahme der folgenden Regeln:Dies nehmen wir zum Anlaß fürx = x ; x = y =⇒ y = x ; x = y, y = z =⇒ x = z.Definition 1.22Sei X eine Menge. Eine Teilmenge R ⊂ X × X heißt Äquivalenzrelation auf X,falls gilt:(i) (x, x) ∈ R für alle x ∈ X(ii) (x, y) ∈ R =⇒ (y,x) ∈ R(Reflexivität)(Symmetrie)(iii) (x, y), (y,z) ∈ R =⇒ (x, z) ∈ RLiegt mit R auf X eine Äquivalenzrelation vor, so schreiben für (x, y) ∈ Rx R ∼ y oder kurz x ∼ y.(Transitivität)Die Bedeutung einer Äquivalenzrelation liegt darin, daß man damit die Menge X inKlassen einteilen kann, eine Einteilung, die eventuell gröber ist, als die Aufteilung ineinelementige Mengen, <strong>und</strong> die bezüglich eines “Merkmales“ doch noch aussagekräftigist. Die Klasseneinteilung geschieht durch<strong>und</strong>[x]:={y ∈ X|y R ∼ x} ,x∈ X,X /R := {[x]|x ∈ X} .Die Objekte [x] heißenÄquivalenzklassen, x heißt Repräsentant der Klasse [x] . Manbeachte, daß jedes y ∈ X mit y R ∼ x als Repräsentant für [x] Verwendung finden kann.Das folgende Lemma zeigt, daß X durch “ ∼“ in disjunkte Klassen zerlegt wird.2Lemma 1.23Sei X eine Menge <strong>und</strong> sei R eine Äquivalenzrelation auf X. Dann gilt:(a) Für jedes x ∈ X gibt es [y] ∈ X /R mit x ∈ [y] .(b) Es ist x ∼ y genau dann, wenn [x] =[y] gilt.(c) Zwei Äquivalenzklassen besitzen genau dann nichtleeren Durchschnitt, wennsie gleich sind.Beweis:


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 15Zu (a). Klar: x ∈ [x] für alle x ∈ X wegen der Reflexivität von “∼“.Zu (b). Sei x ∼ y.Sei u ∈ [x]. Dann ist u ∼ x <strong>und</strong> aus der Symmetrie <strong>und</strong> der Transitivitätfolgt u ∼ y,d.h.u ∈ [y]. Also ist [x] ⊂ [y] gezeigt. Die Aussage [y] ⊂ [x] folgt völlig analog.Ist [x] =[y] dannistx ∼ y, dawirx ∈ [y] =[x] haben.Zu (c). Unter Beachtung der Transitivität, der Symmetrie von “∼“ <strong>und</strong> (b) folgtwas zu beweisen war.z ∈ [x] ∩ [y] ⇐⇒ z ∼ x, z ∼ y ⇐⇒ x ∼ y ⇐⇒ [x] =[y]Definition 1.24Sei X eine Menge. Eine Teilmenge O ⊂ X × X heißt Halbordnung von X, fallsgilt:(i) Für alle x ∈ X gilt (x, x) ∈ O.(ii) (x, y) ∈ O, (y,x) ∈ O =⇒ y = x.(iii) (x, y), (y,z) ∈ O =⇒ (x, z) ∈ O.Ist zusätzlich noch(iv) Für alle x, y ∈ X gilt (x, y) ∈ O oder (y, x) ∈ Oerfüllt, dann heißt O eine Ordnung von X.2Meist schreibt man bei Vorliegen einer Halbordnung O statt (x, y) ∈ O auch x O ∼ y oderkurz x ≤ y.Offenbar haben wir das Ungleichungszeichen “ ≤“ zumAnlaßfür obige Definition 1.24genommen. Die übliche “Kleiner–Gleich–Beziehung“ in ZZ <strong>und</strong> ′Q ist eine Ordnung.Beispiel 1.25Ist X eine Menge, dann ist in P(X) eine Halbordnung O definiert durch(A, B) ∈ O : ⇐⇒ A ≤ B : ⇐⇒ A ⊂ B.Beachte, daß nur in trivialen Fällen eine Ordnung vorliegt. 21.5 ZahlenDie reellen Zahlen bezeichneten wir mit IR . Sie umfassen die rationalen Zahlen <strong>und</strong> wirkommen von den rationalen Zahlen zu den reellen Zahlen, indem wir auch Dezimalzahlenzulassen, die keine echten Brüche darstellen. In der Analysis wird diese Konstruktiongenauer studiert. Jedenfalls stehen auch hier wieder die Rechenarten


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 16“Addition, Subtraktion, Multiplikation, Division“wie in ′Q zur Verfügung. Im Kapitel über Vektorräume werden wir dies zum Anlaß nehmen,die Existenz solcher “Verknüpfungen“ von Zahlen axiomatisch einzuführen.Darüberhinaus haben wir sogar eine Anordnung in ′Q, ja sogar in IR , d.h. für alle x, y ∈ IRgilt genau eine der folgenden Alternativen (siehe Definition 3.26):x = y oder xy.Damit ist dann der Betrag |x| einer Zahl x ∈ IR erklärt:Hierbei ist −x das Negative von x.⎧⎪⎨ x , falls x>0|x| := −x , falls x


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 17eine “Multiplikation“ eingeführt wird. Die Anordnung der ganzen Zahlen spiegelt sich in[(m, n)] [(k, l)] : ⇐⇒ m + l


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 18“Seit Euklid tragen alle Mathematiker dasselbe Bild der Mathematik in sich: Sie ruht auf einfachenAxiomen, deren Kombinationen gewissen logischen Regeln folgen <strong>und</strong> es erlauben, andereAussagen zu beweisen. Die Wahrheit breitet sich sozusagen durch Ansteckung aus; sie beginnt beiBasisaxiomen, die als solche anerkannt sind, <strong>und</strong> reicht bis zu allem, was mit deren Hilfe bewiesenwerden kann, das heißt also, so glaubte man, bis zur Gesamtheit der Mathematik, die unter Ausschlußjeder äußeren Kontingenz auf reiner logischer Notwendigkeit gründet. So ist die Mathematikweder dem Zufall noch der Geschichte unterworfen.Es war Kurt Gödel vorbehalten, 1930 den Beweis zu führen, daß dieses Bild falsch ist. In einemberühmten Theorem (Unvollständigkeitssatz), das im Jahr darauf veröffentlicht wurde, zeigtGödel, daß es in jedem beliebigem System von Axiomen <strong>und</strong> Regeln (sofern deren Anzahl endlichist) möglich ist, eine Ausage über ganze Zahlen zu formulieren, die innerhalb des betreffendenSystems weder bewiesen noch widerlegt werden kann.“Aus: Ekeland, I., Zufall, Glück <strong>und</strong> Chaos, Hanser-Verlag,1992K. Gödel (1906 – 1978) wurde in Brünn geboren. 1930 bewies er den Unabhängigkeitssatz – einalternativer Beweis seines Unvollständigkeitssatzes wurde später von G. Chaitin unter Verwendungvon Begriffen aus der Komplexitätstheorie erbracht – <strong>und</strong> 1938 zeigte er, daß das Auswahlaxiomdurch die anderen ZF–Axiome nicht widerlegt werden kann. P. Cohen fügte 1963 hinzu, daß esdurch die anderen Axiome auch nicht bewiesen werden kann. Diese Entdeckungen Gödels markierendas Ende des “Determinismus“ in der Mathematik, ebenso wie W. Heisenbergs Unschärferelation(1927 formuliert; W. H. 1901 – 1976) den Determinismus in der Physik beendete. Gödel starb inPrinceton an selbstverschuldetem Verhungern.Über die als “Kontinuumshypothese“ bezeichnete Aussage, daß es keine echt zwischen ℵ 0 <strong>und</strong>c liegende Kardinalzahl gibt, hat K. Gödel einen atemberaubenden Satz bewiesen, der ungefährfolgendes besagt (A bezeichne das starke Ausswahlaxiom, C die Kontinuumshypothese): Wenn dieMathematik ohne die Annahme von A <strong>und</strong> C widerspruchsfrei ist, so bleibt sie es auch, wenn mandiese Annahme hinzunimmt. Es werden unserer Mathematik also durch die Annahme von A <strong>und</strong>C keine neuen Fehler hinzugefügt.Rufen wir uns noch die Teilbarkeit in den ganzen Zahlen in Erinnerung.Definition 1.27Seien a, b ∈ ZZ . Wir sagen a teilt b oder a ist ein Teiler von b, falls es k ∈ ZZ gibtmit a · k = b ; wir schreiben dann a|b.2Sei m ∈ IN . Wir verwenden m nun als Äquivalenzmodul, denn damit können wirfolgende Äquivalenzrelation auf ZZ erklären:a ∼ b : ⇐⇒ m|(b − a) :⇐⇒ ∃l ∈ ZZ (b = a + lm) .Dies ergibt eine Zerlegung von ZZ in Äquivalenzklassen: Ist a ∈ ZZ , so entscheidet derRest bei der Teilung von a durch m, welcher Äquivalenzklasse a zugeordnet wird. Da nurm verschiedene Reste auftreten können, liefert dies eine Zerlegung von ZZ in m Äquivalenzklassen.Wir haben alsoZZ m := ZZ /∼ = {[0],...,[m − 1]} .


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 19Interessanterweise kann man in ZZ m sogar wieder addieren (Operation ⊕) <strong>und</strong> multiplizieren(Operation ⊙):[k] ⊕ [l] :=[k + l] , [k] ⊙ [l] :=[k · l] ,k,l∈ ZZ .Beachte, daß hier wieder nachgeprüft werden muß, daß[k] ⊕ [l] , [k] ⊙ [l]vom Repräsentanten k für [k] <strong>und</strong> l für [l] nichtabhängen.Die Rolle der Null wird von der Klasse [0] <strong>und</strong> die Rolle der Eins wird von der Klasse [1]übernommen. Man stellt aber fest, daß eine Eigenschaft, die bei ZZ keine Entsprechunghat, hier eintritt: Die Multiplikation von Klassen, die von Null verschieden sind, könnendie Nullklasse ergeben; siehe folgende Additions– <strong>und</strong> Multiplikationstafel für m =6:⊕ [0] [1] [2] [3] [4] [5][0] [0] [1] [2] [3] [4] [5][1] [1] [2] [3] [4] [5] [0][2] [2] [3] [4] [5] [0] [1][3] [3] [4] [5] [0] [1] [2][4] [4] [5] [0] [1] [2] [3][5] [5] [0] [1] [2] [3] [4]⊙ [0] [1] [2] [3] [4] [5][0] [0] [0] [0] [0] [0] [0][1] [0] [1] [2] [3] [4] [5][2] [0] [2] [4] [0] [2] [4][3] [0] [3] [0] [3] [0] [3][4] [0] [4] [2] [0] [4] [2][5] [0] [5] [4] [3] [2] [1]Man beachte, daß in der obigen Multiplikationstafel auch “Quadratwurzeln“ zu findensind:[3] = [3] ⊙ [3] , [4] = [4] ⊙ [4] .Die damit zusammenhängenden Fragen sind Teil der Ringtheorie, die in der <strong>Algebra</strong>behandelt wird.Das Rechnen in Kongruenzen ist nichts anderes als das Rechnen in Äquivalenklassen wieoben angedeutet. Mit der Kongruenza ≡ b (mod m)drücken wir aus, daß a, b zur selben Äquivalenzklasse bezüglich des Moduls m gehören.Als Illustration:Beispiel 1.28Betrachte das Kongruenzsystem7x ≡ 1(mod 4) , 2x ≡ 1(mod 3) .7x ≡ 1(mod 4) ist gleichbedeutend mit x ≡ 3(mod 4), d.h. x =3+4z,z∈ ZZ .Einsetzen in die Kongruenz 2x ≡ 1(mod 3) ergibt die Kongruenz2(3 + 4z) ≡ 1(mod 3) oder 8z ≡ 1(mod 3) ,


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 20<strong>und</strong> schließlichRückübersetzung ergibtz ≡ 2(mod 3) oder z =2+3l,l∈ ZZ .x ≡ 11 (mod 12) .2Definition 1.29Eine Zahl p ∈ IN ,p≠1, heißt Primzahl genau dann, wenn gilt:m|p =⇒ m =1oder m = p.2Seit Euklid weiß man, daß es unendlich viele Primzahlen gibt.Definition 1.30Seien m, n ∈ IN 0 , aber nicht beide 0.d ∈ IN heißt größter gemeinsamer Teiler von m, n, abgekürzt ggT(m,n), genaudann wenn gilt:• d teilt m <strong>und</strong> n ;• teilt q ∈ IN sowohl n als auch m, so teilt q auch d.2Bekanntlich gibt es zu jedem m ∈ IN \{1} Primzahlen p 1 ,...,p l (nicht notwendig alleverschieden) mitm = p 1 ···p l(Primfaktorzerlegung von m). Nun ist klar, daß zu je zwei Zahlen m, n ∈ IN 0 mit m+n ≠0stets ein größter gemeinsamer Teilerd = ggT(m, n)existiert. Aus der Definition 1.30 liest man ab, daß für zwei größte gemeinsame Teilerd, d ′ von m, n ofenbar d|d ′ , d ′ |d, alsod = d ′ gilt. Diesen eindeutig bestimmten größtengemeinsamen Teiler kann man durch Teilung mit Rest berechnen. Das resultierende Rechenschemaist der Euklidische Algorithmus.Zur Formulierung sind die sogenannten Gaußklammern nützlich. Für eine reelle Zahl rseien definiert:| −r −| := größte ganze Zahl z mit z ≤ r, | − r − | := kleinste ganze Zahl z mit z ≥ r.


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 21Euklidischer Algorithmus:EIN m, n ∈ IN 0 . O.E. m>n≥ 0 .SCHRITT 1 f 0 := m, f 1 := n.SCHRITT 2 Ist f 1 =0, gehe zu AUS .SCHRITT 3 ¯f := f 0 −|f 0− f |f 1 − 1 .SCHRITT 4 f 0 := f 1 ,f 1 := ¯f gehe zu SCHRITT 2 .AUS f 0 ,f 1 mit: f 0 = ggT(m, n),f 1 =0.Der Schritt 3 ist nichts anderes als eine Umformulierung der Division von f 0 durch f 1 miteinem Rest ¯f kleiner als f 0 .Die Verifikation, daß der Algorithmus den größten gemeinsamen Teiler d von m, n berechnet(Nachweis der Korrektheit des Algorithmus), stützt sich auf folgende Beobachtungen:(a) Ist f 1 > 0 , so gilt:(b) Ist f 0 >f 1 > 0 , so gilt:ggT(f 0 ,f 1 )=ggT(f 1 ,f 0 −| −f 0f 1− |f 1) .¯f := f 0 −| −f 0f 1− |f 1


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 22Beispiel 1.32Manbestimmedengrößten gemeinsamen Teiler von 3293 <strong>und</strong> 2405.Wir schreiben jeweils SCHRITT 3 auf:3293 = 1 · 2405 + 8882405 = 2 · 888 + 629888 = 1 · 629 + 259629 = 2 · 259 + 111259 = 2 · 111 + 37111 = 3 · 37 + 0Also ggT(3293, 2405) = 37 .Wir stellen fest, daß die Zahlenfolgea 1 = 3293,a 2 = 2405,a 3 = 888,a 4 = 629,a 5 = 259,a 6 = 111,a 7 =37folgender Abschätzung genügt:a i+2 ≤ a i /2 ,i=1,...,5 .Läßt sich eine entsprechende Aussage allgemein beweisen? Diese <strong>und</strong> ähnliche Fragenwerden in der Komplexitätstheorie (Diskrete Mathematik, Mathematische Informatik)untersucht. 2Damit ist der euklidische Algorithmus für natürliche Zahlen erklärt, die Erweiterung aufganze Zahlen ist offensichtlich. Er hat seine Entsprechung bei den Polynomen.Definition 1.33Sei IK ∈{ZZ , ′Q, IR}. Ein Polynom mit Koeffizienten in IK ist eine Funktionp : IK ∋ x ↦−→m∑a i x i ∈ IKi=0Hierbei heißt die Zahl m der Grad von p, falls a m ≠0. (Den Grad des Nullpolynoms(a 0 = ...= a m =0)setzen wir mit −1 fest.) Wir schreiben für den Grad m von p :m := deg p.2In der obigen Definition haben wir den analytischen Standpunkt, ein Polynom als Abbildungaufzufassen, eingenommen. Die algebraische Sicht besteht darin, ein Polynom alsObjekt in einer Unbekannten zu betrachten. In Kapitel 3 gehen wir darauf ein.Polynome haben überragende Bedeutung als interessanter Gegenstand in der <strong>Algebra</strong> (allgemeineArithmetik), in der Analysis auf Gr<strong>und</strong> der Tatsache, daß jede stetige Funktion(lokal) gut durch Polynome approximiert werden kann, <strong>und</strong> in der numerischen Mathematik,da Polynome darüberhinaus einfach durch ihre Koeffizienten abgespeichert werden


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 23können. Bei den Polynomen ist auch eine Division mit Rest, die ja beim Euklidischen Algoritmuszentral war, erklärt.Satz 1.34Sei q ein Polynom mit Koeffizienten in IK ∈{′Q, IR } mit deg q ≥ 0 . Dann gibt eszu jedem Polynom p mit Koeffizienten in IK eindeutig bestimmte Polynome f,r mitp = fq+ r, deg r0, setze f := 0,r := p.n +1 : Ist degp < deg q, setze f := 0,r := p. Ist deg p ≥ deg q, setze z(x) :=a n+1 b −1m xn+1−m ,x ∈ IK . Dann ist deg(f − zq)


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 24Beispiel 1.35Betrachte für IK := ′Q die Polynomep(x) :=x 3 +3x 2 +6x +5,q(x):=3x 2 +6x +6.Der Durchlauf des euklidischen Algorithmus sieht so aus:EIN p(x) :=x 3 +3x 2 +6x +5,q(x):=3x 2 +6x +6.SCHRITT 1 f 0 := p, f 1 := q.SCHRITT 3 ¯f(x) =2x + 3 denn(x 3 +3x 2 +6x +5):(3x 2 +6x +6)=1/3 x +1/3 mitRest2x +3.SCHRITT 4 f 0 (x) =3x 2 +6x +6,f 1 (x) =2x +3.SCHRITT 3 ¯f(x) =15/4 denn(3x 2 +6x +6):(2x +3)=3/2 x +3/4 mitRest15/4 .SCHRITT 4 f 0 (x) =2x +3,f 1 (x) =15/4 .SCHRITT 3 ¯f(x) =0denn(2x +3):15/4 =8/15 x +4/5 mitRest0.SCHRITT 4 f 0 (x) =15/4 ,f 1 (x) =0.AUS f 0 (x) =15/4 ,f 1 (x) =0.Also ist das Polynom d(x) :=15/4 eingrößter gemeinsamer Teiler der Polynome p, q .Wir nennen die Polynome auf Gr<strong>und</strong> der Tatsache, daß der größte gemeinsame Teiler einPolynom vom Grad 0 <strong>und</strong> dieser ja nur bis auf solche Polynome eindeutig bestimmt ist,teilerfremd. Dies korrespondiert mit der Tatsache, daß q keine reelle Nullstelle hat <strong>und</strong>selbst kein Teiler von p ist, wie die obige Rechnung gezeigt hat. 2Teilbarkeit <strong>und</strong> Primfaktorzerlegung spielen eine große Rolle in der <strong>Algebra</strong>. Welch interessanteVielfalt Polynome dabei schon aufzeigen, sieht man etwa an dem Polynomp(x) :=x 4 − 7 .Betrachtet man das Polynom über dem Körper ′Q, so hat es keine Nullstelle <strong>und</strong> mankann es nicht echt in ein Produkt von Polynomen mit Koeffizienten in ′Q zerlegen; mannennt es daher irreduzibel.Betrachtet man das Polynom in IR, so zerfällt es in Faktorenp(x) =(x 2 − √ 7)(x 2 + √ 7)<strong>und</strong> man kann zwei reelle Nullstellen ablesen:x = ± 4√ 7 .Beachte, daß in IR 4–te Wurzeln aufgr<strong>und</strong> der Vollständigkeit von IR wohldefiniert sind.Betrachtet man das Polynom in ′C – wir haben komplexe Zahlen noch nicht eingeführt,wir erwähnen dies nur der Vollständigkeit halber –, so hat p die Nullstellenx = ± 4√ 7 ,x= ±i 4√ 7 ,


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 25<strong>und</strong> es zerfällt in Linearfaktoren:p(x) =(x − 4√ 7)(x + 4√ 7)(x − i 4√ 7)(x + i 4√ 7) .Dies korrespondiert mit der Aufteilung des Kreises mit Radius 4√ 7 in vier Sektoren. ImAbschnitt 3.2 über Körper kommen wir darauf zurück.


Kapitel 2<strong>Lineare</strong> GleichungssystemeWir betrachten lineare Gleichungssysteme mit “Zahlen“ als Koeffizienten. Wir nehmendabei Bezug auf den Abschnitt 1.5, in dem wir als Zahlbereich IK ∈{′Q, IR} betrachtethaben. In den Kapiteln über Vektorräume <strong>und</strong> lineare Abbildungen ordnen wir dieBetrachtungen in einen allgemeineren Kontext ein.2.1 Beispiele <strong>und</strong> EinführungSei IK ∈{′Q, IR }. Die Addition in IK schreiben wir mit + , die Multiplikation mit · ,meist jedoch lassen wir · auch weg.Betrachte eine Gleichungax = b (a, b ∈ IK )in einer “Unbekannten“. Als Lösung suchen wir x ∈ IK , sodaß die Gleichung, wenn wir xeinsetzen, erfüllt ist. Die Gleichung hat– keine Lösung, falls a =0, aber b ≠0ist;– jedes x als Lösung, falls a = 0 <strong>und</strong> b =0ist;– genau eine Lösung x = a −1 b, falls a ≠0ist.Die Gleichunga 1 x 1 + a 2 x 2 = b (2.1)in zwei Unbekannten mit a 1 ,a 2 ,b∈ IK hat– keine Lösung, falls a 1 = a 2 =0, aber b ≠0ist;– alle (x 1 ,x 2 ) ∈ IK 2 als Lösung, falls a 1 = a 2 = b =0ist;– alle Paare (x 1 ,x 2 )ind.h. alle Punkte der Geraden{(z 1 ,z 2 )|z 2 = a −12 (b − a 1 z 1 ) ,z 1 ∈ IK } , falls a 2 ≠0,y = −a −12 a 1 x + b26


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 27mit Steigung −a 1 a −12 , bzw.als Lösung.{(z 1 ,z 2 )|z 1 = a −11 (b − a 2 z 2 ) ,z 2 ∈ IK } , falls a 1 ≠0,Wir nennen die Gleichung (2.1) eine lineare Gleichung, da in ihr nur Summanden derForm a i x i auftreten; eine algebraische Definition des Begriffs “linear“ in allgemeineremRahmen folgt später. Keine linearen Gleichungen sind demnach:x 1 +3x 2 2 =7, √ x 1 +2x 2 = −1 ,x 1 x 2 + x 2 =1.Für das System linearer Gleichungena 11 x 1 + a 12 x 2 = b 1 (2.2)a 21 x 1 + a 22 x 2 = b 2 (2.3)mit a 11 ,a 12 ,a 21 ,a 22 ,b 1 ,b 2 ∈ IK sucht man “simultane“ Lösungen, d.h. Paare (x 1 ,x 2 ) ∈IK 2 , sodaß beim Einsetzen beide Gleichungen erfüllt sind. Wir machen eine Fallunterscheidung:Fall 1: a 11 = a 12 = a 21 = a 22 =0.Ist b 1 ≠0oderb 2 ≠0, so gibt es keine Lösung.Sind b 1 = b 2 =0, so sind alle Paare (x 1 ,x 2 )Lösungen.Fall 2: a 11 ≠0.Addiere das (−a −111 a 21 ) – fache der ersten Gleichung (2.2) zur zweiten Gleichung (2.3).Dies ergibt0 · x 1 +(a 22 − a −111 a 21 a 12 )x 2 = b 2 − a −111 a 21 b 1 . (2.4)Multiplikation mit a 11 führt auf(a 11 a 22 − a 12 a 21 )x 2 = a 11 b 2 − a 21 b 1 . (2.5)Die Lösungsmengen von (2.2),(2.3) bzw. (2.2),(2.4) bzw. (2.2),(2.5) sind identisch.Fall 2a: ∆:=a 11 a 22 − a 12 a 21 ≠0.Man rechnet aus (2.5) x 2 aus:x 2 =∆ −1 (a 12 b 2 − a 21 b 1 ) ,setzt in (2.2) ein <strong>und</strong> “löst“ nach x 1 auf (siehe Überlegungen zur Gleichung mit einerUnbekannten):x 1 =∆ −1 (a 22 b 1 − a 12 b 2 ) .Man verifiziert, daß nun das Paar (x 1 ,x 2 ) den Gleichungen (2.2),(2.3) genügt. Es gibt alsogenau eine Lösung.Fall 2b: ∆=0.Nun existiert für a 11 b 2 − a 21 b 1 ≠0keineLösung. Für a 11 b 2 − a 21 b 1 =0istx 2 in (2.5) freiwählbar <strong>und</strong> als Lösungsmenge zum Gleichungssystem (2.2),(2.3) erhalten wir die Menge{(x 1 ,x 2 )|x 1 = a −111 (b 1 − a 12 x 2 ) ,x 2 ∈ IK } .


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 28Fall 3: Tritt Fall 1 nicht ein, so kann o.E. Fall 2 erreicht werden, denn:Ist a 11 ≠0, ist Fall 2 gegeben.Ist a 21 ≠0, mache Gleichung (2.2) zur Gleichung (2.3) <strong>und</strong> Gleichung (2.3) zur Gleichung(2.2) durch Umnummerierung (“Zeilenvertauschung“).Ist a 12 ≠0, mache Unbekannte x 1 zur Unbekannten x 2 <strong>und</strong> Unbekannte x 2 zur Unbekanntenx 1 (“Spaltenvertauschung“).Ist a 22 ≠0, kombiniere die Schritte “Zeilenvertauschung“ <strong>und</strong> “Spaltenvertauschung“.Bemerkung 2.1Die Lösung des Gleichungssystems (2.2),(2.3) bedeutet offenbar, den Schnittpunkt derbeiden Geradena 11 x 1 + a 12 x 2 = b 1 ,a 21 x 1 + a 22 x 2 = b 2im “Anschaungsraum“ IK 2 zu suchen. 2Bemerkung 2.2Die Größe ∆, welche im Fall 1 gleich Null ist, bestimmt offenbar, ob es genau eine Lösungdes Gleichungssystems (2.2),(2.3) gibt oder nicht. Diese Zahl heißt Determinante betrachtetin Abhängigkeit von den Größen a ij im Gleichungssystem, heißt sie Determinantenfunktion.Wir widmen dieser Größe das Kapitel 7.Die Bezeichnung “Spaltenvertauschung“ wird am Ende dieses Abschnitts noch einsichtigwerden. 2Beispiel 2.3Wir betrachten eine spezielle Interpolationsaufgabe, eine allgemeinere Betrachtungfolgt in Kapitel 4.Finde eine Parabel y = ax 2 + bx + c durch die Punkte (0, 0), (1, 1), (−1, 2) .Als Gleichungssystem erhalten wir in naheliegenderweise:Also c = 0 <strong>und</strong>0=a · 0+b · 0+c, 1=a · 1 2 + b · 1+c, 2=a · (−1) 2 + b · (−1) + c.a + b =1,a− b =2,d.h.a =3/2 ,b= −1/2 ,c=0.Damit ist die Parabel nun (eindeutig) bestimmt. 2Ein lineares Gleichungssystem in n Unbekannten <strong>und</strong> m Gleichungen ist gegebendurch ein Schemaa 11 x 1 + a 12 x 2 + ... + a 1n x n = b 1. .. .a m1 x 1 + a m2 x 2 + ... + a mn x n = b m


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 29Die Größen a ij nennen wir Koeffizienten des Gleichungssystems. Jede Zeile dieses Schemaskönnen wir mit dem Summenzeichen aufschreiben. Dann erhalten wir:n∑a ij x j = b i , 1 ≤ i ≤ m. (2.6)j=1Definition 2.4Ein x ∈ IK n mit x =(x 1 ,...,x n ) heißt Lösung von (2.6), fallsn∑a ij x j = b i , 1 ≤ i ≤ m.j=12Bezeichnung: Mit dem Symbol k = n 1 (n 2 )n 3 bezeichnen wir die Aufzählungk = n 1 ,n 1 + n 2 ,n 1 +2n 2 ,...,n 3 .Nun fassen wir die Zeilen noch zu einem noch kompakterem Schema zusammen, indemwir einführen:⎛A :=⎜⎝⎞a 11 a 12 ... a 1na 21 a 22 ... a 2n⎟. . .:= (a ij) i=1(1)m , j =1(1)n⎠a m1 a m2 ... a mnWir nennen A eine Matrix, genauer eine (m × n) – Matrix mit Einträgen aus demZahlbereich IK .Das aus dem Lateinischen kommende Wort “Matrix“ bedeutete ursprünglich “Mutterleib“ oder“Uterus“, also etwas, worin oder woraus sich etwas entwickelt. Im Vergleich dazu ist die mathematischeDefinition steril. Die Tensoren, die wir im Kapitel 11 besprechen wollen, sind eineVerallgemeinerung des Matrixbegriffs. Spätestens aber nach diesen Betrachtungen wird klar sein,daß die Etymologie des Wortes “Matrix“ nicht so unangebracht ist. Als “Erfinder“ der Matrizenist A. Cayley (1821 – 1895) anzusehen.Wir fassen nun noch die rechte Seite des obigen Gleichungssystems zusammen zu⎛ ⎞b 1b 2b :=⎜ ⎟⎝ . ⎠b m<strong>und</strong> die gesuchte Lösung oder die Unbekannten zu⎛ ⎞x 1x 2x :=⎜ ⎟⎝ .. ⎠x n


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 30Das Gleichungssystem schreiben wir dann alsAx = b (2.7)Wir wollen nun dieser Schreibweise <strong>und</strong> dem Wort “linear“ Gehalt geben. Dazu habenwir noch zusätzliche Strukturen auszumachen.2.2 Matrizen <strong>und</strong> VektorenWir setzenIK m,n := { A | A =(a ij ) i=1(1)m , j =1(1)n,i=1(1)m, j =1(1)n }jedes Element von IK m,n heißt eine (m × n) – Matrix. Wir nennen IK m,n den Ring der(m × n) – Matrizen über IK , falls m = n gilt. Die Bezeichnung “Ring“ verdeutlichen wirspäter. Jedes Element A =(a ij ) i=1(1)m , j =1(1)n∈ IK m,n ist also ein Schema, wie wir es imZusammenhang mit dem Gleichungssystem eingeführt haben.Nun führen wir Verknüpfungen ein:Addition:⊕ : IK m,n × IK m,n ∋ (A, B) ↦−→ A ⊕ B := (a ij + b ij ) i=1(1)m , j =1(1)n∈ IK m,nwobei A =(a ij ) i=1(1)m , j =1(1)n,B=(b ij ) i=1(1)m , j =1(1)n.Multiplikation:( n)⊙ : IK m,n × IK n,l ∑∋ (A, B) ↦−→ A ⊙ B := a ik · b kj ∈ IK m,lk=1i=1(1)m , j =1(1)lSkalare Multiplikation:wobei A =(a ij ) i=1(1)m , j =1(1)n,B=(b ij ) i=1(1)n , j =1(1)l.• : IK × IK m,n ∋ (r, A) ↦−→ r • A := (r · a ij ) i=1(1)m , j =1(1)n∈ IK m,nwobei A =(a ij ) i=1(1)m , j =1(1)n.Das Wort “skalar“ wird seine Bedeutung im Kapitel über Vektorräume bekommen.Die eben eingeführte Bezeichnung wollen wir sofort wieder zugunsten der gebräuchlichen,kürzeren Notation abändern:IK m,n × IK m,n ∋ (A, B) ↦−→ A + B := A ⊕ B ∈ IK m,nIK m,n × IK n,l ∋ (A, B) ↦−→ AB := A · B := A ⊙ B ∈ IK m,lIK × IK m,n ∋ (r, A) ↦−→ rA := r · A := r • A ∈ IK m,n


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 31Die ursprüngliche Verwendung von ⊕, ⊙, • dient nur der Verdeutlichung, daß + , · unterschiedlicheObjekte verknüpft. Aus der Addition ergibt sich in üblicher Weise die Subtraktion:A − B := A +(−B) ,A,B∈ IK m,n ,wobei das Negative −B von B durchdefiniert ist.−B := (−b ij ) i=1(1)m , j =1(1)nmit B =(b ij ) i=1(1)m , j =1(1)n,Beispiel 2.5Betrachte in ′Q oder IR die Matrizen( )0 1A := ,B:=4 0(0 −10 2).Wir haben( ) ( )0 00 rA + B = B + A = ,rA=,4 24r 0( ) ( )0 2−4 0AB =,BA=.0 −48 0Beachte die Tatsache, daß A + B = B + A, aber AB ≠ BA ist. 2Eine Sonderrolle nehmen die Matrizen in IK m,1 <strong>und</strong> IK 1,n ein. Wir nennen die Elementein IK m,1 Spaltenvektoren <strong>und</strong> die Elemente in IK 1,n Zeilenvektoren. Diese Bezeichnungsweisewird anschaulich, wenn wir die zugehörigen Schemata betrachten:In IK m,1 :⎛ ⎞a 11a 21A =(a ij ) i=1(1)m , j =1(1)1=⎜ ⎟⎝ .. ⎠a m1In IK 1,n :A =(a ij ) i=1(1)1 , j =1(1)n= ( a 11 a 12 ... a 1n).Bemerkung 2.6Die Bezeichnung Vektor für ein Element in IK l bzw. IK m,1 bzw. IK 1,n ist aus der Physikübernommen. Hier ist der physikalische Hintergr<strong>und</strong>, eine gerichtete Größe zu sein, nichtrelevant, einzig <strong>und</strong> allein die Regeln, mit denen wir mit den n-Tupeln, den Spaltenvektorenoder den Zeilenvektoren umgehen, sind entscheidend. Die physikalische Sichtweise– die Bezeichnung Skalar für die Elemente in IK kommt auch aus der Physik – wirdspätestens dann eine Rolle spielen, wenn wir über affine Räume reden werden. 2Es ist offenbar ein enger Zusammenhang zwischen IK m,1 <strong>und</strong> IK m bzw. IK 1,n <strong>und</strong> IK n .Meist identifizieren wir IK m,1 , IK 1,n mit IK m bzw. IK n <strong>und</strong> verwenden für Spalten- bzw.


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 32Zeilenvektoren kleine Buchstaben. Addition, Subtraktion <strong>und</strong> skalare Multiplikation übertragensich sofort von IK m,1 auf IK m gemäßx + y := (x 1 + y 1 ,...,x m + y m )x − y := (x 1 − y 1 ,...,x m − y m )rx := (rx 1 ,...,rx m ) ,wobei x =(x 1 ,...,x m ) ,y=(y 1 ,...,y m ) ∈ IK m ,r∈ IK .Die SchreibweiseAx = bfür das Gleichungssystem in n Unbekannten <strong>und</strong> m Gleichungen ist damit nun wohlerklärt:Es handelt sich bei der Schreibweise Ax um ein Produkt der Matrix A mitdem Spaltenvektor x.Eine Matrix A ∈ IK m,n können wir uns, je nach Interesse, aus SpaltenvektorenA = ( a 1 ... a n ) ,a j ∈ IK m,1 , 1 ≤ j ≤ n,oder aus Zeilenvektoren⎛b 1 ⎞⎜ ⎟A = ⎝ . ⎠ ,b i ∈ IK 1,n , 1 ≤ i ≤ m,b maufgebaut denken.Jede Matrix A ∈ IK m,n vermittelt durcheine Abbildung T A . Es gilt offenbar:IK n,1 ∋ x ↦−→ Ax ∈ IK m,1T A (x + y) =T A (x)+T A (y) ,T A (rx) =rT A (x) ,x,y∈ IK m,1 ,r ∈ IK . (2.8)Auf Gr<strong>und</strong> der Eigenschaften (2.8) nennen wir die Abbildung T A linear. Aus der Beschäftigungmit fast ausschließlich linearen Abbildungen leitet sich das Wort linear in der Bezeichnung“<strong>Lineare</strong> <strong>Algebra</strong>“ ab.Die Identität id IK n,1wird induziert durch die EinheitsmatrixE := (δ ij ) i=1(1)n , j =1(1)n,wobei δ ij das sogenannte Kronecker–Symbol{1 , falls i = jδ ij =0 , sonst


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 33ist.Bezeichnung: Die Spaltenvektoren⎛ ⎞ ⎛10e 1 :=,e 0.2 :=⎜ ⎟ ⎜⎝ 0 ⎠ ⎝0010.00⎞⎛, ··· ,e l :=⎟⎜⎠⎝000.01⎞,⎟⎠in IK l,1heißen Einheitsvektoren. Die Einheitsmatrix E ∈ IK n,n schreibt sich damit alsE =(e 1 |···|e n ) .Die Zahl n bei IK n bezeichnen wir als Dimension <strong>und</strong> IK n nennen wir einen n –dimensionalenRaum. Hier ist es einfach eine Sprechweise, später werden wir dies genauerbegründen. Soviel läßt sich jedoch sofort sehen: Ein Vektor in IK n steht für n Freiheitsgrade,da wir in in n Komponenten die Freiheit haben, zu operieren, unabhängig von denanderen Komponenten.2.3 LösungsraumBetrachte ein GleichungssystemAx = b (2.9)Die Daten des Gleichungssystems sind A ∈ IK m,n (Systemmatrix), b ∈ IK m,1 (rechteSeite); x ∈ IK n,1 steht für den Lösungsvektor.Bezeichnung:Mit θ schreiben wir den Nullvektor in einem Raum IK n , also θ =(0,...,0). Diese Bezeichnungverwenden wir sinngemäß auch für θ als Spalten– bzw. Zeilenvektor.Mit Θ schreiben wir die Nullmatrix in IK m,n , d.h. Θ =(a ij ) i=1(1)m , j =1(1)n mit Einträgena ij =0,i=1(1)m, j =1(1)n.Definition 2.7Das SystemAx = bheißt homogen, falls b = θ ist, anderenfalls inhomogen.2


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 34Satz 2.8(a) Ist das System (2.9) homogen, so hat es die triviale Lösung x = θ.(b) L θ := {x ∈ IK n,1 |Ax = θ} ist abgeschlossen bzgl. der Addition <strong>und</strong> skalarenMultiplikation, d.h.u + v ∈ L θ ,ru∈ L θ , , falls u, v ∈ L θ ,r ∈ IK .(c) Ist L b := {x ∈ IK n,1 |Ax = b} ≠ ∅, dann istL b =¯x + L θ := {¯x + u|u ∈ L θ } ,wobei ¯x (irgendeine spezielle) Lösung von (2.9) ist.Beweis:Zu (a). Trivial.Zu (b). Folgt aus (2.8).Zu (c).Sei x ∈ L b . Dann gilt A(x − ¯x) =θ, d.h. x − ¯x ∈ L θ .Sei x =¯x + u mit u ∈ L θ . Dann ist offenbar Ax = A¯x = b, d.h. x ∈ L b .Beispiel 2.9( )0 1Sei A := .0 0(1)( ) ( )( )0 1 x1, ∈ L0 0 θ , aberx{( ) } 2r∣∣∣Also L θ = r ∈ IK .0/∈ L θ , falls x 2 ≠0.(01)(2) Für b =gilt L b = ∅ .(10(3) Für b =){(rgilt L b =1) ∣∣∣r ∈ IK}, da(01)∈ L b .22.4 Das EliminationsverfahrenDie Lösung linearer Gleichungssysteme ist zentral in der numerischen Mathematik <strong>und</strong>in weiterem Sinne auch in der angewandten Mathematik. Die konstruktive Lösungsideebesteht darin, ein gegebenes System durch äquivalente Umformungen, d.h. durch Umformungen,die die Lösungsmenge nicht ändern, in eine Form zu bringen, aus der man dieLösung dann ablesen kann. Eine solche erstrebenswerte Form ist eine Matrix von obererDreiecksgestalt:


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 35Definition 2.10(a) Eine Matrix A = (a ij ) i=1(1)m , j =1(1)nheißt von oberer Dreiecksgestalt,wenna ij =0, falls i>j,gilt.(b) Eine Matrix A =(a ij ) i=1(1)m , j =1(1)nheißt Diagonalmatrix, wenn gilt:a ij =0, falls i ≠ j.2In der “einfachsten“ Situation m = n = 2 hat ein Gleichungssystem mit einer Systemmatrixvon oberer Dreiecksgestalt folgende Form:( )( )a11 a 12 x10 a 22 x 2Nun ist klar: Ist a 11 a 22 ≠0,solöst man so:=(b1b 2).x 2 := a −122 b 2 ,x 1 := (b 1 − a −122 a 12b 2 )a −111 .Dies ist die 2 × 2 – Version eines Algorithmus, der Rückwärtssubstitution genanntwird. In der Einführung haben wir in (2.2),(2.4) ein solches System vorgef<strong>und</strong>en.Definition 2.11Eine Matrix A =(a ij ) i=1(1)n , j =1(1)nvon oberer Dreiecksgestalt heißt regulär, fallsa 11 ···a nn ≠0,anderenfalls singulär.2Beachte, daß eine Diagonalmatrix eine Matrix von oberer Dreiecksgestalt ist <strong>und</strong> damitauch Regularität <strong>und</strong> Singularität für diesen Typ von Matrizen erklärt ist. Das Produkta 11 ···a nn ist im Spezialfall n =2,a 21 = 0 gerade die im Abschnitt 2.1 eingeführte Größe∆ .Die Bedeutung des Begriffs “regulär“, der später eine Erweiterung erfahren wird, liegt beiSystemen mit einer Systemmatrix von oberer Dreiecksgestalt darin, daß die eindeutigeLösbarkeit durch diese Eigenschaft gesichert wird (Lösbarkeit alleine kann auch ohnediese Bedingung vorliegen). Dies ist eine Konsequenz aus dem folgenden Algorithmus, derdie Lösung eines Gleichungssystems mit einer Systemmatrix von oberer Dreiecksgestaltbeschreibt.


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 36Algorithmus “Rückwärtsubstitution“:EIN Reguläre Matrix A ∈ IK n,n von oberer Dreicksgestalt.SCHRITT 1 i := n.SCHRITT 2 x i := b i .SCHRITT 3 F ür j =(i + 1)(1)n x i := x i − a ij x j .SCHRITT 4 x i := x i /a ii .SCHRITT 5 Ist i>1, gehe mit i := i − 1 zu SCHRITT 2, sonst zu AUS .AUS Lösungsvektor x =(x 1 ,...,x n ) .(Den Lösungsvektor haben wir in AUS aus Platz–ökonomischen Gründen als n-Tupel <strong>und</strong>nicht als Spaltenvektor geschrieben).Es ist nun erstrebenswert, eine beliebige Matrix auf eine obere Dreiecksgestalt zu transformieren,sodaß die sich der Lösungsraum nicht verändert. Dieses leistet das Eliminationsverfahren,das nach Gauß benannt ist, das allerdings für konkrete Fälle schon sehrviel früher Anwendung fand.Aus dem 2. Jahrh<strong>und</strong>ert n. Chr. gibt es eine Übersetzung der “Neun Bücher über die Kunst derMathematik“, die wohl im 2. Jahrh<strong>und</strong>ert v. Chr. aufgeschrieben wurden; das Methodenmaterialkann aber durchaus älter sein. Diese Bücher sind eine Art Lehrbuch für Verwaltungsbeamte. ImVIII. Buch ist folgende Aufgabe enthalten:Aus drei Garben einer guten Ernte, 2 Garben einer mittelmäßigen Ernte, <strong>und</strong> 1 Garbe einer schlechtenErnte erhält man den Ertrag von 39 Tou. Aus 2 Garben einer guten Ernte, 3 Garben einermittelmäßigen Ernte <strong>und</strong> 1 Garbe einer schlechten Ernte erhält man 34 Tou. Aus 1 Garbe guterErnte, 2 Garben mittelmäßiger Ernte <strong>und</strong> 3 Garben schlechter Ernte erhält man 26 Tou. Wievielist der Ertrag einer Garbe?Diese Aufgabe wurde in eine rechteckige Tabelle gebracht (Matrixschema !) <strong>und</strong> nach Regeln(“Immer multipliziere mit der Garbenzahl der guten Ernte mit der ... ), die den Eliminationschritten(siehe unten) entsprechen, auf eine Dreieckstabelle gebracht. Dabei können auch negative”Zahlen – sie treten hier wohl erstmals in der Geschichte der Mathematik auf – auftreten, für denUmgang dafür wurden Regeln angegeben. Wir können das resultierende rechteckige Schema nunals lineares Gleichungssystem mit einer Systemmatrix von oberer Dreiecksgestalt lesen:⎛⎝ 3 2 1⎞ ⎛0 5 1 ⎠ ⎝ x ⎞1x 2⎠ =0 0 36 x 3⎛⎝ 392439NunwirdmitRückwärtssubstitution gelöst.Die Idee der Elimination wurde auch studiert von Diophantos aus Alexandrien (um 250 n. Chr.).⎞⎠ .Welche Manipulationsschritte – wir nennen sie nun elementare Umformungen –sindes, die wir auf ein lineares Gleichungssystem anwenden dürfen, ohne die Lösungsmengezu verändern? Es sind dies:


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 37Zeilenvertauschung:Spaltenvertauschungen:Multiplikation:Addition:Zwei Gleichungen vertauschen, was einer Zeilenvertauschungin der Systemmatrix <strong>und</strong> der rechten Seite bedeutet.Vertauschung von zwei Unbekannten, was einer Spaltenvertauschungin der Systemmatrix entspricht; man hat sichdies zu merken!Eine Gleichung wird mit einem Skalar r ≠ 0 multipliziert.Dies entspricht der Multiplikation einer Zeile in der Systemmatrix<strong>und</strong> in der rechten Seite.Eine Gleichung wird zu einer anderen Gleichung addiert.Dies entspricht einer Addition einer Zeile in der Systemmatrix<strong>und</strong> in der rechten Seite.Kein Zweifel, nichts ändert sich an der Lösungsmenge, da man jeden Schritt wiederrückgängig machen kann. Man beachte, daß man, bis auf die Spaltenvertauschung, dieManipulationen stets auf die geränderte Matrix (A|b) anzuwenden hat (A Systemmatrix,b rechte Seite). In unserer Einführung in Abschnitt 2.1 haben wir diese Schritte bereitskennengelernt. Wir geben dieser elementaren Formulierung eine Matrixformulierung.Sei eine (m × n) – Matrix A 0 gegeben. Wir konstruieren unter Verwendung der obigenManipulationsschritte eine Folge A 0 ,A 1 ,... in folgender Weise:• Sei A k gef<strong>und</strong>en <strong>und</strong> sei A k von der Form(B CA k =Θ D),wobei B ∈ IK k,k eine reguläre Matrix von oberer Dreiecksgestalt ist.• Ist D die Nullmatrix, können wir abbrechen.• Sonst wird A k+1 konstruiert nach folgendem Vorgehen:◦ Wähle in D =(d ij ) i=1(1)m−k , j =1(1)n−kein Element d ij ≠0. Ein solches Elementwird ein Pivotelement (Ankerelement) genannt.◦ Bringe dieses Pivotelement durch Spalten– <strong>und</strong> Zeilenvertauschung in die Position(1,1) von D, d.h. wir können o.E. nun annehmen: d 11 ≠0. Beachte:Zeilenvertauschungen <strong>und</strong> Addition von Zeilen sind an der geränderten Matrixvorzunehmen, Spaltenvertauschungen hat man sich zu merken.◦ Addiere geeignete Vielfache der ersten Zeile von D zu den darunterliegendenZeilen mit dem Ziel, daßerreicht wird.d 21 = ···= d (m−k)1 =0Dies waren elementare Umformungen <strong>und</strong> es ergibt sich die Matrix A k+1 .DasVorgehenist damit (induktiv) beschrieben.


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 38Wir fassen dies nun algorithmisch zusammen.Algorithmus “Elimination nach Gauß“:EIN Systemmatrix A ∈ IK m,n , rechte Seite b ∈ IK m .Zu finden ist x ∈ IK n,1 mit Ax = b.SCHRITT 1 A 0 := (A|b) ∈ IK m,n+1 ,D:= A, d:= b, k := 0 .SCHRITT 2 Sei A k in der Form (B C cΘ D dmit B ∈ IK k,k ,c∈ IK k,1 ,d∈ IK m−k,1 gegeben, wobeik = 0 bedeutet, daß A k von der Form (D|d) ist.SCHRITT 3 Ist D die Nullmatrix, setze r := k <strong>und</strong> gehe zu AUS .SCHRITT 4 Finde in D ein Pivotelement d ij ≠0.SCHRITT 5Falls nötig, vertausche in (D|d) Zeile i mit Zeile 1 <strong>und</strong> in DSpalte j mit Spalte 1 mit dem Ziel, daß in der resultierendenMatrix (D ′ |d ′ ′) das Element d 11 ≠ 0 ist. Sei die Matrix (D ′ |d ′ )nach eventueller Vertauschung wieder mit (D|d) benannt.)SCHRITT 6AUSMache die erste Spalte der Matrix (D|d) durch elementareUmformungen, angewendet auf die Matrix (D|d), zum Vektore 1 . Daraus resultiert eine Matrix A k+1 von der Form(B C c)Θ D dmit D ∈ IK n−k−1,m−k−1 .Setze k := k + 1 <strong>und</strong> gehe, falls k


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 39Satz 2.12Betrachte das lineare GleichungssystemAx = b (2.10)mit A ∈ IK m,n ,b∈ IK m .Das Gaußsche Eliminationsverfahren liefert ein GleichungssystemA ′ x = b ′ (2.11)mit( )( )B CcA ′ =∈ IKΘ Θm,n ,b ′ = ∈ IKdm,1 ,wobei B ∈ IK r,r ,r ≤ min{m, n}, eine reguläre Matrix von oberer Dreiecksgestalt ist.Zusätzlich gilt:(a) Das Gleichungssystem (2.10) ist lösbar genau dann, wenn d = θ.(b) Ist das System (2.10) lösbar, so erhält man die Lösungskomponenten x 1 ,...,x rin eindeutiger Weise (Rückwärtssubstitution) als Lösung z vonBz = c (2.12)durch x i := z i , 1 ≤ i ≤ r; die restlichen Komponenten x r+1 ,...,x n sind freiwählbar.Beweis:Die Aussagen folgen aus der Entwicklung der Algorithmen “Rückwärtssubstitution“ <strong>und</strong>“Eliminationsverfahren nach Gauß“. Daß x r+1 ,...,x n frei wählbar sind, folgt aus derForm des Systems (2.11).Folgerung 2.13Ist das System (2.10) quadratisch, d.h. ist m = n, so tritt genau eine der folgendenAlternativen ein:(i) Das System (2.10) ist eindeutig lösbar.(ii) Das zugehörige homogene System ( b = θ) hat nichttriviale Lösungen.Beweis:Es tritt genau eine der Alternativen r = n oder r


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 40Es ist notwendigerweise r ≤ m < n. Nach (b) in Satz 2.12 sind die Komponentenx r+1 ,...,x n frei wählbar.Bemerkung 2.15In obigem Satz spielt die Zahl r eine nicht unwesentliche Rolle. Es wird hier noch nichtgeklärt, ob diese Zahl nur von der gegebenen Systemmatrix A oder auch vom gewähltenLösungsverfahren abhängt. Später wird sich ergeben, daß r wirklich vom Verfahren unabhängigist; sie wird dann der Rang der Matrix A genannt. 2Beispiel 2.16Betrachte das Gleichungssystem aus dem VIII. Buch der “Neun Bücher über die Kunstder Mathematik“: ⎛ ⎞ ⎛ ⎞ ⎛ ⎞3 2 1 x 1 39⎜ ⎟ ⎜ ⎟ ⎜ ⎟⎝ 2 3 1 ⎠ ⎝ x 2 ⎠ = ⎝ 34 ⎠ .1 2 3 x 3 26Der Algorithmus “Elimination nach Gauß“ wird folgendermaßen durchlaufen:⎛⎞ ⎛ ⎞3 2 1 393 2 1⎜⎟ ⎜ ⎟SCHRITT 1 A 0 = ⎝ 2 3 1 34 ⎠ ,D= ⎝ 2 3 1 ⎠ .1 2 3 261 2 3SCHRITT 4 Pivotelement d 11 =3.⎛⎞1 2/3 1/3 13⎜⎟SCHRITT 6 A 1 = ⎝ 0 5/3 1/3 8 ⎠ .0 4/3 8/3 13SCHRITT 4 Pivotelement d ij =5/3 .⎛⎞1 2/3 1/3 13⎜⎟SCHRITT 6 A 2 = ⎝ 0 1 1/5 24/5 ⎠ .0 0 12/5 33/5AUS⎛⎜⎝3 2 1 390 5 1 240 0 12 33⎞⎟⎠ .Mit Rückwärtsubstitution erhalten wir als Lösung x =(x 1 ,x 2 ,x 3 ):x 3 =11/4 ,x 2 =17/4 ,x 1 =37/4Beachte, daß jeweils viele Pivotelemente zur Verfügung stehen. 2


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 41Bemerkung 2.17Nach Durchlauf der Gaußschen Elimination kann man durch elementare Umformungendie erreichte Form ( )( ) ( )B C x1 c= .Θ Θ x 2 din die Form ( )( ) ( )E C x1 c′=Θ Θ x 2 dbringen; hierbei ist nun E eine (r × r) – Einheitsmatrix. Das resultierende Verfahrenwird das Gauß – Jordan Eliminationsverfahren genannt.Die Rückwärtssubstitutiongestaltet sich hier sehr einfach. 2Bemerkung 2.18Verschiedenen Varianten eines Eliminationsverfahrens kann man nach der Anzahl derbenötigten Rechenoperationen bewerten. Dabei ist es erlaubt, Additionen <strong>und</strong> Subtraktionenbzw. Multiplikationen <strong>und</strong> Divisionen gleichsetzen, da sie etwa gleichgroßen Rechenaufwanderfordern.Bei der Gauß – Elimination fallen bei einer quadratischen n × n – Matrix höchstens<strong>und</strong>n 2 +(n − 1) 2 + ···+1 2 =n(n − 1) + (n − 1)(n − 2) + ···+1=n(n + 1)(2n +1)6n(n + 1)(2n +1)6an. Bei der anschließenden Rückwärtssubstitution fallen dannn − 1+n − 2+···+1=n(n − 1)2−Additionenn(n +1)2AdditionenMultiplikationen<strong>und</strong>n(n − 1)n + n − 1+···+1= Multiplikationen2an. Der Aufwand wächst asymptotisch also wie n 3 /3 .Beim Gauß – Jordan Eliminationsverfahren ermittelt man denselben Rechenaufwand. 2In der Praxis wird die Lösung eines (großen) linearen Gleichungssystems auf einem Computerdurchgeführt. Dieser hat nur endlich viele (Dezimal-)Stellen für die Rechnung zurVerfügung, auf die jeweils durch eine Variante einer “R<strong>und</strong>ung“ die Zahlen reduziert werden.Berücksichtigt man dies, so kommt zu den bisher angesprochenen Fragendie Frage derExistenz (einer Lösung), Eindeutigkeit (einer Lösung)Stabilität (der Berechnung gegenüber R<strong>und</strong>ung)


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 42hinzu. Die Frage der Stabilität ist wesentlicher Teil von Überlegungen, die in der numerischenMathematik hinsichtlich der numerischen Lösung von linearen Gleichungssystemen(auch unabhängig vom Lösungsverfahren) angestellt werden. Die Wahl eines Pivotelementsspielt eine wesentliche Rolle bei der Betrachtung. Im Abschnitt über euklidischeVektorräume streifen wir die Werkzeuge für die Behandlung dieser Frage, nötig ist insbesondereetwas Topologie (Stetigkeit).Sind bei einem Gleichungssystem alle drei Fragen positiv beantwortet, nennt man dasProblem gut konditioniert. Diese Begriffsbildung ist eine Version des von J. Hadamard(1865 – 1963) im Zusammenhang mit partiellen Differentialgleichungen eingeführten Begriffskorrekt gestellt oder gut gestellt. Nach Hadamard heißt ein Problem korrektgestellt, wenn folgende Aussagen verifiziert werden können:Existenz:Eindeutigkeit:Stabilität:Das Problem hat eine Lösung.Das Problem hat höchstens eine Lösung.Die Lösung hängt stetig von den Daten des Problems ab.Dem widerspricht nicht, eine Theorie über die Behandlung von schlechtgestellten Problemenzu entwickeln, d.h. Probleme zu untersuchen, bei denen mindestens eine der obenangeführten Eigenschaften nicht gegeben ist; in der Praxis ist die Stabilität die Problematik.Ziel einer solchen Theorie ist, herauszufinden, welche “physikalisch“ begründbarenEigenschaften einem mathematischen Modell hinzugefügt werden müssen, damit ein gutgestelltesProblem resultiert (Regularisierung).2.5 Geometrische Interpretation<strong>Lineare</strong> Gleichungssysteme mit sehr vielen Unbekannten, insbesondere mit mehr als dreiUnbekannten, sind sehr interessant. Es lassen sich ohne Mühe viele Anwendungen finden,bei denen die Anzahl der Unbekannten mehrere H<strong>und</strong>ert beträgt. Die Betrachtungen derzugehörigen Lösungsmengen spielen sich dann in einem Raum IK n ab mit Dimension n,die sehr viel größer als drei ist. Eine geometrische Interpretation von linearen Gleichungssystemensetzt dann voraus, daß es eine <strong>Geometrie</strong> in Räumen IK n ,n>3, “gibt“.<strong>Geometrie</strong> ist die Beschäftigung mit Objekten wie Geraden, Kreise, Ebenen, Kugeln ....Die Gr<strong>und</strong>idee einer <strong>Geometrie</strong> in IK n besteht darin, mit den Punkten x =(x 1 ,...,x n )geometrische Objekte wie Gerade, Ebenen, Kugeln, ...in IK n zu beschreiben. Diese Gr<strong>und</strong>ideegeht zurück auf R. Descartes (1596 – 1650) – im cartesischen Koordinatensystemlebt der lateinische Name Cartesius für Descartes fort. Die Einsicht, daß man <strong>Geometrie</strong>in IK n ,n > 3, treiben kann <strong>und</strong> sollte, wurde vertieft von A. Cayley (1821 – 1895),wenngleich mit Mißtrauen <strong>und</strong> Unglauben aufgenommen:Man kann mit dem 4-dimensionalen Raum umgehen “sans recourir à aucune notion métaphysiqueàl’égard de la possibilité del’espaceàquatredimensions“.A.C., 1846Nahezu gleichzeitig mit A. Cayley schuf H. Grassmann (1809 – 1877) seine “lineale Ausdehnungslehre“,ein Werk, dessen Tiefe zunächst nicht erkannt wurde. Darin wird die


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 43<strong>Geometrie</strong> in einem Raum mit n Dimensionen aufgebaut:...Dadurch geschieht es nun, daß die Sätze der Raumlehre eine Tendenz zur Allgemeinheit haben,die in ihr vermöge ihrer Beschränkung auf drei Dimensionen keine Befriedigung findet, sondernerst in der Ausdehnungslehre zur Ruhe kommt.H. G., 1845Definition 2.19Eine Menge G⊂IK n heißt Gerade genau dann, wenn es p, q ∈ IK n ,q ≠ θ, gibt mitG = p + IK q := {p + tq|t ∈ IK } .(G ist Gerade durch p mit Richtung q)2Satz 2.20Sei G⊂IK 2 . Dann sind äquivalent:(a) G ist Gerade.(b) Es gibt a ∈ IK 2 ,a≠ θ, <strong>und</strong> b ∈ IK mitG = {(x 1 ,x 2 ) ∈ IK 2 |a 1 x 1 + a 2 x 2 = b} .Beweis:Zu (a) =⇒ (b)Sei G = {p + tq|t ∈ IK } mit q ≠ θ. Sei etwa q 1 ≠0.Wir setzen a := (−q 2 ,q 1 ) ,b:= q 1 p 2 − q 2 p 1 <strong>und</strong> rechnen damit (b) nach.Ist x ∈G, dann giltx 1 = p 1 + tq 1 ,x 2 = p 2 + tq 2 ,für ein t ∈ IK , nämlich für t =(x 1 − p 1 )/q 1 , alsoa 1 x 1 + a 2 x 2 = b.Ist a 1 x 1 + a 2 x 2 = b für ein x =(x 1 ,x 2 ) , dann gilt x = p + tq mit t := x 1 a −12 .Zu (b) =⇒ (a)Sei etwa a 2 ≠0.Wir setzen p := (0,ba −12 ),q := (a 2 , −a 1 ) <strong>und</strong> haben q ≠ θ. Damit rechnet man wie obennach, daß G Gerade durch p mit Richtung q ist.Definition 2.21Eine Menge E⊂IK n heißt Ebene genau dann, wenn es p, u, v ∈ IK n gibt mitE = p + IK u + IK v := {p + tu + sv|s, t ∈ IK } ,wobei u ≠ θ, v ≠ tu für alle t ∈ IK .(E ist Ebene durch p mit Richtungsraum u, v).2


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 44Satz 2.22Sei E⊂IK 3 . Dann sind äquivalent:(a) E ist Ebene.(b) Es gibt a ∈ IK 3 ,a≠ θ, <strong>und</strong> b ∈ IK mitE = {(x 1 ,x 2 ,x 3 ) ∈ IK 3 |a 1 x 1 + a 2 x 2 + a 3 x 3 = b} .Beweis:Den Beweis dazu wollen wir hier noch nicht führen, denn er ist mit den hier bekanntenHilfsmitteln etwas mühsam. Später fällt er wirklich sehr leicht.Damit ist nun klar, daß eine Ebene im Anschauungsraum als Lösungsmenge einer (nichttrivialen)linearen Gleichung auftritt.Die Forderungu ≠ θ, v ≠ tv für alle t ∈ IK—manüberlege sich, daß sie äquivalent ist zu v ≠ θ, u ≠ tv für alle t ∈ IK —inobigerDefinition 2.21 besagt, daß die Ebene nicht zu einer Geraden in IK 3 entartet. Später wirddiese Forderung die äquivalente Formulierung “u, v sind linear unabhängig“ erhalten.Wir haben zwar die Charakterisierung der Geraden im “Anschauungsraum“ IK 3 nichtbehandelt, nach Satz 2.22 sollte aber klar sein, daß eine Gerade in IK 3 als Schnitt vonzwei Ebenen in IK 3 auftreten sollte, also eine Menge von folgender Form sein sollte:G = {(x 1 ,x 2 ,x 3 ) ∈ IK 3 |a 1 x 1 + a 2 x 2 + a 3 x 3 = b, a ′ 1 x 1 + a ′ 2 x 2 + a ′ 3 x 3 = b ′ } .Hier ist dann die Frage zu klären, wann sich zwei Ebenen schneiden <strong>und</strong> so eine Geradedefinieren. Dieser Frage gehen wir unter dem Abschnitt “Gleichungssysteme“ im Kapitel4nach.Auf die gr<strong>und</strong>sätzlichen Fragen, die mit den Begriffen Gerade <strong>und</strong> Ebene bei der axiomatischenF<strong>und</strong>ierung auftreten, gehen wir im Kapitel über <strong>Geometrie</strong> ein.


Kapitel 3VektorräumeHier legen wir die Gr<strong>und</strong>lagen für die Theorie der Vektorräume. Von außerordentlicherBedeutung wird der Begriff der Basis sein.3.1 GruppenDefinition 3.1Eine Menge G zusammen mit einer Verknüpfung • : G × G ∋ (a, b) ↦−→ a • b ∈ Gheißt eine Gruppe genau dann, wenn gilt:(N) Es gibt ein Element e ∈ G mit a • e = e • a = a für alle a ∈ G.(I) Zu jedem a ∈ G gibt es ein Element ā ∈ G mit a • ā =ā • a = e.(A) Für alle a, b, c ∈ G gilt a • (b • c) =(a • b) • c.Ist zusätzlich noch(K) Für alle a, b ∈ G gilt a • b = b • a.erfüllt, so heißt die Gruppe kommutativ.2Sei G eine Gruppe.Die Bedingung (N) besagt, daß es ein bezüglich der Verknüpfung “•“ neutrales Elemente in G gibt. Ist e ′ ein weiteres neutrales Element in G, so lesen wir ause ′ = e ′ • e = e–wirhabendabei(N) zweimal verwendet – ab, daß das neutrale Element in einer Gruppeeindeutig bestimmt ist.Das in der Bedingung (I) eingeführte Element ā heißt das zu a inverse Element. Esistebenfalls eindeutig bestimmt, denn ausa • ā =ā • a = e, a• ā ′ =ā ′ • a = e,45


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 46folgtā ′ =ā ′ • e =ā ′ • (a • ā) =(ā ′ • a) • ā = e • ā =ā.Die Bedingung (A), die wir eben verwendet haben, nennt man das Assoziativgesetz.Es besagt, daß Klammern bei der Reihenfolge der Verknüpfungen beliebig gesetzt werdendürfen <strong>und</strong> deshalb, soweit sie nicht für die Lesbarkeit benötigt werden, weggelassenwerden dürfen.Seit dem 17. Jahrh<strong>und</strong>ert ist der Gruppenbegriff implizit bei Mathematikern zu finden, zunächstwohl nur bei konkreten Beispielen. Eine erste explizite Definition einer abstrakten kommutativenGruppe findet sich bei H. Grassmann (1809 – 1877). Die Theorie der Gruppen ist nach wie vorim Zentrum der <strong>Algebra</strong> sehr lebendig, die vollständige Klassifizierung von speziellen Klassen vonGruppen ist ein Hauptziel der Untersuchungen.Bemerkung 3.2Die Forderungen (N) <strong>und</strong> (I) in Definition 3.1 kann man bei Beibehaltung von (A) auchschwächer formulieren ohne etwas zu verlieren. Es reicht, statt (N) <strong>und</strong> (I) zu fordern:(N’) ∃e ∈ G ∀a ∈ G (e • a = a) .(I’) ∀a ∈ G ∃ā ∈ G (ā • a = e) .Den Beweis – man folgert zunächst (I) aus (N’) <strong>und</strong> (I’) <strong>und</strong> dann (N) – wollen wirübergehen. 2Über die Lösbarkeit einer “linearen Gleichung“ in einer Gruppe gibt AuskunftFolgerung 3.3Sei (G, •) eine Gruppe <strong>und</strong> seien a, b ∈ G. Dann gilt:∃ 1 x, y ∈ G (a • x = b, y• a = b) .Beweis:Klar: x := ā • b, y := b • ā sind Lösungen; hierbei ist ā das Inverse zu a .Die Eindeutigkeit folgt etwa im Fall a • x = b so:Aus a • z = b, z ∈ G, folgtx =ā • b =ā • (a • z) =(ā • a) • z = e • z = z.Wir führen nun eine Reihe von Beispielen an. Dabei schreiben wir die Verknüpfung dannimmer mit dem Symbol, das wir in der speziellen Situation bereits kennen. Im Zusammenhangmit Vektorräumen lernen wir weitere Beispiele kennen.


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 47Beispiel 3.4(G := ZZ , • := +) ist eine kommutative Gruppe mit neutralem Element 0 <strong>und</strong> Inversem−z für z ∈ ZZ . 2Wenn die Verknüpfung eine Addition ist, nennt man das Inverse eines Elements meist dasNegative. IstdieVerknüpfung • in einer Gruppe einer Addition “verwandt“, so nenntman sie, wenn sie kommutativ ist, auch abelsch.Der Begriff “abelsch“ ist vom Namen des norwegischen Mathematikers N.H. Abel (1802 –1829)abgeleitet. Neben Arbeiten zur Konvergenz von Reihen <strong>und</strong> elliptischen Funktionen beschäftigte ersich mit der Lösbarkeit von Gleichungen fünften Grades <strong>und</strong> bewies die Unmöglichkeit der Lösungeiner allgemeinen Gleichung fünften Grades mit Hilfe von Radikalen (“Wurzelausdrücken“). SeineIdeen hierzu sind eng mit denen des französischen Mathematikers E. Galois (1811 – 1832), dessenTheorie in der <strong>Algebra</strong> eine überragende Rolle spielt, verwandt. Mit ihm teilt er auch das Schicksal,sehr jung zu sterben, Abel starb an Schwindsucht, Galois in einem Duell. G. Peano (1858 – 1932)nahm den Gruppenbegriff auf; ihm standen dazu nun die mengentheoretischen Sprechweisen zurVerfügung.Beispiel 3.5(G := ′Q, • := +) , (G := IR, • := +) sind abelsche Gruppen. Das neutrale Element istjeweils 0, das Inverse (Negative) eines Elementes r ist −r. 2Beispiel 3.6(G := IK ∗ := IK \{0}, • := ·) istfür IK ∈ {′Q, IR} eine kommutative Gruppe. DieRechenregeln einer Gruppe sind uns hier wohlvertraut, ebenso die Potenzregeln. Manbeachte, daß wir das Nullelement aus IK entfernen mußten, da dieses Element kein Inversesbzgl. der Multiplikation besitzt. 2My oral exam still threatened–one on geometric function theory with that redoubtable professorGustav Herglotz. I consulted my experienced friends: what to do? They reminded me that he lovedto lecture. This I bore in my mind during the exam:Herglotz: What is the Erlanger Program?Sa<strong>und</strong>ers Mac Lane: Everything depends on the group.Herglotz: What is the group for complex analysis?Sa<strong>und</strong>ers Mac Lane: The conformal group.That sufficed to start Herglotz on a splendid lecture on geometric function theory in terms of theconformal group.My thesis was done, and I was through.Aus: Sa<strong>und</strong>ers Mac Lane, Mathematics at Göttingen <strong>und</strong>er the Nazis, Notices of the AMS 42(1995)Nun haben wir die Gruppenstrukturen in den Zahlen erkannt. Wir finden sie auch beimRechnen mit Restklassen, wie folgendes Beispiel zeigt.


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 48Beispiel 3.7Wir kennenaus Abschnitt 1.5 <strong>und</strong> wissen, daß durchZZ m = {[0],...,[m − 1]} ,m∈ IN ,[k] ⊕ [l] :=[k + l] , [k] ⊙ [l] :=[k · l] ,k,l∈ ZZ ,eine Addition <strong>und</strong> Multiplikation erklärt ist.(G := ZZ m , • := ⊕) ist eine kommutative Gruppe ;das neutrale Element ist die Klasse [0] . Dieses Ergebnis gilt unabhängig von m. BeiderMultiplikation liegt die Situation etwa anders. Hier benötigen wir für die Aussage(G := ZZ m \{[0]}, • := ⊙) ist eine Gruppedie Tatsache, daß m eine Primzahl ist. Dies sieht man daran, daß etwa [2] ⊙ [2] = [0]in ZZ 4 gilt, d.h. die Verknüpfung führt dort aus G heraus. (Wenn wir [0] zu G wiederhinzunehmen, hat [0] kein Inverses!) Klar, der Kandidat für das neutrale Element dieserVerknüpfung ist die Klasse [1].Die Gruppentafeln, so bezeichnen wir eine vollständige Auflistung der Verknüpfungender Gruppenelemente, zu m = 5 sehen so aus:⊕ [0] [1] [2] [3] [4][0] [0] [1] [2] [3] [4][1] [1] [2] [3] [4] [0][2] [2] [3] [4] [0] [1][3] [3] [4] [0] [1] [2][4] [4] [0] [1] [2] [3]⊙ [1] [2] [3] [4][1] [1] [2] [3] [4][2] [2] [4] [1] [3][3] [3] [1] [4] [2][4] [4] [3] [2] [1]Man beachte, daß sowohl in der Gruppentafel zur Addition als auch in der Gruppentafelzur Multiplikation in jeder Zeile <strong>und</strong> Spalte jede Klasse genau einmal vertreten ist. 2Beispiel 3.8Sei q =(q 1 ,...,q n ) ∈ IR n ,q≠ θ. Wir definieren in IR n eine Äquivalenzrelation durchx ∼ y : ⇐⇒ x i − y i = k i q i mit k i ∈ ZZ , 1 ≤ i ≤ n.Damit setzen wirIT n := IR n / ∼:= {[x]|x ∈ IR n }<strong>und</strong> erklären eine Addition in IT n durch[x] ⊕ [y]:=[x + y] ,x,y∈ IR n .


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 49Offenbar ist (G := IT n , • := ⊕) eine abelsche Gruppe.Für jedes α ∈ IR n können wir durcheine Abbildung erklären. Die FamilieT α : IT n ∋ [x] ↦−→ [x + α] ∈ IT nT := {T α |α ∈ IR n }ist nun selbst wieder eine abelsche Gruppe, wenn die Verknüpfung so erklärt ist:T α • T β := T α ◦ T β = T α+β ,α,β∈ IR n .Das neutrale Element ist id IT n = T θ <strong>und</strong> das Inverse von T α ist T −α .Von besonderem Interesse ist der Fall n =1,q =2π. Hier können wir IT 1 durch dieinjektive AbbildungIT 1 ∋ [φ] ↦−→ (cos φ, sin φ) ∈ IR 2in IR 2 “einbetten“. Also haben wir mit K 2 := {(x, y) ∈ IR 2 |x 2 + y 2 =1} die bijektiveAbbildungj : IT 1 ∋ [φ] ↦−→ (cos φ, sin φ) ∈ K 2 ,d.h. IT 1 können wir als eine “Kopie“ des Einheitskreises K 2 in IR 2 ansehen (Daraus leitetsich ab, IT n als Einheitssphäre in IR n+1 zu bezeichnen.) Die Abbildungenkönnen wir dann zu AbbildungenT α : IT 1 ∋ [x] ↦−→ [x + α] ∈ IT 1“hochheben“:D α : K 2 ∋ (cos φ, sin φ) ↦−→ (cos(φ + α), sin(φ + α)) ∈ K 2↑ K 2⏐ jIT 1D α−→↑ K2⏐ jT α−→ IT1Mit diesen Überlegungen ist bereits ein Ansatz dafür geschaffen, geometrische Objekte alsinvariante Objekte von Abbildungen zu studieren; “Drehungen“ D α spielen eine wichtigeRolle dabei. 2Nach F. Klein (1849 – 1925) erhält man eine <strong>Geometrie</strong>, indem man aus der Gruppe B der Bijektionenvon IR 2 auf sich selbst eine Untergruppe G, also eine Teilmenge G, aus der die Verknüpfungder Gruppe B nicht herausführt, auswählt. Ist dann F eine geometrische Figur in der “Ebene“ IR 2 ,so ist eine Eigenschaft von F in der durch G ausgesonderten <strong>Geometrie</strong> eine Invariante, falls jedesBild g(F ),g∈ G, diese Eigenschaft hat. Wenn man für G etwa die die von den Translationen, Drehungen,Spiegelungen erzeugte Gruppe der euklidischen Bewegungen nimmt, so ist die entstehende<strong>Geometrie</strong> die euklidische <strong>Geometrie</strong> der Ebene. (Dazu später mehr.)


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 503.2 PermutationsgruppenSei M eine nichtleere Menge. Wir setzenAbb (M) :={f : M −→ M} .In dieser Menge der Selbstabbildungen von M ist eine “Multiplikation“ erklärt durch dieKomposition von Abbildungen:f • g := f ◦ g,f,g∈ Abb (M) .Nun ist klar, daß(G := {f ∈ Abb (M)|f bijektiv } , • := ◦)eine (im allgemeinen nicht kommutative) Gruppe darstellt: das Assoziativgesetz ist klar,das neutrale Element ist die Identität id M , das inverse Element eines Elements f ∈ Gist f −1 . Man hat noch nachzuprüfen, daß mit f,g ∈ G auch f ◦ g ∈ G, f −1 ∈ G gilt.Dazu hat man nur einzusehen, daß f ◦ g, f −1 bijektiv sind, falls f,g bijektiv sind. Wirüberlassen dies dem Leser.Für diese Gruppe G schreiben wir nun S(M) .Definition 3.9Ist M eine nichtleere Menge, so nennen wir die Gruppe S(M) die symmetrischeGruppe von M.Ist M = {1,...,m}, dann nennen wir S(M) Permutationsgruppe <strong>und</strong> jedes Elementin S(M) eine Permutation. In diesem Spezialfall schreiben wir kurz S m .2Die Wortwahl Permutationsgruppe wird verständlich, wenn wir beobachten, daß beider Menge M = {1,...,m} einer Abbildung f in S m die Umstellung der Elemente in Mgemäß ( )1 2 ... mf(1) f(2) ... f(m)entspricht. Die Wortwahl symmetrische Gruppe rührt daher, daß die Funktionen derVariablen x 1 ,...,x m , die bei allen Permutationen der Variablen invariant bleiben, diesymmetrischen Funktionen sind.Beispiel 3.10Wir betrachten S 3 . Dazu bezeichnen wir jedes Element von S 3 durch seine Wirkung aufdas Tripel (123) (geschrieben ohne Kommata). Die sechs Elemente der Gruppe sind dannτ 0 = (123) τ 1 = (132) τ 2 = (213) τ 3 = (231) τ 4 = (312) τ 5 = (321) .Beispielsweise besagt τ := τ 1 = (132) : τ(1) = 1 ,τ(2) = 3 ,τ(3) = 2 .Klar, τ 0 = (123) ist die Identität. Die Gruppentafel stellt sich folgendermaßen dar:


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 51◦ id τ 1 τ 2 τ 3 τ 4 τ 5id id τ 1 τ 2 τ 3 τ 4 τ 5τ 1 τ 1 id τ 3 τ 2 τ 5 τ 4τ 2 τ 2 τ 4 id τ 5 τ 1 τ 3τ 3 τ 3 τ 5 τ 1 τ 4 id τ 2τ 4 τ 4 τ 2 τ 5 id τ 3 τ 1τ 5 τ 5 τ 3 τ 4 τ 1 τ 2 idBeispielsweise bedeutet τ 4Spalte 3, Zeile 4τ 1 ◦ τ 2 = τ 4<strong>und</strong> τ 2 in Spalte 7, Zeile 5τ 5 ◦ τ 3 = τ 2 .in2Bemerkung 3.11Einer endlichen Gruppe, d.h. einer Gruppe mit endlich vielen Elementen, kann man durchBlick auf ihre Gruppentafel sofort ansehen, ob sie kommutativ ist. Sie ist nämlich kommutativgenau dann, wenn ihre Gruppentafel symmetrisch zur Hauptdiagonalen ist. S 3ist also nicht kommutativ. Daraus folgt, daß S m ,m≥ 3, nicht kommutativ ist (Beweis!).2Eine nahezu triviale Beschreibung der Menge S(M) für eine endliche Menge M, d.h.einerMenge, die bijektiv auf {1,...,m} abbildbar ist, ist enthalten inLemma 3.12Sei M eine endliche Menge. Dann sind äquivalent:(a) f ist bijektiv, d.h. f ∈S(M).(b) f ist surjektiv.(c) f ist injektiv.Beweis:Zu (a) =⇒ (b). Klar.Zu (b) =⇒ (c). Ist f surjektiv, dann ist #f(M) =#M, alsof injektiv.Zu (c) =⇒ (a). Ist f injektiv, dann ist #f(M) =#M, alsof auch surjektiv.Eine einfache Überlegung zeigt, daß S m m! Elemente besitzt (Es sind zur Realisierungeiner Permutation m verschiedene Objekte auf m Plätze zu verteilen).Dabei ist n! (n-Fakultät) in IN 0 induktiv so definiert:0! := 1 , (n +1)!:=(n +1)n!Sei nun stets S m für m ≥ 2 betrachtet, S 1 ist ja trivial!


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 52Definition 3.13Sei σ ∈S m . Wir setzena(σ) :=#{(i, j) ∈ IN m × IN m |iσ(j)} ,ɛ(σ) :=(−1) a(σ)<strong>und</strong> nennen σ gerade, falls ɛ(σ) =1gilt, anderenfalls ungerade. ɛ(σ) heißt dasSignum von σ <strong>und</strong> a(σ) die Fehlstandszahl von σ.2Beispiel 3.14Seiσ =(1 2 3 4 53 5 1 4 2)oder kurz σ = (35142) .Dann gilt a(σ) = 6 <strong>und</strong> σ ist eine gerade Permutation. 2Lemma 3.15Für jedes σ ∈S m giltBeweis:Sei n := a(σ) . Nun gilt:∏(σ(j) − σ(i)) =1≤i


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 53Lemma 3.16Sei σ ∈S m <strong>und</strong> sei τ ∈S m eine Nachbarnvertauschung. Dann gilt ɛ(τ ◦ σ) =−ɛ(σ) .Beweis:ɛ(τ ◦ σ) ==∏1≤i


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 54Dies bedeutet aber σ(i) =i für alle i ∈{1,...,m} , d.h. σ = id im Widerspruch zua(σ) ≥ 1 .Also gibt es nun ein Paar (i, i+1), 1 ≤ iσ(i+1). Sei τ die Transposition,die σ(i)mitσ(i+1) vertauscht. Dann gilt a(τ ◦σ) =a(σ)−1 , wovon man sich mittels einfacherFallunterscheidung überzeugt. Nach Induktionsvoraussetzung ist nun τ ◦σ Produktvon Transpositionen, also auch σ = τ ◦ (τ ◦ σ) .Folgerung 3.19Ist σ ∈S m Produkt von r Transpositionen, dann gilt ɛ(σ) =(−1) r .Beweis:Folgt aus Satz 3.18 durch mehrmaliges Anwenden vonfür jede Transposition τ.ɛ(τ ◦ σ) =−ɛ(σ)Wir haben gesehen, daß unabhängig von der Art der Darstellung einer Permutation alsProdukt von Transpositionen die Anzahl der dabei benötigten Transpositionen bei geradenPermutationen stets gerade <strong>und</strong> bei ungeraden Permutationen stets ungerade ist.Folgerung 3.20(a) ɛ(σ ◦ σ ′ )=ɛ(σ)ɛ(σ ′ ) ,σ,σ ′ ∈S m .(b) ɛ(σ −1 )=ɛ(σ) ,σ∈S m .(c) #S m = m! , #{σ ∈S m |ɛ(σ) =1} = m!/2, falls m ≥ 2 .Beweis:(a) folgt aus Satz 3.18, ebenso (b), da für jede Transposition τ gilt: τ −1 = τ.Die Aussage#S m = m! ist klar (siehe oben), die Ausage #{σ ∈S m |ɛ(σ) =1} = m!/2 folgt aus derTatsache, daß für jede Nachbarnvertauschung τ durchS m ∋ σ ↦−→ τ ◦ σ ∈S meine bijektive Abbildung definiert ist, bei der die geraden Permutationen auf ungerade<strong>und</strong> die ungeraden Permutationen auf gerade Permutationen abgebildet werden.Die Menge A m := {σ ∈S m |ɛ(σ) =1} heißt alternierende Gruppe. Sie ist in der Tatmit der Einschränkung der Verknüpfung ◦ eine Gruppe, wie eine einfache Überlegung,basierend auf Folgerung 3.20, zeigt.Erste allgemeine Sätze über Permutationsgruppen wurden von P. Ruffini (1765 – 1822) über S 5 imZusammenhang mit dem Versuch, eine Gleichung 5. Grades durch Radikale (“Wurzelausdrücke“) zulösen. Er gibt die 120 Elemente explizit an <strong>und</strong> betrachtet Teilmengen von S 5 , die Untergruppensind, d.h. selbst wieder Gruppen in der durch S 5 induzierten Verknüpfung sind. Insbesonderestudiert er die alternierende Gruppe A 5 .


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 553.3 KörperWir wollen nun Körper einführen. Die Bezeichnung dafür haben wir in den konkretenFällen IK = IR <strong>und</strong> IK = ′Q bereits vorweggenommen.Definition 3.21Eine Menge IK mit zwei Verknüpfungen+ : IK × IK ∋ (a, b) ↦−→ a + b ∈ IK , (Addition)· : IK × IK ∋ (a, b) ↦−→ a · b ∈ IK (Multiplikation)heißt ein Körper, wenn gilt:(A) (IK , +) ist eine abelsche Gruppe mit neutralem Element 0.(M) (IK ∗ := IK \{0}, ·) ist eine abelsche Gruppe mit neutralem Element 1 .(D) Für alle a, b, c ∈ IK gilt: a · (b + c) =a · b + a · c.2Die Bedingungen (A), (M) sind uns wohlvertraut. Mit der Tatsache 1 ≠ 0 ist schonklar, daß ein Körper mindestens zwei Elemente besitzt, nämlich das Nullelement 0(neutrales Element bzgl. der Addition) <strong>und</strong> das Einselement 1 (neutrales Element bzgl.der Multiplikation). Die Bedingung (D) heißtDistributivgesetz.Eserklärt, wie sich diebeiden Verknüpfungen miteinander “vertragen“.Wir wissen schon, daß 0, 1 durch ihre Eigenschaft, neutrales Element zu sein, eindeutigbestimmt sind. Das Inverse von a bzgl. der Addition schreiben wir mit −a, dasInversevon a ∈ IK ∗ bzgl. der Multiplikation schreiben wir mit a −1 . Dies geschieht in Anlehnungan das Rechnen in ′Q bzw. IR .Folgerung 3.22Sei IK ein Körper <strong>und</strong> seien a, b ∈ IK . Es gilt:(1) Die Gleichung a + x = b hat die eindeutige Lösung x = b +(−a) .(2) −(−a) =a, −(a + b) =(−a)+(−b) .(3) Die Gleichung a · x = b hat die eindeutige Lösung x = a −1 b falls a ≠0.(4) (a −1 ) −1 = a, falls a ≠0.(5) (a · b) −1 = b −1 · a −1 , falls a ≠0,b≠0.(6) a · 0=0.(7) a · b =0 ⇐⇒ a =0oder b =0.(8) (−a) · b = −(a · b) , (−a) · (−b) =a · b.Beweis:


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 56(1) <strong>und</strong> (3) folgen aus Satz 3.3.Zu (2).Aus (−a)+(−(−a)) = 0, (−a)+a = 0 folgt mit (1) die Aussage −(−a) =a.Aus (a + b)+(−(a + b)) = 0 folgt durch Addition von (−a) auf jeder Seiteb +(−(a + b)) = −a, d.h. −(a + b) =−a +(−b) .(4), (5) folgen analog (2) .Zu (6).a · 0=a · (0 + 0) = a · 0+a · 0, also mit (1) a · 0=0.Zu (7).Offensichtlich folgt mit (6) aus a =0oderb =0soforta · b =0.Die Umkehrung folgt mit (3) , falls etwa a ≠0.Zu (8).0=0· b =(a +(−a)) · b = a · b +(−a) · b, woraus die erste Aussage folgt. Die zweiteAussage folgt mit −b aus der eben bewiesenen Aussage.Die Aussage (3) in Folgerung 3.22 kann etwas umfassender formuliert werden:Die Gleichung a · x = b hat die eindeutige Lösung x = a −1 b falls a ≠0, sie hat keineLösung, falls a = 0 <strong>und</strong> b ≠0, <strong>und</strong> sie hat jedes x ∈ IK als Lösung, falls a = b =0. Manhat dazu nur (6) aus Folgerung 3.22 heranzuziehen.Die Theorie der Körper beginnt im wesentlichen mit E. Galois (1811 – 1832) <strong>und</strong> N.H. Abel (1802– 1829) mit der Erweiterung der Körper ′Q, IR um Lösungen algebraischer Gleichungen (Körpererweiterung),allerdings noch in einer Formulierung, der mengentheoretische Sprechweisen nicht zurVerfügung stehen. R. Dedekind (1831 – 1916) führte dann die Begriffe “Körper“, “Moduln“ 1811ein, 1893 gab dann H. Weber (1842 – 1913) dem Wort “Körper“ den gleichen allgemeinen Sinn,den es heute hat. Auf abstrakter Ebene finden wir Körper dann auch bei E. Steinitz (1871 – 1928).Beispiel 3.23′Q, IR sind mit der üblichen Addition <strong>und</strong> Multiplikation Körper. Kein Körper ist ZZ ,wennman mit der üblichen Addition <strong>und</strong> Multiplikation rechnen will. Die Menge IF 2 := {n, e}ist ein Körper, wenn wir die Verknüpfungen durch die folgenden Gruppentafeln erklären:+ n en n ee e n· n en n ne n eDamit haben wir auch einen “kleinsten“ Körper angegeben. Klar, n steht für 0, e stehtfür 1. 2Von Nutzen ist die folgende Schreibweise nx , n ∈ IN 0 ,x∈ IK :Induktiv für x ∈ IK : 0x := 0 ; (n +1)x := x + nx , n ∈ IN 0 .Nützlich ist auch die Potenzschreibweise, die in einem beliebigem Körper IK Anwendungfinden kann:Induktiv für x ∈ IK \{0} : x 0 := 1 ; x n+1 := x · x n ,n∈ IN 0 .


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 57Beispiel 3.24In ZZ m ,m∈ IN \{1} , haben wir schon eine Addition <strong>und</strong> eine Multiplikation kennengelernt.Es ist nun sofort einzusehen, daß ZZ m ein Körper genau dann ist, wenn m einePrimzahl ist. IF 2 ist bis auf die Wahl der Bezeichnung der Körper ZZ 2 .Ist nun m = p eine Primzahl, dann beobachten wir in dem zugehörigen Körper ZZ p ,daßn · 1=0für n = pist <strong>und</strong> keine natürliche Zahl n


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 58In IR können wir, wenn wir die reellen Zahlen axiomatisch einführen, eine Menge positiverElemente gemäß Definition 3.26 auszeichnen. Sie “stimmt“ mit den Zahlen des rechtenHalbstrahls überein. Wichtig dabei ist, daß das Einselement 1 wegen (b) in Definition 3.26positiv sein muß (1 = 1 · 1=(−1) · (−1)!). Wir schreiben nun in IR für x ∈ P wiederx>0 <strong>und</strong> statt −x ∈ P wieder x00 , falls x =0−x , falls x


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 59wobeiwirnochmalabgekürzt haben: Statt 1a haben wir einfach a geschrieben.Damitschreibenwirnun′C := {a + bi|a, b ∈ IR }<strong>und</strong> passen die Verknüpfungen an:+ : ′C ×′C ∋ (a + ib, c + id) ↦−→ (a + c)+i(b + d) ∈ ′C , (Addition)· : ′C ×′C ∋ (a + ib, c + id) ↦−→ (ac − bd)+i(ad + bc) ∈ ′C . (Multiplikation)Der Körper ist nun als Erweiterung des Körpers der reellen Zahlen aufzufassen, da wir inj : IR ∋ a ↦−→ a + i0 =a ∈ ′Ceine injektive “Einbettung“ haben.Die trigonometrische Schreibweise für eine komplexe Zahl z = a + ib istz = r(cos φ + i sin φ)wobei r = |z| := √ a 2 + b 2 der Modul <strong>und</strong> φ := arg z := arctan(b/a) dasArgument derZahl z ist. Für z = r(cos φ+i sin φ) verwendet man auch die exponentielle Schreibweisez = re iφ , d.h. e iφ =cosφ + i sin φ.2Die Bezeichnung “komplexe Zahl“ hat C.F. Gauß (1777 – 1855) eingeführt. Er hat mit seinenUntersuchungen das Geheimnis, das die komplexen Zahlen immer noch umgeben hatte, beseitigt.Das Symbol “ i“ stammt von L. Euler (1707 – 1783), er hat in der Formel e iπ +1 = 0 dief<strong>und</strong>amentalen Konstanten der Arithmetik (0,1), der <strong>Geometrie</strong> (π), der Analysis (e) <strong>und</strong> derkomplexen Zahlen (i) auf einfache Weise zusammmengefaßt.Merkwürdig ist, daß die erste Einführung der komplexen Zahlen in der Theorie der kubischenGleichungen bei H. Cardano (1501 – 1576) geschah – er nannte sie “fiktiv“ – <strong>und</strong> nicht bei derBetrachtung einer quadratischen Gleichung, wie wir sie ins Spiel gebracht haben.Die trigonometrische Schreibweise geht auf J. Argand (1768 – 1822) zurück.Der Ausgangspunkt unserer Überlegung war die Lösbarkeit der Gleichung (3.1). Diesehat nun in der Tat in ′C eine Lösung, nämlich das Element i <strong>und</strong> das Element −i. DieLösbarkeit dieser Gleichung haben wir durch “Körpererweiterung“ erreicht. Damit habenwir das Problem der Körpererweiterung gestreift, das in der Theorie von Galois seine auchästhetisch befriedigende Aufklärung findet.Beispiel 3.28Das Prinzip der Körpererweiterung wird auch deutlich, wenn wir etwa die Gleichungx 2 =2im Körper IK := ′Q lösen wollen. Wir wissen, daß keine rationale Zahl diese Gleichunglöst. Also gehen wir wie oben vor: Wir adjungieren zu ′Q ein Symbol √ 2gemäß′Q[ √ 2] := {a + b √ 2|a, b ∈′Q}


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 60<strong>und</strong> definieren Addition <strong>und</strong> Multiplikation durch+ : ′Q ×′Q ∋ (a + b √ 2,c+ √ 2d) ↦−→ (a + c)+(b + d) √ 2 ∈′Q[ √ 2] ,· : ′Q ×′Q ∋ (a + b √ 2,c+ d √ 2) ↦−→ (ac +2bd)+(ad + bc) √ 2 ∈′Q[ √ 2] .Dann ist ′Q[ √ 2] ein Körper, in den ′Q vermöge′Q ∋ a ↦−→ a +0 √ 2 ∈′Q[ √ 2]eingebettet ist. Die obige Gleichung ist lösbar mit x =0+1 √ 2 .Nun ist die Gleichungx 2 =3in ′Q[ √ 2] nicht lösbar. Wir adjungieren ein Symbol √ 3 <strong>und</strong> erhalten ( ′Q[ √ 2])[ √ 3]. Das“Spiel“ ist nun wohl durchschaut. 2Von C.F. Gauß wurde intensiv die komplexe Zahlenebene ′Q[i] untersucht, die hier als Körpererweiterungvon ′Q mit dem Ziel der Lösbarkeit von x 2 +1 =0 in ′Q sicherzustellen, daherkommt.Der Körper ′Q[i] hat viele interessante Eigenschaften, die ein intensives Studium von allgemeinerArithmetik angestoßen haben, etwa: Wie ist die Darstellung der Primzahl 5 ∈ IN durch5=(1+2i)(1 − 2i) ∈′Q[i] einzuordnen? In der <strong>Algebra</strong> werden Antworten gegeben.Bezeichnung: In einem Körperschreibenwirnunstatta +(−b) kurza − b, d.h. wirhaben damit eine “Subtraktion“ zur Verfügung.Bemerkung 3.29Es sollte nun klar sein, daß man lineare Gleichungssysteme mit Koeffizienten aus einembeliebigem Körper betrachten kann, insbesondere aus dem Körper der komplexen Zahlen.Etwa kann man dann betrachten:Finde die allgemeine Lösung des Gleichungssystemsx + y = a2x +4y + z = 03x + z = 1im Körper IK := ZZ 5 . (Schreibweise: 0 = [0], 2=[2], −2 =[−2],a=[a],...)Das Gaußsche Eliminationsverfahren bleibt anwendbar, da wir Addition <strong>und</strong> Multiplikationvon IK ∈{′Q, IR } in einer Weise verwendet haben, wie sie auch in jedem beliebigemKörper zur Verfügung steht; Satz 2.12 ist anwendbar. 2


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 613.4 VektorräumeDefinition 3.30Sei IK ein Körper mit Einselement 1, seiV eine Menge <strong>und</strong> seien Verknüpfungen⊕ : V × V ∋ (u, v) ↦−→ u ⊕ v ∈ V,⊙ : IK ×V ∋ (a, v) ↦−→ a ⊙ v ∈ V,(Addition)(Skalare Multiplikation)gegeben. V heißt zusammen mit ⊕, ⊙ ein IK – Vektorraum (oder IK – linearerRaum), falls gilt:(V1) (V,⊕) ist abelsche Gruppe.(V2) Für alle u, v ∈ V,a,b ∈ IK gilt:(1) (a + b) ⊙ v = a ⊙ v ⊕ b ⊙ v,(2) a ⊙ (u ⊕ v) =a ⊙ v ⊕ a ⊙ v,(3) (a · b) ⊙ v = a ⊙ (b ⊙ v) ,(4) 1 ⊙ v = vDie Elemente von V heißen Vektoren, die Elemente von IK Skalare <strong>und</strong> IK heißtSkalarkörper.2Wir haben in der Definition 3.30 sehr streng die verschiedenen Verknüpfungen unterschieden:“+“ für die Addition in IK ,“ ·“ für die Multiplikation in IK ,“ ⊙“ für die skalare Multiplikation in V,“ ⊕“ für die Addition in V.Wir werden nun diese strenge Unterscheidung der Verknüpfungen sofort wieder aufgeben,zumal wir “ ⊕“später für einen anderen Zweck benötigen, <strong>und</strong>⊕ durch + , ⊙ durch ·ersetzen, <strong>und</strong> selbst “ ·“ meist weglassen. Aus dem Zusammenhang wird stets ablesbarsein, welche Verknüpfung in welcher Struktur gerade gemeint ist. Eine Unterscheidungwollen wir aufrechterhalten: Das Nullelement in IK bezeichnen wir mit 0, das Nullelementbzgl. der Vektoraddition bezeichnen wir mit θ.


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 62Folgerung 3.31Sei V ein IK – Vektorraum. Seien a, b ∈ IK ,u,v ∈ V .Esgilt:(1) 0 · v = θ,a· θ = θ.(2) a · v = θ ⇐⇒ a =0oder v = θ.(3) (−a) · v = −(a · v) =a(−v), (−1)v = −v.(4) a · (u − v) =a · u − a · v.Beweis:Der Beweis sei dem Leser überlassen. Man orientiere sich an Folgerung 3.22.Der Begriff eines (endlich erzeugten) Vektorraums findet sich präzise formuliert bei H. Grassmann(1809 – 1877), seine Ideen wurden aber erst nach seinem Tod aufgegriffen, insbesondere von G.Peano (1858 – 1932). Ihm standen nun die mengentheoretischen Sprechweisen zur Verfügung, erbeschränkte sich auch nicht auf endlich erzeugte Vektorräume. In Lehrbüchern findet sich der Begriffdes abstrakten Vektorraums zu Beginn des 20. Jahrh<strong>und</strong>erts.Beispiel 3.32Sei IK ein Körper <strong>und</strong> seien m, n ∈ IN . Die Menge IK m,n haben wir in Abschnitt 2.2für IK ∈{′Q, IR } eingeführt. Die dortige Definition ist sofort für jeden Körper sinnvoll,ebenso die dort eingeführten Verknüpfungen. Wir wiederholen die Definitionen:IK m,n := { }A | A =(a ij ) i=1(1)m , j =1(1)nwobei die Einträge a ij einer Matrix A =(a ij ) i=1(1)m , j =1(1)naus IK genommen werden.Addition:+:IK m,n × IK m,n ∋ (A, B) ↦−→ A + B := (a ij + b ij ) i=1(1)m , j =1(1)n∈ IK m,nSkalare Multiplikation:wobei A =(a ij ) i=1(1)m , j =1(1)n,B=(a ij ) i=1(1)m , j =1(1)n.· : IK × IK m,n ∋ (r, A) ↦−→ r · A := (r · a ij ) i=1(1)m , j =1(1)n∈ IK m,nwobei A =(a ij ) i=1(1)m , j =1(1)n.Die in Abschnitt 2.2 angegebene Multiplikation spielt hier zunächst keine Rolle.Es ist nun offensichtlich, daß damit IK m,n ein IK – Vektorraum wird. Von besonderemInteresse ist der Fall IK m,1 (Spaltenvektoren) <strong>und</strong> der Fall IK 1,n (Zeilenvektoren). Diesestehen nur in unterschiedlicher Notation für den IK – Vektorraum IK m bzw. IK n . 2


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 63Beispiel 3.33Sei X eine nichtleere Menge <strong>und</strong> sei IK ein Körper. Wir setzen<strong>und</strong> definieren Verknüpfungen durchAbb (X, IK ):={f : X −→ IK }+:Abb (X, IK ) × Abb (X, IK ) ∋ (f,g) ↦−→ f + g ∈ Abb (X, IK ) ,(f + g)(x) :=f(x)+g(x) ,x∈ X,· : IK ×Abb (X, IK ) ∋ (a, g) ↦−→ a · f ∈ Abb (X, IK ) ,(a · f)(x) :=a · f(x) ,x∈ X,• : Abb (X, IK ) × Abb (X, IK ) ∋ (f,g) ↦−→ f • g ∈ Abb (X, IK ) ,(f • g)(x) :=f(x) · g(x) ,x∈ X.Es ist klar, daß mit “+“ <strong>und</strong> “·“ Abb (X, IK )zueinemIK – Vektorraum wird. Die Abbildung• haben wir hinzugefügt, um zu zeigen, daß Abb (X, IK ) noch eine weitere Strukturträgt. Wichtige Spezialfälle sind:X = IN , IK = IR : Abb (X, IK )stehthierfür die Menge der reellen Zahlenfolgen.X = IR , IK = IR : Abb (X, IK )stehthierfür die Menge der reellen Funktionen auf IR . 2Definition 3.34Sei V ein IK – Vektorraum. Eine Teilmenge U heißt linearer Teilraum von V,falls U zusammen mit der Einschränkung der Addition auf U × U <strong>und</strong> skalarenMultiplikation auf IK × U selbst ein IK – Vektorraum ist.2Lemma 3.35Sei V ein IK – Vektorraum, U eine Teilmenge von V . Es sind äquivalent:(a) U ist linearer Teilraum.(b) U ≠ ∅;(u, v ∈ U, a ∈ IK =⇒ u + v ∈ U, au ∈ U) .Beweis:(b) =⇒ (a) :Da die Addition <strong>und</strong> die skalare Multiplikation nicht aus U herausführt – man sagt, U istabgeschlossen bzgl. Addition <strong>und</strong> skalarer Multiplikation – leiten sich die Vektorraumaxiomefür U aus der Gültigkeit der Axiome für V ab, lediglich die Existenz eines neutralenElements <strong>und</strong> eines Inversen bzgl. der Verknüpfung “+“ ist nachzurechnen.Wähle u ∈ U. Dann ist 0 · u = θ ∈ U <strong>und</strong> θ ist auch ein neutrales Element in U.Ist x ∈ U, so ist (−1)x ∈ U <strong>und</strong> (−1)x + x = θ. Also ist (−1)x inverses Element von x.(a) =⇒ (b) :Sicherlich ist U ≠ ∅, da U ein neutrales Element bzgl. der Addition enthält. Die Abgeschlossenheitvon U bzgl. der Addition <strong>und</strong> der skalaren Multiplikation ergibt sich aus derTatsache, daß auf U Addition <strong>und</strong> skalare Multiplikation wohldefiniert sind.


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 64Beispiel 3.36IR ist ein linearer Teilraum des IR – Vektorraums ′C .Ist X eine Menge, so ist Abb (X, IR) ein linearer Teilraum des IR – Vektorraums Abb (X, ′C ) .<strong>Lineare</strong> Teilräume von IK n sind z.B. U = {θ} <strong>und</strong> der Lösungsraum eines homogenen linearenGleichungssystems mit n Unbekannten (siehe Abschnitt 2.3 <strong>und</strong> Bemerkung 3.29).2Beispiel 3.37Sei IK ein Körper. Eine Polynomfunktion über IK ist eine Abbildung p ∈ Abb (IK , IK )der Formn∑p(x) = a i x i ,x∈ IK ,i=0mit Koeffizienten a i ∈ IK . Ist a n ≠0, so heißt n der Grad des Polynoms <strong>und</strong> wirschreiben dafür deg(p) , also n =deg(p) . Wir haben Polynome für IK ∈{′Q, IR} schon inAbschnitt 1.5 betrachtet.Wir setzenP IK := {p|p Polynomfunktion mit Koeffizienten aus IK }.Offenbar ist nun P IK ein linerarer Teilraum von Abb(IK , IK ) . 2Beispiel 3.38Sei IK ein Körper. Offenbar istAbb 0 (IN 0 , IK ):={f : IN 0 −→ IK |f(n) ≠0nurfür endlich viele n ∈ IN 0 }ein linearer Teilraum von Abb(IN 0 , IK ) , insbesondere selbst ein IK – Vektorraum. Wirbezeichnen diesen Vektorraum als den Raum der Polynome in einer Unbekannten mitKoeffizienten aus IK . Diese Bezeichnungsweise ergibt sich aus der Tatsache, daß jedemf ∈ Abb 0 (IN 0 , IK )mitf(n) =0für n>N durchp f : IK ∋ u ↦−→N∑f(n)u n ∈ IKn=0eine Polynomfunktion zugeordnet werden kann. Wir setzenIK [x] :=Abb 0 (IN 0 , IK ) .Ein f ∈ IK [x] mitf(n) =0für n>Nschreiben wir mit a n := f(n) ,n∈ IN , meist soauf:N∑a n x n ;i=0dabei ist dann die Größe x ein Symbol für eine “Unbekannte“.Als Grad von f ∈ IK [x] definieren wir die kleinste natürliche Zahl g ∈ IN 0 mit f(n) =0 ,n>g <strong>und</strong> schreiben deg(f) :=g. Ist f = θ, dann setzen wir deg(f) :=−1 .Der Unterschied zwischen IK [x] <strong>und</strong> P IK wird etwa deutlich in ZZ 2 an p(x) :=x 2 + x. In


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 65P ZZ 2ist es die Nullfunktion, da offenbar p(0) = p(1) = 0 gilt. In ZZ 2 [x] ist es sicher nichtdas Nullpolynom, da die Koeffizienten von x <strong>und</strong> x 2 nicht verschwinden. 2Definition 3.39Sei V ein IK –Vektorraum <strong>und</strong> sei W eine Teilmenge von V . Die MengeU := ∩{Z|W ⊂ Z, Z linearer Teilraum von V }heißt lineare Hülle von W . Wir schreiben dafür L(W ).2Klar, die lineare Hülle sollte für einen kleinsten linearen Teilraum von V stehen, der Wenthält. Die Existenz eines solchen Teilraums ist enthalten inFolgerung 3.40Sei V ein IK –Vektorraum <strong>und</strong> sei W eine Teilmenge von V . Dann ist L(W ) der“kleinste“ lineare Teilraum von V ,derW enthält, d.h.:(a) L(W ) ist ein linearer Teilraum von V, der W enthält;(b) Ist Z ein linearer Teilraum von V, der W enthält, dann ist L(W ) ⊂ Z.Beweis:Offenbar gilt W ⊂L(W ) <strong>und</strong> θ ∈L(W ) . Mit Hilfe von Lemma 3.35 sieht man die übrigenAussagen ein.3.5 Basis <strong>und</strong> DimensionNun wollen wir ein Maß für die “Größe“ eines Vektorraumes finden. Zunächst eineSprechweise:Ist V ein IK –Vektorraum <strong>und</strong> sind u 1 ,...,u n ∈ V,dann heißt jedes Elementn∑a 1 u 1 + ···+ a n u n = a i u ii=1eine Linearkombination der u 1 ,...,u n ; a 1 ,...,a n ∈ IK heißen die Koeffizienten derLinearkombination.Die Linearkombination heißt nichttrivial, falls mindestens ein Koeffizient von 0 verschiedenist.Die Brücke zur Hüllenbildung am Ende des letzten Abschnitts bildet


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 66Lemma 3.41Sei V IK –Vektorraum <strong>und</strong> sei W ⊂ V.Dann gilt:{ n}∑L(W )= a i u i |u 1 ,...,u n ∈ W, a 1 ,...,a n ∈ IK ,n∈ IN .i=1Beweis:∑Sei U := { n a i u i |u 1 ,...,u n ∈ W, a 1 ,...,a n ∈ IK ,n ∈ IN } . Wir haben die Inklusioneni=1L(W ) ⊂ U, U ⊂L(W ) zu zeigen.Zunächst: U ist ein linearer Teilraum von V ; man sieht dies mit Lemma 3.35 ein.Da offenbar W ⊂ U gilt <strong>und</strong> da L(W ) der kleinste lineare Teilraum ist, der W enthält,folgt L(W ) ⊂ U.∑Sei u := n a i u i ∈ U.Sei Z ein linearer Teilraum von V ,derW enhält. Da Z lineareri=1Teilraum ist <strong>und</strong> die Elemente u 1 ,...,u n in W liegen, ist auch u in Z.Damit ist gezeigt,daß u ∈ Z gilt für jeden linearen Teilraum von V, der Z enthält. Also ist u in L(W ) .Damit ist nun auch U ⊂L(W ) gezeigt.Folgerung 3.42Sei V ein IK –Vektorraum <strong>und</strong> sei W ⊂ V.Dann sind äquivalent:(a) W ist linearer Teilraum.(b) W = L(W ).Beweis:Unmittelbar klar.Definition 3.43Sei V ein IK –Vektorraum <strong>und</strong> sei E ⊂ V.(a) E heißt Erzeugendensystem (von V ) genau dann, wenn L(E) =V.(b) E heißt minimales Erzeugendensystem (von V ) genau dann, wenn E Erzeugendensystemist <strong>und</strong> zusätzlich (E ′ ⊂ E,E ′ ≠ E =⇒ L(E ′ ) ≠ V )gilt.(c) V heißt endlich erzeugt, falls es eine endliche Menge E ′ gibt, die ein Erzeugendensystem(von V ) ist.2Folgende Sprechweisen für “E ist ein Erzeugendensystem von V “ wollen wir gebrauchen:E erzeugt V , E spannt V auf .


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 67Beispiel 3.44In IK n bilden die Einheitsvektorene 1 := (1, 0 ...,0),...,e n := (0,...,0, 1) ,die wir bereits als Spaltenvektoren in IK n,1 kennengelernt haben, ein ErzeugendensystemE. Es ist sogar ein minimales Erzeugendensystem, denn fehlt etwa e 1 in E ′ ⊂ E, so istfür jedes u =(u 1 ,...,u n ) ∈L(E ′ ), u 1 =0. 2Beispiel 3.45Der Raum der Polynome IK [x] über dem Körper IK ist nicht endlich erzeugt, da eine endlicheAnzahl von Polynomen mittels Linearkombination nur Polynome von beschränktemGrad erzeugt. Man sieht, daß {f i |i ∈ IN 0 } ein minimales Erzeugendensystem ist; dabeiist f i ∈ IK [x] ,i∈ IN 0 , folgendermaßen erklärt: f i (j) :=δ ij ,j∈ IN 0 . 2Lemma 3.46Sei V ein IK –Vektorraum <strong>und</strong> sei E = {u 1 ,...,u n }⊂VEs sind äquivalent:ein Erzeugendensystem.(a) E ist kein minimales Erzeugendensystem.(b) ∃ i ∈{1,...,n} (u i ∈L(E\{u i }) .(c) ∃ a =(a 1 ,...,a n ) ∈ IK n ∑\{θ} ( n a i u i = θ) .i=1Beweis:(a) =⇒ (b) .Sei E ′ ⊂ E,E ′ ≠ E, mit L(E ′ )=V.Sei etwa u i /∈ E ′ . (b) ist mit diesem u i erfüllt.(b) =⇒ (c) .Da u i ∑=n a j u j n∑mit a j ∈ IK ,j≠ i, gilt, folgt a j u j = θ mit a j = −1 für j = i.j=1,j≠i(c) =⇒ (a) .n∑Sei a j u j = θ <strong>und</strong> sei etwa a j ≠0für j = i. O.E. a i = −1 . Setze E ′ := E\{u i } . Dannj=1ist L(E ′ )=L(E), aber E ′ ≠ E.Die Bedingung (c) in Lemma 3.46 ist Ausgangspunkt fürDefinition 3.47Sei V ein IK –Vektorraum.Eine Menge E = {u 1 ,...,u n }⊂V heißt linear unbhängig genau dann, wenn gilt:j=1(∑ n)a i u i = θ =⇒ a 1 = ...= a n =0 ,i=1anderenfalls linear abhängig.2


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 68Definition 3.48Eine Menge E ⊂ V heißt linear unabhängig genau dann, wenn(E ′ ⊂ E,E ′ endlich =⇒ E ′ linear unabhängig) ,gilt, anderenfalls linear abhängig.2<strong>Lineare</strong> Unabhängigkeit taucht erstmals bei L. Euler (1707 – 1783) im Zusammenhang mit linearenDifferentialgleichungen auf. Klar ausformuliert wird der Begriff dann von A.-L. Cauchy (1789 –1857).Offenbar ist die Menge {u} in einem IK –Vektorraum linear abhängig genau dann, wennu = θ gilt.Manchmal fassen wir Vektoren v 1 ,...,v r nicht zu einer Menge {v 1 ,...,v r } zusammen,um sie dann als linear unabhängig/linear abhängig zu bezeichnen, wir sagen stattdessenkurz, v 1 ,...,v r sind linear unabhängig/linear abhängig.Beispiel 3.49Offenbar ist IR ein ′Q–Vektorraum. Die reellen Zahlen 1, √ 2, √ 3 sind in diesem Vektorraumlinear unabhängig. Dies sieht man so:Ausa · 1+b √ 2+c √ 3=0 (a, b, c ∈′Q)folgta 2 =2b 2 +3c 2 +2bc √ 6 ,was √ 6 ∈′Q impliziert, falls bc ≠0ist.Aber √ 6istnichtin ′Q (Beweis!). Also ist bc =0.Ist etwa c = 0, dann haben wira · 1+b √ 2=0.Da √ 2 nicht in ′Q ist, ist b =0. Nach b = c = 0 folgt nun schließlich a =0. 2Das nun folgende Lemma wollen wir das Abhängigkeitslemma nennen.Lemma 3.50Sei V ein IK –Vektorraum. Sind u 1 ,...,u n linear unabhängig <strong>und</strong> sind u 1 ,...,u n ,ulinear abhängig, dann ist u eine Linearkombination der Elemente u 1 ,...,u n , d.h.u ∈L({u 1 ,...,u n }) .Beweis:Da u 1 ,...,u n ,u linear abhängig sind, gibt es (a 1 ,...,a n ,a) ∈ IK n+1 \{θ} mitn∑a i u i + au = θ.i=1


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 69Annahme: a =0.Da u 1 ,...,u n linear unabhängig sind, folgt, daß a 1 ,...,a n verschwinden, was ein Widerspruchist.Also ist a ≠ 0 <strong>und</strong> wir können die obige Gleichung mit (−a) −1 multiplizieren <strong>und</strong> erhaltendie gewünschte Darstellung von u durch eine Linearkombination der u 1 ,...,u n .Lemma 3.51Sei V ein IK –Vektorraum. Besitzt V ein Erzeugendensystem E mit n Elementen,dann sind je n +1 Elemente aus V linear abhängig.Beweis:Sei E = {u 1 ,...,u n } . Wir wissen L(E) =V.Seien v 1 ,...,v n+1 ∈ V.Dann gibt es zu jedem v j Skalare a ij ∈ IK ,i=1,...,n, mitv j ∑= n a ij u i . Eine Linearkombination n+1 ∑x j v j = θ führt zui=1Betrachten wir das Gleichungssystemj=1n+1 ∑ n∑n∑ n+1θ = x j ( a ij u i ∑)= ( x j a ij )u i .j=1 i=1i=1 j=1Ax = θ mit A =(a ij ) i=1(1)n , j =1(1)n+1,dann wissen wir aus der Anwendung des Gaußschen Eliminationsverfahren (siehe Satz2.12), daß dieses Gleichungssystem eine nichttriviale Lösung besitzt. Sei x =(x 1 ,...,x n+1 )diese Lösung. Damit folgt nunn+1 ∑j=1Also sind v 1 ,...,v n+1 linear abhängig.x j v j = θ, x≠ θ.Das obige Lemma nennen wir das Schrankenlemma, da es eine obere Schranke für dieAnzahl linear unabhängiger Elemente liefert.Satz 3.52Sei V ein IK –Vektorraum, V ≠ {θ}, <strong>und</strong> sei B ⊂ V.Es sind äquivalent:(a) B ist linear unabhängig <strong>und</strong> ein Erzeugendensystem von V.(b) B ist minimales Erzeugendensystem von V (bzgl. der Inklusion).(c) B ist maximale linear unabhängige Menge in V (bzgl. der Inklusion).Beweis:(a) =⇒ (b) :Sei E ⊂ B,E ≠ B.Sei u ∈ B\E.


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 70Annahme: u ∈L(E).Dann gibt es u 1 ,...,u n ∑∈ B <strong>und</strong> a 1 ,...,a n ∈ IK mit u = n a i u i . Dann ist aberi=1{u 1 ,...,u n ,u} eine linear abhängige Teilmenge von B, was ein Widerspruch zur Voraussetzungist. Also ist u/∈L(E) <strong>und</strong> damit ist L(E) ≠ V.(b) =⇒ (c) :Aus Lemma 3.46 (c) folgt, daß B linear unabhängig ist.Sei B ⊂ E ⊂ V <strong>und</strong> sei E linear unabhängig. Sei e ∈ E.Annahme: e/∈ B.∑Da B ein Erzeugendensystem ist, haben wir e = n a i u i (a i ∈ IK ,u i ∈ B,i=1,...,n) .i=1Also ist {e, u 1 ,...,u n }⊂E linear abhängig. Dies ist ein Widerspruch zur Tatsache, daßE linear unabhängig ist.Also ist e ∈ B. Damit ist E = B gezeigt.(c) =⇒ (a) :Es ist noch zu zeigen, daß V ⊂L(B) gilt.Sei v ∈ V. Ist v ∈ B, sind wir fertig, da B ⊂L(B) gilt.Ist v/∈ B, setzen wir B ′ := B ∪{v} <strong>und</strong> nach Voraussetzung ist B ′ eine linear abhängigeMenge. Also gibt es (a, a 1 ,...,a n ) ∈ IK n+1 \{θ} <strong>und</strong> u 1 ,...,u n ∈ B mitn∑av + a i u i = θ.i=1Da u 1 ,...,u n linear unabhängig sind, ist a ≠0. O.E. a = −1. Also ist auch nun v ∈L(B).Definition 3.53Sei V ein IK –Vektorraum. Eine Menge B ⊂ V heißt Basis von V genau dann,wenn B linear unabhängig ist <strong>und</strong> ein Erzeugendensystem von V ist.2Beispiel 3.54Die Einheitsvektoren e 1 ,...,e n bilden eine Basis von IK n . Speziell für n =3istaberauch(1, 0, 0) , (1, 1, 0) , (1, 1, 1)eine Basis (Beweis!). Dies zeigt, daß es mehrere minimale Erzeugendensysteme gebenkann, es zeigt auch, daß es im allgemeinen kein kleinstes gibt: minimal heißt “nicht verkleinerbar“,ein kleinstes Erzeugendensystem müßte sogar in jedem Erzeugendensystementhalten sein.Allgemeiner, die MatrizenE kl := (δ ik δ jl ) i=1(1)m , j =1(1)n,k=1,...,m,l=1,...,n,bilden eine Basis von IK m,n . 2


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 71Satz 3.55Sei V ein IK –Vektorraum <strong>und</strong> sei B ⊂ V . Dann sind äquivalent:(a) B ist Basis von V .(b) Zu jedem v ∈ V gibt es eindeutig bestimmte Elemente u 1 ,...,u neindeutig bestimmte Koeffizienten a 1 ,...,a n ∈ IK mit∈ B <strong>und</strong>n∑v = a i u i .i=1Beweis:(a) =⇒ (b) :Die Existenz ist klar, da B auch Erzeugendensystem ist.∑Die Eindeutigkeit folgt so: Sei v = n a i u i ∑= m b i v i .i=1 i=1O.E. m = n, u 1 = v 1 ,...,u n = v n (Einfügung von Koeffizienten, die 0 sind!).∑Dann gilt n (a i − b i )u i = θ, woraus aus der Eigenschaft, daß B linear unabhängig ist,i=1folgt: a 1 = b 1 ,...,a n = b n .(b) =⇒ (a) :Die Aussage L(B) =V ist schon klar.Seien u 1 ,...,u n ∑∈ B,a 1 ,...,a n ∈ IK mit n a i u i = θ. Da die Linearkombination, die θi=1∑darstellt, eindeutig bestimmt ist, <strong>und</strong> da sicherlich auch n 0 · u i eine Linearkombinationi=1für θ ist, folgt a 1 = ...= a n =0.Die Definition der linearen Unabhängigkeit besagt also, daß eine Darstellung von θ durcheine Linearkombination eindeutig bestimmt ist. Aus der linearen Struktur (Addition, skalareMultiplikation) folgt dann die eindeutige Darstellbarkeit eines jeden Elements durchVektoren einer Basis.Beispiel 3.56Sei IK = ′C . Die Monome 1,x,x 2 ,... bilden eine (nicht endliche) Basis von P ′C . Dieskönnen wir hier mit den bisher zur Verfügung stehenden Mitteln der <strong>Lineare</strong>n <strong>Algebra</strong><strong>und</strong> der Analysis nicht beweisen. Setzen wir jedoch den F<strong>und</strong>amentalsatz der <strong>Algebra</strong>voraus, so ist es einfach. Dieser Satz besagt:Ein Polynom in P ′C vom Grad n ≥ 1 besitzt mindestens eine Nullstelle in ′C .Als Konsequenz ergibt sich mit dem Euklidischen Algorithmus:Jedes Polynom in P ′C vom Grad n ≥ 1 besitzt genau n Nullstellen in ′C .Dieses Resultat liefert nun die lineare Unabhängigkeit der Monome, denn ausn∑p(x) := a i x i = θ,x∈ ′C ,i=0


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 72folgt, daß p jedes x ∈a 0 = ...= a n =0.′C als Nullstelle hat, es muß also das Nullpolynom sein, d.h.Klären wir hier noch die 4 -ten Wurzeln aus 7, die wir am Ende von Kapitel 1 angeführthaben. Man rechnet nach, daßx = ± 4√ 7 ,x= ±i 4√ 7 ,in der Tat Nullstellen des Polynoms p(x) :=x 4 − 7 sind. Nach dem F<strong>und</strong>amentalsatz sinddies nun alle Nullstellen dieses Polynoms. 2Der F<strong>und</strong>amentalsatz der <strong>Algebra</strong> wurde erstmals streng 1799 von C.F. Gauß in seiner Dissertationbewiesen. Er geht auf A. Girard (1595 – 1632) zurück, J.B. d’Alembert (1717 – 1783) hat 1746 einenBeweisversuch vorgelegt. Nun gibt es eine Reihe von Beweisen, die sich unterschiedlicher Theorienbedienen (C.F. Gauß hatte auch schon drei unterschiedliche Beweise gef<strong>und</strong>en). Der wohl einfachsteBeweis läßt sich mit der Funktionentheorie, also der Theorie der Funktionen f : ′C −→ ′C ,führen.Satz 3.57Sei V ≠ {θ} ein IK –Vektorraum, der endlich erzeugt ist. Dann gilt:(a) V besitzt eine Basis aus endlich vielen Elementen.(b) Je zwei Basen haben gleich viele Elemente.(c) Ist M := {u 1 ,...,u r } linear unabhängig, dann ist M entweder eine Basis oderes gibt Elemente u r+1 ,...,u n ∈ V derart, daß B := {u 1 ,...,u n } eine Basisvon V ist.Beweis:Wir beweisen zunächst (c).Ist U := L(M) =V ,dannsindwirschonfertig.IstU ≠ V ,danngibtesu r+1 ∈ V \U.Nachdem Abhängigkeitslemma 3.50 ist M ′ := {u 1 ,...,u r ,u r+1 } linear unabhängig. Nun kanndas Verfahren fortgesetzt werden. Nach dem Schrankenlemma 3.51 bricht das Verfahrennach endlich vielen Schritten ab. Also erhalten wir die gewünschte Basis.Nun beweisen wir (a).Nach Voraussetzung gibt es v ≠ θ in V .Dannist{v} linear unabhängig <strong>und</strong> kann nach(c) zueinerBasisergänzt werden.Nunzu(b).Seien B,B ′ Basen von V mit n bzw. n ′ Elementen.Da B ein Erzeugendensystem mit n Elementen ist, folgt mit dem Lemma 3.51, daß n +1Elemente in V linear abhängig sind, also ist n ′ ≤ n. Vertauscht man die Rollen von B,B ′ ,folgt n ≤ n ′ .Bemerkung 3.58Auch nicht endlich erzeugte Vektorräume besitzen eine Basis. Zum Beweis braucht manweitergehende Hilfsmittel aus der Mengenlehre, nämlich das Zornsche Lemma, dasinder Nähe des Auswahlaxioms angesiedelt ist; der Beweis zur Existenz einer Basis wirddamit nichtkonstruktiv geführt. Die Bedeutung der (algebraischen) Basen in nicht endlich


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 73erzeugten Vektorräumen ist gering, im Kapitel über Euklidische Vektorräume wird unsein “wertvolleres“ Konzept begegnen. 2Wegen Satz 3.57, insbesondere Bedingung (b) davon, ist die folgende Definition sinnvoll:Definition 3.59Sei V ein IK –Vektorraum.Ist V endlich erzeugt <strong>und</strong> ist n die Anzahl der Elemente einer Basis von V ,soheißtn die Dimension von V (über IK ) <strong>und</strong> wir schreiben n =dim IK V.Ist V nicht endlich erzeugt, dann schreiben wir dim IK V = ∞ <strong>und</strong> nennen V unendlichdimensional.2Beispiel 3.60dim IK IK n = n, dim IR ′C =2, dim IK IK m,n = mn , dim ′Q IR = ∞ .Die letzte Behauptung wollen wir nicht vollständig beweisen. Daß dim ′Q IR nicht endlichist, sieht man damit, daß IR nicht abzählbar ist. Wäre nämlich IR über ′Q endlich erzeugt,würde aus der Abzählbarkeit von ′Q die Abzählbarkeit von IR folgen.Für eine unendliche linear unabhängige Teilmenge steht als Kandidat die MengeW := { √ p|p Primzahl}bereit. Wir haben bereits in Beispiel 3.49 die Teilmenge { √ 2, √ 3} davon verwendet. Esläßt sich in der Tat beweisen, daß W eine über ′Q linear unabhängige Teilmenge von IRist. Der Nachweis ist nicht einfach, einfacher ist er zuL := {log p|p Primzahl} .Hier gelingt dies mit der Primfaktorzerlegung <strong>und</strong> etwas Analysis (Logarithmus, Exponentialfunktion).Weder W noch L ist zusammen mit 1 eine Basis von IR über ′Q ! 2Die Existenz einer Basis für den Vektorraum IR über ′Q wurde erstmals 1905 von G. Hamel mitHilfe des Wohlordnungssatzes, der zu den F<strong>und</strong>amenten einer axiomatischen Mengenlehre gehört,bewiesen. Aber es hat noch niemand eine Basis explizit angegeben.Wir haben oben festgestellt, daß ′C ein zweidimensionaler Vektorraum über IR ist. Zudiesem Vektorraum sind wir gekommen, weil wir die algebraische Gleichung x 2 +1=0lösen wollten. Den Versuch, nun ′C in ähnlicher Weise in einen Körper IK einzubetten,der dann ein endlichdimensionaler Vektorraum über ′C ist, kann man in zwei verschiedeneRichtungen starten: Erstens, man gibt die Idee, daß die Elemente des Körpers IK Lösungenvon polynomialen Gleichungen mit Koeffizienten in ′C sind, auf, <strong>und</strong> man muß sieaufgr<strong>und</strong> des F<strong>und</strong>amentalsatzes aufgeben, dann kommt man zu transzedenten Körpererweiterungen.Zweitens, man bettet ′C in eine Menge mit den Verknüpfungen Addition<strong>und</strong> skalarer Multiplikation ein, in der nicht mehr alle Körperaxiome erfüllt sind. DiesenWeg hat erfolgreich R. Hamilton (1805 – 1865) beschritten: Wenn man in IK auf das


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 74Kommutativgesetz bzgl. der Multiplikation – man nennt dann die resultierende Struktureinen Schiefkörper – verzichtet, kann man einen Schiefkörper IH so konstruieren, daßIH ein zweidimensionaler Vektorraum über ′C wird. Dieser Schiefkörper heißt der Quaternionenkörper.DiesezweiteIdeeträgt noch eine Stufe weiter: Verzichtet man imSchiefkörper auch noch auf das Assoziativgesetz bzgl. der Multiplikation, dann kann maneinen solchen “schwächeren“ Schiefkörper ′O konstruieren, der ein zweidimensionaler Vektoraumüber IH , also ein achtdimensionaler Vektorraum über IR ist. Dieses “Zahlsystem“′O wird die <strong>Algebra</strong> der Cayley–Zahlen genannt.3.6 Unterräume <strong>und</strong> DimensionsformelSei V ein IK –Vektorraum <strong>und</strong> seien U, W lineare Teilräume von V . Der DurchschnittU ∩ W von U, W ist sicherlich ein linearer Teilraum von V (Beweis!), nicht jedoch imallgemeinen die Vereinigung U ∪ W.DazuDefinition 3.61Sei V ein IK –Vektorraum <strong>und</strong> seien U, W lineare Teilräume von V .DannheißtU + W := {u + w|u ∈ U, w ∈ W }die Summe der Räume U, W .2Folgerung 3.62Sei V ein IK –Vektorraum <strong>und</strong> seien U, W lineare Teilräume von V . U + W ist derkleinste lineare Teilraum von V, der U ∪ W enthält, d.h. U + W = L(U ∪ W.)Beweis:Offenbar ist U + W ⊂L(U ∪ W ) . Da aber U + W selbst ein linearer Teilraum ist, derU ∪ W enthält, gilt auch L(U ∪ W ) ⊂ U + W.Satz 3.63Sei V ein IK –Vektorraum <strong>und</strong> seien U, W lineare Teilräume von V endlicher Dimension.Dann gilt:dim IK U +dim IK W =dim IK (U + W )+dim IK (U ∩ W ) .Beweis:Ist V = {θ}, dann ist nichts zu beweisen. Sei also nun V ≠ {θ}.Sei B d := {v 1 ,...,v r } eine Basis von U ∩ W . Nun kann B d etwa durch {u 1 ,...,u m } zueiner Basis von U <strong>und</strong> durch {w 1 ,...,w n } zu einer Basis von W ergänzt werden. Nunbehaupten wir, daßB := {v 1 ,...,v r ,u 1 ,...,u m ,w 1 ,...,w n }


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 75eine Basis von U + W ist.Wir zeigen U + W ⊂L(B), woraus U + W = L(B) folgt.Sei v ∈ U + W. Dann gibt es u ∈ U, w ∈ W mit v = u + w. Nach Konstruktion gibt essodaßa 1 ,...,a r ,b 1 ,...,b m ,c 1 ,...,c r ,d 1 ,...,d n ∈ IK ,r∑ m∑r∑ n∑u = a i v i + b i u i ,w= c i v i + d i w i ,i=1 i=1i=1 i=1alsor∑m∑ n∑v = (a i + c i )v i + b i u i + d i w i .i=1i=1 i=1Also ist v ∈L(B).Wir zeigen, daß B linear unabhängig ist.Seir∑ m∑ n∑a i v i + b i u i + c i w i = θ.i=1 i=1 i=1Dann istr∑ m∑v := a i v i + b i u i ∈ Ui=1 i=1∑<strong>und</strong> −v ∈ W, dan c i w i in W ist, d.h. v ∈ W. Also ist v ∈ U ∩ W.Daher gibt esi=1e 1 ,...,e r ∈ IK mitr∑v = e i v i .i=1Aus der Eindeutigkeit der Darstellung von v durch die gewählte Basis von U folgta 1 = e 1 ,...,a r = e r ,b 1 = ...= b m =0,alsor∑ n∑a i v i + c i w i = θ.i=1 i=1Da {v 1 ,...,v r ,w 1 ,...,w n } linear unabhängig ist, folgta 1 = ...= a r =0,c 1 = ...= c n =0.Die Begriffe “Linearkombination von Größen, die linear abhängig sind, Basis eines Vektorraums<strong>und</strong> Dimension“ werden bei H. Grassmann (1809 – 1877) sehr klar beschrieben. Bei ihm findet sichauch erstmals klar die Dimensionsformel.Wichtig ist der Spezialfall U ∩ W = {θ} . Dazu


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 76Definition 3.64Sei V ein IK –Vektorraum <strong>und</strong> seien V ′ ,U,W lineare Teilräume von V .V ′ heißt direkte Summe der linearen Teilräume U, W , fallsV ′ = U + W,U∩ W = {θ}gilt. Wir schreiben dann V ′ = U ⊕ W <strong>und</strong> nennen U ein Komplement von W <strong>und</strong>W ein Komplement von U (bezüglich V ′ ).2Hilfreich ist folgende Charakterisierung.Lemma 3.65Sei V ein endlichdimensionaler IK –Vektorraum <strong>und</strong> seien V ′ ,U,W lineareTeilräume von V . Es sind äquivalent:(a) V ′ = U ⊕ W.(b) Zu jedem v ∈ V ′ gibt es eindeutig bestimmte Elemente u ∈ U, w ∈ W , sodaßv = u + w.Beweis:Zu (a) =⇒ (b) :Es ist nur die Eindeutigkeit zu zeigen. Sei alsov = u + w = u ′ + w ′ mit u, u ′ ∈ U, w, w ′ ∈ W.Dann ist u − u ′ = w ′ − w ∈ U ∩ W = {θ} <strong>und</strong> daher u = u ′ ,w = w ′ .Zu (b) =⇒ (a) :Es ist nur U ∩ W = {θ} zu zeigen.Sei v ∈ U ∩ W.Dann ist θ = θ + θ = v +(−v) . Daraus folgt mit der dank (b) gegebenenEindeutigkeit der Darstellung von θ ∈ V ′ schließlich v = θ.Lemma 3.66Sei V ein endlichdimensionaler IK –Vektorraum <strong>und</strong> seien U, W lineare Teilräumevon V . Es sind äquivalent:(a) V = U ⊕ W.(b) V = U + W <strong>und</strong> dim IK V =dim IK U +dim IK W.(c) U ∩ W = {θ} <strong>und</strong> dim IK V =dim IK U +dim IK W.Beweis:Zu (a) =⇒ (b) :Dimensionsformel aus Satz 3.63.Zu (b) =⇒ (c) :Aus der Dimensionsformel folgt dim IK U ∩ V =0, also U ∩ W = {θ} .Zu (c) =⇒ (a) :


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 77Wegen der Dimensionsformel muß dim IK V =dim IK (U + W ) sein. Sei B eine Basis vonU + W.Dann ist B eine linear unabhängige Teilmenge von V.Dadim IK V =dim IK (U + W )=#Bgilt, ist B sogar eine Basis von V, also auch ein Erzeugendensystem von V.Daraus folgtV = L(B) =U + W.Satz 3.67Sei V ein endlichdimensionaler IK –Vektorraum <strong>und</strong> sei U ein linearer Teilraum vonV . Dann gibt es einen linearen Teilraum W von V , sodaß V = U ⊕ W gilt.Beweis:Ist U = {θ}, wähle W = V .IstU = V ,wähle W = {θ}.Nun sei dim IK U = k mit 0


Kapitel 4<strong>Lineare</strong> AbbildungenNun fügen wir der Struktur “Vektorraum“ die zur Vektorraumstruktur passenden Abbildungenhinzu. Damit erscheinen dann die Matrizen <strong>und</strong> Gleichungssysteme in neuemLicht.4.1 Definition <strong>und</strong> BeispieleDefinition 4.1Seien X, Y IK –Vektorräume. Eine Abbildung L : X −→ Y heißt IK –linear genaudann, wennL(x 1 + x 2 )=L(x 1 )+L(x 2 ) ,L(ax) =aL(x) für alle x 1 ,x 2 ,x∈ X,a∈ IK (4.1)gilt.2Man beachte, daß in (4.1) auf der linken Seite die Addition <strong>und</strong> skalare Multiplikation inX, auf der rechten Seite die Addition <strong>und</strong> skalare Multiplikation in Y Verwendung findet.Ist L : X −→ Y eine Abbildung, so haben wir auch die Abbildungenid IK × L : IK ×X ∋ (a, x) ↦−→ (a, L(x)) ∈ IK ×Y ,L × L : X × X ∋ (x 1 ,x 2 ) ↦−→ (L(x 1 ),L(x 2 )) ∈ Y × Y.Damit können wir die DiagrammeIK × X id IK ×L−→⊙⏐↓LX −→IK × Y⏐↓ ⊙YX × X⊕⏐↓XL×L−→L−→Y × Y⏐↓⊕Ybetrachten. Die Linearität von L ist nun offenbar damit äquivalent, daß die Diagrammekommutieren, d.h.daß⊙◦(id IK × L) =L ◦⊙, ⊕◦(L × L) =L ◦⊕78


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 79gilt. Hierbei haben wir der besseren Lesbarkeit wegen für die Addition + das Symbol ⊕<strong>und</strong> für die skalare Multiplikation · das Symbol ⊙ (wie früher) eingesetzt.(Diagramme erfreuen sich in der <strong>Algebra</strong> großer Beliebtheit.)Es sollte klar sein, daß die Hintereinanderausführung (Komposition) von linearen Abbildungenselbst wieder linear ist.Beispiel 4.2Sei IK ein Körper. IK –lineare Abbildungen sind:• id IK : IK −→ IK ,• Θ IK : IK ∋ a ↦−→ θ ∈ IK ,• +:IK × IK ∋ (a, b) ↦−→ a + b ∈ IK ,• S : IK × IK ∋ (a, b) ↦−→ (a, −b) ∈ IK × IK• π j : IK n ∋ (x 1 ,...,x j ,...,x n ) ↦−→ x j ∈ IK(Spiegelung),(Projektion),• T A : IK n,1 ∋ x ↦−→ Ax ∈ IK m,1 , wobei A eine Matrix in IK m,nist.Keine IK –lineare Abbildung istIK 2 ∋ (x 1 ,x 2 ) ↦−→ x 1 x 2 ∈ IK .2Die Schreib– <strong>und</strong> Sprechweise “L IK –linear“ verkürzen wir meist zu “Lder Regel klar ist, welcher Körper gemeint ist.linear“, da inSei X ein IK –Vektorraum mit Basis {x 1 ,...,x n }. Dann haben wir die Abbildungn∑k X : X ∋ x = a i x ii=1↦−→ (a 1 ,...,a n ) ∈ IK noderodern∑k X : X ∋ x = a i x i ↦−→ (a 1 ...a n ) ∈ IK 1,ni=1n∑k X : X ∋ x = a i x ii=1↦−→⎛ ⎞a 1⎜ ⎟⎝ . ⎠ ∈ IK n,1 .a nJede dieser Abbildungen heißt Koordinatenabbildung. Wir sprechen aus naheliegendenGründen von der Koordinatenabbildung <strong>und</strong> verwenden jede “Realisierung“ ihrem Zweckentsprechend. Sie ist wohldefiniert, da die Darstellung eines Elementes x ∈ X durch die


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 80Basis eindeutig bestimmt ist. Diese Abbildung ist linear <strong>und</strong> bijektiv. Die Umkehrabbildungist offenbar gegeben durch<strong>und</strong> ist offenbar selbst wieder linear.n∑IK n ∋ (a 1 ,...,a n ) ↦−→ x = a i x i ∈ Xi=1Beispiel 4.3Sei IK ein Körper. Die “Ableitung“D : IK [x] ∋ p ↦−→ Dp ∈ IK [x] ,n∑Dp := ia i x i−1 fallsn∑p = a i x i ,i=1i=0ist offenbar IK –linear. Sie übernimmt im Raum der Polynomfunktionen P IR die Rolle derAbleitung. 2Folgerung 4.4Seien X, Y IK –Vektorräume <strong>und</strong> sei L : X −→ Y linear. Es gilt dann:(i) L(θ) =θ ; L(−x) =−L(x) für alle x ∈ X.(ii) Das Bild L(X) ist ein linearer Teilraum von Y.(iii) Das Urbild L −1 ({θ}) ist ein linearer Teilraum von X.(iv) L ist injektiv genau dann, wenn L −1 ({θ}) ={θ} gilt.Beweis:(i) folgt aus L(θ) =L(θ +θ) =L(θ)+L(θ) <strong>und</strong> θ = L(θ) =L(x+(−x)) = L(x)+L(−x) .Die Aussagen (ii), (iii) sind nahezu trivial. Wir beweisen exemplarisch (iii) .Seien u, v ∈ L −1 (θ), d.h. L(u) =L(v) =θ, <strong>und</strong> seien a, b ∈ IK . Aus L(au + bv) =aL(u)+bL(v) =aθ + bθ = θ folgt au + bv ∈ L −1 (θ) . Damit ist die Aussage auch schonbewiesen.Die Aussage über die Injektivität folgt aus der Tatsache, daß dank der Linearität L(x) =L(x ′ ) genau dann gilt, wenn L(x − x ′ )=θ erfüllt ist.Definition 4.5Seien X, Y IK –Vektorräume <strong>und</strong> sei L : X −→ Y.Lheißt Isomorphismusgenau dann , wenn L linear <strong>und</strong> bijektiv ist.2Ist L : X −→ Y ein Isomorphismus, so nennen wir die Räume X, Y isomorph (bzgl.L); wir drücken dies auch durch ∼ = aus.


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 81Beachte: Ist L : X −→ Y ein Isomorphismus, so ist auch die Umkehrabbildung einIsomorphismus. Dazu ist lediglich die Linearität zu überprüfen.Seien u, v ∈ Y,a,b ∈ IK . Dann folgt ausL(L −1 (au + bv) − aL −1 (u) − bL −1 (v)) = θ,wobei die Linearität von L Verwendung fand, mit der Injektivität von LDies war zu zeigen.L −1 (au + bv) − aL −1 (u) − bL −1 (v) =θ.Satz 4.6Seien X, Y IK –Vektorräume. Dann gilt:(a) Ist dim IK X =dim IK Y


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 82untersucht werden. Man könnte nun sich fragen, warum wir nicht von Anfang an nur denkonkreten Raum IK n betrachtet haben, in dem eine Basis direkt hinschreibbar ist. Dazuist einzuwenden, daß in Anwendungen Vektoräume in allgemeinen nicht als IK n direkt erkennbarsind. Der Vorteil unseres Vorgehens besteht also gerade darin, daß wir für unsereUntersuchungen nicht immer gleich eine Basis zur Hand haben müssen. 2Sei X ein IK –Vektorraum <strong>und</strong> sei U ein linearer Teilraum. Wir definieren eine Äquivalenzrelationdurchx ∼ y : ⇐⇒ x − y ∈ U.(Daß in der Tat eine Äquivalenzrelation vorliegt, ist einfach zu verifizieren.) Damit definierenwir wie üblichX /U := X /∼ := {[x]|x ∈ X} .Wir haben in X /U wieder eine skalare Multiplikation <strong>und</strong> eine Addition, nämlichIK ×X /U ∋ (a, [x]) ↦−→ [ax] ∈ X /U ,X /U × X /U ∋ ([x], [y]) ↦−→ [x + y] ∈ X /U .Diese Definition haben wir noch daraufhin zu überprüfen, ob Wohldefiniertheit vorliegt,d.h. etwa im Fall der skalaren Multiplikation:Ist [ax]=[ay], falls [x] =[y]?Sei also [x] =[y] . Dann ist x − y ∈ U <strong>und</strong> daher auch ax − ay = a(x − y) ∈ U. Also gilt[ax]=[ay].Damit ist nun klar, daß X /U ein IK –Vektorraum ist.Definition 4.8Sei X ein IK –Vektorraum <strong>und</strong> sei U ein linearer Teilraum. Der IK –VektorraumX /U heißt der Faktorraum von X (faktorisiert) nach U.2Folgerung 4.9Sei X ein IK –Vektorraum, sei U ein linearer Teilraum <strong>und</strong> sei W ein Komplementvon U. Dann gibt es einen Isomorphismus L : X /U −→ W.Beweis:Da W ein Komplement von U ist, gilt X = U ⊕W .Also besitzt jedes x ∈ X eine eindeutigbestimmte Darstellung x = x U + x W . Wir wollen L so erklären:Die Wohldefiniertheit folgt ausL : X /U ∋ [x = x U + x W ] ↦−→ x W ∈ W.[x U + x W ]=[y U + y W ] ⇐⇒ x W = y W


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 83Die Linearität ist klar, ebenso die Surjektivität. Die Injektivität folgt ausL([x = x U + x W ]) = θ ⇐⇒ x W = θ ⇐⇒ x ∈ U ⇐⇒ [x] =θ.Folgerung 4.10Sei X ein IK –Vektorraum, sei U ein linearer Teilraum. Dann giltdim IK U +dim IK X /U =dim IK X(mit der Vereinbarung ∞ + ∞ = ∞, ∞ + n = ∞,n∈ IN 0 ).Beweis:Sei dim IK X = ∞. Es ist zu beweisen, daß entweder dim IK U oder dim IK X /U unendlichist.Annahme: dim IK U = l


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 84Definition 4.11Seien X, Y IK –Vektorräume <strong>und</strong> sei L ∈ Hom IK (X, Y ).Wir nennen Kern(L) :=L −1 (θ) den Kern von L <strong>und</strong> def (L) :=dim IK Kern(L) denDefekt von L.2Folgerung 4.12Seien X, Y IK –Vektorräume <strong>und</strong> sei L ∈ Hom IK (X, Y ). Dann ist L injektiv genaudann, wenn def (L) =0ist.Beweis:Dies ist nur eine Umformulierung der Definition des Defektes.Definition 4.13Seien X, Y IK –Vektorräume <strong>und</strong> sei L ∈ Hom IK (X, Y ).Wir nennen Bild (L) :=L(X) das Bild von L <strong>und</strong> rg(L) :=dim IK Bild(L) denRang von L.2Folgerung 4.14Seien X, Y IK –Vektorräume, sei dim IK Y < ∞, <strong>und</strong> sei L ∈ Hom IK (X, Y ). Dannist L surjektiv genau dann, wenn rg(L) =dim IK Y ist.Beweis:Dahinter verbirgt sich nur eine Umformulierung der Definition des Ranges. Die Voraussetzung“dim IK Y


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 85Für einen Endomorphismus L : X −→ X definieren wir induktiv:L 0 := id X ,L n+1 := L ◦ L n ,n∈ IN 0 .Satz 4.16Seien X, Y IK –Vektorräume <strong>und</strong> sei L ∈ Hom IK (X, Y ). Dann gilt:(a) π L : X ∋ x ↦−→ [x] ∈ X /Kern(L) ist ein Epimorphismus.(b) f L : X /Kern(L) ∋ [x] ↦−→ L(x) ∈ Y ein Monomorphismus.(c) f L ◦ π L = L.Beweis:Zu (a). Linearität <strong>und</strong> Surjektivität sind offensichtlich.Zu (b). Die Wohldefiniertheit folgt aus[x]=[x ′ ] ⇐⇒ L(x − x ′ )=θ.Die Linearität ist klar, die Injektivität folgt ausZu (c).Ergibt sich aus der Definition von f L ,π L .[x] =θ ⇐⇒ L(x) =θ.Der obige Satz, genauer (b) in obigem Satz, heißt Homomorphiesatz. Er ist verb<strong>und</strong>enmit dem folgenden Diagramm:XL−→Yπ L⏐ ⏐⏐↓/f LX /Kern(L)Ein wichtiges Ergebnis ist nun die folgende Dimensionsformel für lineare Abbildungen.Satz 4.17Seien X, Y IK –Vektorräume <strong>und</strong> sei L ∈ Hom IK (X, Y ). Dann giltdim IK X = def (L)+rg(L) . (4.2)Beweis:Sei U := Kern(L) ,V := Bild(L) . Nach Satz 4.16 istg L : X /U ∋ [x] ↦−→ L(x) ∈ V


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 86ein Isomorphismus <strong>und</strong> aus Folgerung 4.10 <strong>und</strong> Satz 4.6 folgt die Behauptung.Überraschenderweise hängt also die Summe def (L) +rg(L) von der linearen AbbildungL gar nicht ab. Man gerät in Versuchung, im Fall X = Y zu beweisen, daß Kern(L) ⊕Bild(L) =X gilt. Wie das nachfolgende Beispiel zeigt, ist dies im allgemeinen falsch.Beispiel 4.18Setze IK n [x] :={p ∈ IK [x]| deg p ≤ n} ,n∈ IN 0 .Betrachte nun die “zweite Ableitung“ als Abbildung auf IK 3 [x], d.h.L : IK 3 [x] ∋ p ↦−→ D ◦ D ∈ IK 3 [x];hierbei ist D die Ableitung (siehe Beispiel 4.3).Es ist einfach zu sehen, daß Kern(L) =Bild(L) =IK 1 [x] ist. 2Folgerung 4.19Seien X, Y endlichdimensionale IK –Vektorräume mit dim IK X = dim IK Y


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 87Folgerung 4.20Seien X, Y, Z endlichdimensionale IK –Vektorräume <strong>und</strong> sei L ∈ Hom IK (X, Y ) ,R ∈ Hom IK (Y,Z). Dann giltdim IK (Bild(L) ∩ Kern(R)) = rg(L) − rg(R ◦ L) =def (R ◦ L) − def (L) .Beweis:Setze Q := R |Bild(L) . Dann folgt mit Satz 4.17:dim IK Bild(L) = dim IK Bild(Q)+dim IK Kern(Q)= dim IK Bild(R ◦ L)+dim IK (Bild(L) ∩ Kern(R))Die zweite Behauptung folgt daraus mitdim IK Bild(R ◦ L)+dim IK Kern(R ◦ L) =dim IK X =dim IK Bild(L)+dim IK Kern(L) .4.3 MatrizenNun wollen wir den engen Zusammenhang zwischen einem IK –Vektorraum X der Dimensionn <strong>und</strong> dem IK –Vektorraum IK n etwas genauer studieren. Dieser Zusammenhangbasiert auf der Tatsache, daß jeder Vektor x ∈ X nach Wahl einer Basis {x 1 ,...,x n } inX eine eindeutige Darstellungn∑x = a j x ji=1besitzt. Dabei nennen wir den Vektor (a 1 ,...,a n ) ∈ IK n den Koordinatenvektor von xbzgl. der gewählten Basis. Diese Begriffsbildung deckt sich mit dem üblichen Vorgehenbei der Wahl von Koordinaten in der Ebene IR 2 :Man wählt einen Punkt O (“Ursprung“) <strong>und</strong> zwei (gerichtete) Geraden g 1 <strong>und</strong>g 2 , die sich in O schneiden. Zu jedem Punkt P der Ebene ziehe man nun dieParallelen durch P zu g 1 <strong>und</strong> g 2 . Ihre Schnittpunkt P 1 mit g 1 <strong>und</strong> P 2 mit g 2kann man nun als Koordinatenpaar für den Punkt P verwenden, wenn mandie Punkte auf g 1 bzw. g 2 in umkehrbar eindeutiger Weise den reellen Zahlenzuordnet. Man hat dazu lediglich noch auf jeder Gerade eine Einheit festzulegen,welche der Einheit 1 in IR entspricht.Verwendet man aufeinander senkrecht stehende Geraden (Koordinatenachsen),spricht man von einem kartesischen Koordinatensystem. Wir kommenim Kapitel über <strong>Geometrie</strong> auf diese Konstruktion zurück. Dort gebenwir den umgangssprachlichen Begriffen etwas mehr formalen Gehalt.Es ist klar, daß für n = 2 die Geraden g 1 ,g 2 durch die Basisvektoren x 1 ,x 2 gemäß Definition2.19 so gegeben sind:g 1 := {x = a 1 x 1 |a 1 ∈ IK } ,g 2 := {x = a 2 x 2 |a 2 ∈ IK }


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 88Der Vektor x = a 1 x 1 +a 2 x 2 ∈ X entspricht im Koordinatensystem der Punkt P ,denmanso erhält:Trage von θ aus a 1 Einheiten auf g 1 , a 2 Einheiten auf g 2 ab <strong>und</strong> hefte das enstehendeGeradensegment auf g 2 durch Parallelverschiebung an das Geradensegment auf g 1 an; derEndpunkt des angehefteten Segments ist der Punkt P .<strong>Lineare</strong> Abbildungen zwischen endlichdimensionalen Vektorräumen kann man konkret mitHilfe von Matrizen beschreiben.Seien X, Y endlichdimensionale IK –Vektorräume <strong>und</strong> seiL : X −→ Y (4.3)eine IK –lineare Abbildung. Sei n := dim IK X, m := dim IK Y, <strong>und</strong> seien{x 1 ,...,x n }, {y 1 ,...,y m } (4.4)Basen von X bzw. Y .Istn∑x = a j x j ,j=1dann ist wegen der Linearität von L das Bild L(x) gegeben durchMan sieht daran zweierlei:n∑L(x) = a j L(x j ) .j=1• Die Abbildung L ist vollständig angeben, wenn die Werte L(x j ) ,j=1(1)n, festgelegtsind.• Der Vektor L(x) läßt sich in der Basis {y 1 ,...,y m } darstellen, wenn die BilderL(x j ) ,j=1(1)n, in der Basis {y 1 ,...,y m } dargestellt sind.Seien alsom∑L(x j )= a ij y i ,j=1(1)n.i=1Dann istn∑ m∑m∑ n∑L(x) = a j ( a ij y i )= ( a ij a j )y i .j=1 i=1i=1 j=1Dies zeigt uns, daß wir die Abbildung L : X −→ Y bei gegebenen Basen vollständig mitHilfe der MatrixA L =(a ij ) i=1(1)m , j =1(1)n(4.5)beschreiben können: Ist⎛ ⎞a 1a = ⎜ ⎟ n,1⎝ . ⎠ ∈ IKa n


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 89der Koordinatenvektor von x, soistder Koordinatenvektor von L(x).Die Spaltenvektoren⎛⎜⎝b := A L a ∈ IK m,1⎞a 11⎟.a m1⎛⎠ , ... , ⎜⎝⎞a 1n⎟. ⎠a mnvon A L stellen gerade die Koordinatenvektoren der Bilder L(x 1 ),...,L(x n )dar.Definition 4.21Die Matrix A L aus (4.5) heißt die Matrix(darstellung) der linearen AbbildungL aus (4.3) bzgl. der Basen (4.4).2Beispiel 4.22Sei X := IR 2 ,Y := IR 1 ,L: IR 2 ∋ (x − 1,x 2 ) ↦−→ x 1 + x 2 ∈ IR .Wähle als Basis in X {(1, 1), (0, 1)} <strong>und</strong> als Basis in IR 1 {(1)}. WegenL((1, 1))=1+1=2=2· (1) ,L((0, 1))=0+1=1=1· (1) ,folgtA = ( 2 1 ) .2Beispiel 4.23Betrachte wieder die Ableitung D in X := IK n [x]. Als Basis in X haben wir die Monomeu 0 := 1,u 1 := x,...,u n := 1 n! xn .Man sieht, daßDu 0 = θ, Du i = u i−1 ,i=1(1)n,gilt. Daher ist die Matrixdarstellung A D dieser linearen Abbildung gegeben durch⎛⎞0 1 0 0 ··· 00 0 1 0 ··· 0A D =. ... ... ... . .∈ IK n+1,n+1 .0 0 ··· 0 1 0⎜⎟⎝ 0 0 ··· ··· 0 1 ⎠0 0 ··· ··· ··· 0


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 90Seien X, Y endlichdimensionale IK –Vektorräume <strong>und</strong> sei L : X −→ Y IK –linear. Istdann A die Matrixdarstellung von L bei gewählten Basen <strong>und</strong> T A die von A := A Linduzierte AbbildungIK n,1 ∋ a ↦−→ Aa∈ IK m,1 ,dann haben wirXL−→k X⏐ ⏐⏐↓k Y ◦ L = T A ◦ k X⏐ ⏐⏐↓k YIK n,1YT A−→ IKm,1oder kurzXL−→k X⏐ ⏐⏐↓k Y ◦ L = A ◦ k X⏐ ⏐⏐↓k YIK n,1YA−→ IK m,1Wir wissen, daß bei linearen Abbildungen die Hintereinanderausführung wieder linear ist.Wir gehen der Frage nach, was dies für die zugehörigen Matrizen bedeutet. Im obigenBeispiel spiegelt sich die Eigenschaft D n+1 = Θ wider in A n+1D .Erinnert sei an die Matrixmultiplikation aus Abschnitt 2.2. Sie bekommt nun einen tieferenSinn.Satz 4.24Seien X, Y, Z endlichdimensionale IK –Vektorräume <strong>und</strong> seien R : X −→ Y,S : Y −→ Z IK –lineare Abbildungen. Seien in X, Y, Z Basen gewählt.Sind dann A R ,A S ,A S◦R die zu R bzw. S bzw. S ◦ R gehörenden Matrixdarstellungen,so giltA S◦R = A S A R .Beweis:Seien {x 1 ,...,x n }, {y 1 ,...,y m }, {z 1 ,...,z l } Basen von X bzw. Y bzw. Z.Dann ist A R ∈ IK m,n ,A S ∈ IK l,m ,A S◦R ∈ IK l,n . SetzeA R := (a ij ) i=1(1)m , j =1(1)n,A S := (b ij ) i=1(1)l , j =1(1)m.Nach Konstruktion von A R <strong>und</strong> A S gilt:m∑l∑R(x j )= a ij y i ,j=1(1)n, S(y i )= b ki z k ,i=1(1)m.i=1k=1Daraus folgt für j =1(1)n :m∑(S ◦ R)(x j )=S( a ij y i )=Also besteht A S◦R aus den Spaltenvektoren⎛ m∑⎞b 1i a iji=1⎜ .,j=1(1)n.⎟⎝ m∑ ⎠b li a iji=1i=1m∑ l∑l∑ m∑a ij ( b ki z k )= ( b ki a ij )z ki=1 k=1k=1 i=1


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 91Dies sind aber gerade die Spaltenvektoren des Matrixprodukts A S A R .Gehen wir von einem Isomorphismus L : X −→ Y mit der zugehörigen Matrix A L (beigewählter Basis in X <strong>und</strong> Y )aus,sohabenwirDies bedeutet dann nach Satz 4.24Dies nehmen wir zum Anlaß fürid X = L −1 ◦ L, id Y = L ◦ L −1 .E = A L −1 A L ,E= A L A L −1 .Definition 4.25Sei IK Körper <strong>und</strong> sei A ∈ IK n,n .Aheißt regulär oder invertierbar, falls esB ∈ IK n,n gibt mitE = AB = BA,anderenfalls heißt A singulär oder nicht invertierbar.Für die Matrix B – sie ist eindeutig bestimmt – schreiben wir A −1 <strong>und</strong> nennen dieseMatrix die Inverse von A.2Die Eindeutigkeit von A −1 folgt wie die Eindeutigkeit des inversen Elements bei Gruppen.Allerdings sollte man zur Kenntnis nehmen, daß wir dabei die Kommutativität derMultiplikation nicht nützen können (siehe Beispiel 2.5). Wir wiederholen den Schluß:AusE = AB = BA,E= AB ′ = B ′ A,folgtB = BE= BAB ′ = EB ′ = B ′ .Bemerkung 4.26Wir haben in Kapitel 2 die Matrizen von oberer Dreiecksgestalt kennengelernt <strong>und</strong> dortdafür Regularität einer solchen Matrix definiert. Mit Hilfe des Gaußschen Eliminationsverfahrens– die Gleichung AB = E ist zu lösen – sieht man, daß die dortige Definitionmit der nun gegebenen Definition übereinstimmt. 2Folgerung 4.27Seien A, B ∈ IK n,n regulär. Dann gilt:Beweis:Folgt wie bei den Gruppen.(A −1 ) −1 = A, (AB) −1 = B −1 A −1


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 92Seien X, Y IK –Vektorräume <strong>und</strong> sei L : X −→ Y eine IK –lineare Abbildung. SeienΦ X , Φ Y Basen in X bzw. Y . Dann haben wir eine Matrixdarstellung von L bzgl. dieserBasen. Wie “transformiert“ sich nun diese Matrix, wenn wir einen Basiswechsel vonΦ X , Φ Y zu Basen Φ ′ X , Φ′ Y vornehmen? Eine Vorüberlegung, die wesentlich zur Definition4.25 geführt hat, ist:Folgerung 4.28Sei X ein endlichdimensionaler IK –Vektorraum <strong>und</strong> seien Φ X , Φ ′ X Basen in X. IstA die Matrixdarstellung der Identität, wenn wir im Definitionsbereich X die BasisΦ X <strong>und</strong>imWertebereichX die Basis Φ ′ X wählen, dann ist A invertierbar <strong>und</strong> A −1ist die Matrixdarstellung der Identität, wenn wir im Definitionsbereich X die BasisΦ ′ X <strong>und</strong> im Wertebereich X die Basis Φ X wählen.Beweis:Sei B die Matrixdarstellung der Identität, wenn wir im Definitionsbereich X die Basis Φ ′ X<strong>und</strong> im Wertebereich X die Basis Φ X wählen. Da A die Matrixdarstellung der Identitätist, wenn wir im Definitionsbereich X die Basis Φ X <strong>und</strong> im Wertebereich X die Basis Φ ′ Xwählen, folgt aus Satz 4.24 E = AB = BA.Definition 4.29Sei X ein endlichdimensionaler IK –Vektorraum <strong>und</strong> seien Φ X , Φ ′ X Basen in X. DieMatrixdarstellung der Identität bzgl. der Basis Φ X im Definitionsbereich <strong>und</strong> Φ ′ X imWertebereich heißt Übergangsmatrix von Φ X nach Φ ′ X.2Beispiel 4.30Sei X := IR 2 ,L:= id X . Wähle als Basis in X {(1, 0), (0, 1)} bzw. {(2, 0), (1, 1)}. WegenL((1, 0)) = 1/2 · (1, 0) ,L((0, 1)) = 1/2 · (2, 0) + 1 · (1, 1) ,folgtA =(1/2 −1/20 1).2Satz 4.31Seien X, Y endlichdimensionale IK –Vektorräume <strong>und</strong> sei L : X −→ Y eine IK –lineare Abbildung. Seien Φ X , Φ ′ X Basen in X <strong>und</strong> seien Φ Y , Φ ′ Y Basen in Y . Ist dannA die Matrixdarstellung von L bzgl. der Basen Φ X , Φ Y in X bzw. Y , dann gibt esinvertierbare Matrizen T,S, sodaßA ′ := TAS −1 (4.6)die Matrixdarstellung von L bzgl. der Basen Φ ′ X, Φ ′ YBeweis:in X bzw. Y ist.


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 93Betrachte die Sequenz{X, Φ ′ X}id X−→ {X, Φ X }L−→ {Y,Φ Y }id Y−→ {Y,Φ ′ Y }wobei vermerkt ist, welche Basis jeweils gewählt ist. Nach Folgerung 4.28 gibt es invertierbareMatrizen S, T die{X, Φ X }id X−→ {X, Φ ′ X } bzw. {Y,Φ Y }id Y−→ {Y,Φ ′ Y }darstellen. Daraus lesen wir mit Satz 4.24 unter Verwendung von Folgerung 4.28 ab, daßTAS −1 die Abbildung{X, Φ ′ LX} −→ {Y,Φ ′ Y }darstellt.Bemerkung 4.32Die Darstellung A ′ = TAS −1 <strong>und</strong> nicht A ′ = TA˜S mit einer invertierbaren Matrix ˜S istKonvention. Sie ist allerdings durch die Sequenz im Beweis zu Satz 4.31 nahegelegt, dennS ist die Übergangsmatrix von Φ X nach Φ ′ X <strong>und</strong> T ist die Übergangsmatrix von Φ Y nachΦ ′ Y . 2Bemerkung 4.33Liegt ein Endomorphismus vor, so lautet (4.6)A ′ := SAS −1 ,falls man in Satz 4.31 mit X = Y die Gleichheit Φ X =Φ Y , Φ ′ X =Φ′ Y hat. 2Bemerkung 4.34Jede Matrix A ∈ IK m,n kommt als Matrixdarstellung einer linearen Abbildung vor. Manhat dazu nur die lineare Abbildung L := T A : IK m,1 ∋ a ↦−→ Aa ∈ IK n,1 <strong>und</strong> ihreMatrixdarstellung bezüglich der Standardbasis zu betrachten. Dann gilt offenbar A = A L .2Definition 4.35Sei A ∈ IK m,n <strong>und</strong> sei dazu T A : IK n,1 a ∋↦−→ Aa∈ IK m,1 .(a) Bild(A) :=Bild(T A ) , rg(A) :=rg(T A ) .(b) Kern(A) :=Kern(T A ) , def (A) :=def (T A ) .(c) rg s (A) := Maximale Anzahl linear unabhängiger Spalten in A.(d) rg z (A) := Maximale Anzahl linear unabhängiger Zeilen in A.rg(A) heißt Rang von A, rg s (A) heißt Spaltenrang von A <strong>und</strong> rg z (A) heißt Zeilenrangvon A.2


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 94Nützlich im Zusammenhang mit Spalten– <strong>und</strong> Zeilenrang ist die Einführung der transponiertenMatrix. In der Theorie der Linearformen <strong>und</strong> der euklidischen Vektorräumebekommt diese Begriffsbildung eine tiefere Bedeutung.Definition 4.36Sei A := (a ij ) i=1(1)m , j =1(1)n∈ IK m,n . Die MatrixA t := (a ji ) j =1(1)n , i=1(1)m∈ IK n,mheißt die zu A transponierte Matrix.2Sofort klar ist für A ∈ IK m,n neben der Tatsache, daß stetsrg(A) ≤ min{m, n} , rg s (A) ≤ n, rg z (A) ≤ m,gilt, auchrg s (A) =rg z (A t ) , rg z (A) =rg s (A t ) . (4.7)Lemma 4.37Sei A ∈ IK m,n . Dann gilt:(a) rg s (A) =rg(A) .(b) rg s (A) =rg s (TAS) , rg z (A) =rg z (TAS) , falls T ∈ IK m,m ,S ∈ IK n,n invertierbarsind.Beweis:Zu (a).Da rg(A) =dim IK Bild(A) gilt <strong>und</strong> die Spalten von A ein Erzeugendensystem von Bild(A)sind, ist die Behauptung klar.Zu (b).Klar ist, daß def (AS) =def (A) gilt, da S invertierbar ist. Also ist rg(AS) =rg(A) nachder Dimensionsformel. Daraus folgt mit (a) nunrg s (A) =rg s (AS). Entsprechend beweistman rg s (A) =rg s (TA). AlsoSchließlich haben wirrg s (A) =rg s (TA)=rg s (TAS).rg z (A) =rg s (A t )=rg s (S t A t T t )=rg s ((TAS) t )=rg z (TAS).Beachte, daß mit T,S auch T t ,S t invertierbar sind.Bevor wir zum Beweis des Hauptergebnisses dieses Abschnitts (“Spaltenrang = Zeilenrang“)kommen, benötigen wir noch eine “Normalform“ einer Darstellung von IK –linearenAbbildungen.


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 95Lemma 4.38Seien X, Y endlichdimensionale IK –Vektorräume <strong>und</strong> sei L : X −→ Y eine IK –lineare Abbildung. Dann gibt es Basen Φ X , Φ Y in X bzw. Y , sodaß die Matrixdarstellungvon L bzgl. dieser Basen folgende Form hat:( )Er ΘA =. (4.8)Θ ΘDabei ist E r eine Einheitsmatrix in IK r,r <strong>und</strong> r ist der Rang von A <strong>und</strong> L.Beweis:Wir wissen: r := rg(L) =dim IK Bild(L).Sei Φ Y := {y 1 ,...,y r ,y r+1 ,...,y m } eine Basis von Y, wobei {y 1 ,...,y r } eine Basis vonBild(L) ist.Wir wissen wegendef(L)+rg(L) =dim IK X =: n,daß dim IK Kern(L) =n − r ist. Sei {x r+1 ,...,x n } eine Basis von Kern(L) . Sei W eindirekter Summand von Kern(L), also X = Kern(L) ⊕ W.Dann ist r =dim IK W <strong>und</strong>T := L |W ist ein Isomorphismus von W nach Bild(L) . Seien x i := T −1 (y i ) , 1 ≤ i ≤ r.Dann ist Φ X := {x 1 ,...,x r ,x r+1 ,...,x n } also eine Basis von X, wobei {x r+1 ,...,x n } eineBasis von Kern(L) ist <strong>und</strong> L(x i )=y i ,i=1(1)r, gilt.Bzgl. dieser Basis hat L offenbar eine Darstellung in der gewünschten Form.Satz 4.39Sei A ∈ IK m,n . Es gilt:rg(A) =rg s (A) =rg z (A) .Beweis:Sei r := rg(A) <strong>und</strong> sei L := T A : IK n,1 ∋ a ↦−→ Aa∈ IK m,1 .Aist die Matrixdarstellungvon L bzgl. der Standardbasis in IK n,1 <strong>und</strong> IK m,1 . Nach Lemma 4.38 gibt es Basen inX := IK n,1 ,Y := IK m,1 ,sodaßL bzgl. dieser Basen eine Matrixdarstellung( )A ′ Er Θ=Θ Θhat. Nun liest man ab:rg(L) =rg(A ′ )=rg s (A ′ )=rg z (A ′ )=r.Nach Satz 4.31 gibt es invertierbare Matrizen T,S derart, daßA ′ = TAS −1 (4.9)ist. Da aber A ′ <strong>und</strong> A nach Lemma 4.37 gleichen Spalten– <strong>und</strong> Zeilenrang besitzen, istder Satz bewiesen.


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 96Folgerung 4.40Sei A ∈ IK m,n . Dann ist rg(A) =rg(A t ) .Beweis:Folgt aus der Tatsache, daß rg(A t )=rg s (A t )=rg z (A) =rg(A) .Die Aussage aus Satz 4.31 kann man als Äquivalenzrelation begreifen, denn in der Tatwird auf IK m,n durchA ∼ B : ⇐⇒ Es existieren invertierbare Matrizen T,S mit A = TBS −1eine Äquivalenzrelation definiert. Dies halten wir fest inDefinition 4.41Zwei Matrizen A, B ∈ IK m,n heißen äquivalent – wir schreiben dafür “∼“ – genaudann, wenn es invertierbare Matrizen T ∈ IK m,m <strong>und</strong> S ∈ IK n,n gibt mit A =TBS −1 .2Nun kann ein Hauptergebnis dieses Abschnitts bewiesen werden.Satz 4.42Seien A, B ∈ IK m,n . Dann sind äquivalent:(a) A ∼ B.(b) rg(A) =rg(B) .( )Er Θ(c) A, B ∼für ein r ∈ INΘ Θ0 .Beweis:Zu (a) =⇒ (b). Siehe Lemma 4.37 mit Satz 4.39.(Er ΘZu (b) =⇒ (c). Nach Lemma 4.38 <strong>und</strong> Satz 4.31 sind A, B äquivalent zuΘ ΘZu (c) =⇒ (a). Aus der Transitivität von “∼“ folgt A ∼ B.).Der Satz 4.42 besagt, daß der Rang eine Invariante (Unveränderliche) von Matrizen bzgl.der Äquivalenz ist. Für jede Äquivalenzklasse haben wir eine Normalform wie in (4.8)angegeben. Die Bemerkung 4.33 führt uns bei quadratischen Matrizen zu einer weiterenÄquivalenzrelation, nämlich zu der der Ähnlichkeit.Definition 4.43Zwei Matrizen A, B ∈ IK n,n heißen ähnlich genau dann, wenn es eine invertierbareMatrix T ∈ IK n,n gibt mit A = TBT −1 .2Das Klassifikationsproblem, d.h. die Charakterisierung der Äquivalenzklassen bzgl. Ähnlichkeitdurch eine Invariante ist schwieriger als bei der Äquivalenz. Wir kommen späterzu diesem Problem zurück.


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 974.4 <strong>Lineare</strong> GleichungssystemeWir kommen nun zu den Gleichungssystemen zurück <strong>und</strong> schreiben die Ergebnisse mitden nun schon entwickelten Begriffen auf.Betrachte das GleichungssystemAx = b (4.10)mit A ∈ IK m,n ,b∈ IK m,1Wendet man das Gaußsche Eliminationsverfahren an, kann man aus der Endform( )( ) ( )B C x1 c= ,Θ Θ x 2 dwobei B ∈ IK r,r eine reguläre Matrix von oberer Dreiecksgestalt ist, ablesen:(( ))B Cr = rg(B) =rg(B C)=rg.Θ ΘDa sich durch elementare Umformungen Spalten– <strong>und</strong> Zeilenrang nicht verändern, ist alsor = rg(A) .Damit ist erkannt, daß mit dem Gaußschen Eliminationsverfahren die Invariante r = rg(A)berechnet werden kann. Es ist nun auch klar, daß diese Zahl r vom Verfahren nicht abhängt(siehe Bemerkung 2.15).Satz 2.8 aus Kapitel 2 bekommt nun folgende Fassung:Satz 4.44(a) Ist das System (4.10) homogen, so hat es die triviale Lösung x = θ.(b) L θ := {x ∈ IK n,1 |Ax = θ} = Kern(A) ist ein linearer Unterraum mit Dimensiondef (A).(c) Das System (4.10) ist lösbar genau dann, wenn rg(A) =rg(A|b) gilt.(d) Das System (4.10) ist eindeutig lösbar genau dann, wenn rg(A) =rg(A|b) =ngilt.(e) Das System (4.10) ist lösbar für alle b ∈ IK m,1 genau dann, wenn rg(A) =mgilt.(f) Ist das System (4.10) lösbar, dann ist die LösungsmengeL b := {x ∈ IK n,1 |Ax = b}Beweis:gegeben durchL b =¯x + Kern(A) ,wobei ¯x (irgendeine) spezielle Lösung von (4.10) ist.


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 98Zu (a). Trivial.Zu (b). Folgerung 4.4 <strong>und</strong> Definition von Kern(A).Zu (c). Aus der Endform des Gaußschen Eliminationsverfahrens( )( ) ( )B C x1 c=Θ Θ x 2 dlesen wir ab, daß bei Lösbarkeit (d = θ !)gilt. Also folgt bei Lösbarkeitr = rg(BC|c) =rg(A|b) ≥ rg(A) =rg(BC)=rg(B) =rr = rg(A|b) =rg(A) .Ist rg(A|b) =rg(A), dann ist b Linearkombination der Spaltenvektoren von A, alsob ∈ Bild(A) <strong>und</strong> Lösbarkeit liegt vor.Zu (d). Aus der Dimensionsformel (siehe (4.2)) folgtn = rg(A) ⇐⇒ def (A) =0, d.h. n = rg(A) ⇐⇒ Kern(A) ={θ} ,was unter Berücksichtigung von (c) nur noch zu zeigen war.Zu (e). Klar, denn m = rg(A) ⇐⇒ Bild(A) =IK m,1 .Zu (f). Siehe (b) <strong>und</strong> Satz 2.8.Als erster hat mit Rangargumenten wohl J. Sylvester (1814 – 1897) gearbeitet. Der Begriff “Rang“wird von F.G. Frobenius (1849 – 1917) eingeführt. Die Bedingung (c) in Satz 4.44 wurde im Jahr1875/1876 von G. Fontené, G. Rouché, F.G. Frobenius gef<strong>und</strong>en.Die nun bereitstehenden Ergebnisse gestatten es, den Identitätssatz für Polynome zubeweisen.Satz 4.45Sei IK ein Körper mit # IK = ∞. Dann sind P IK , IK [x] isomorph.Beweis:Wir definieren die AbbildungH : IK [x] ∋ p ↦−→ H(p) ∈P IKdurchn∑n∑H(p)(z) := a i z i ,z∈ IK , falls p = a i x i ∈ IK [x] .i=0i=0Offenbar ist H linear <strong>und</strong> surjektiv.∑Sei p = n a i x i ∈ Kern(H), d.h. H(p)(z) =0für alle z ∈ IK . Zu zeigen ist a 0 = ... =i=0a n =0.Wähle z 0 ,...,z n ∈ IK mit #{z 0 ,...,z n } = n +1. Dies ist wegen # IK = ∞ möglich.Dann gilt alsoA(z 0 ,...,z n ) a = θ,


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 99wobei⎛2 n ⎞⎛1 z 0 z 0 ··· z 0 2 n1 z 1 z 1 ··· z 1 A(z 0 ,...,z n ):=⎜⎟⎝ ..∈ IK n+1,n+1 ,a:=⎜⎠ ⎝2 n1 z n z n ··· z n⎞a 0a 1⎟.a n⎠ ∈ IK n+1,1 ,ist. Dieses Gleichungssystem besitzt nur die triviale Lösung, da wir zeigen können:rg(A(z 0 ,...,z n )) = n +1.Der Beweis dazu geht so:Wir wenden elementare Umformungen auf A(z 0 ,...,z n )an.Für k =(n+1)(−1)1 subtrahieredas z 0 – fache der (k − 1)–ten Spalte von der k–ten Spalte. Dies ergibt eine MatrixA ′ ,diee 1 als erste Zeile <strong>und</strong>als i–te (i >1) Zeile hat. Dann ist(1,z i − z 0 ,z i 2 − z 0 z i ,...,z i n − z 0 z i n−1 )rg(A(z 0 ,...,z n )) = rg z (A(z 0 ,...,z n )) = rg z (A ′ )=rg s (A ′ )=1+rg s (B) =1+rg(B) ,wobei( )1 θA ′ =mit b ∈ IKb Bn,1ist. Der Rang ändert sich nicht, wenn wir die i–te Zeile von B mit (z i −z 0 ) −1 multiplizieren;1 ≤ i ≤ n. Dann entsteht aus B die Matrix A(z 1 ,...,z n ) ∈ IK n,n . Induktiv erhalten wiralsorg(A(z 0 ,...,z n )) = 1 + rg(A(z 1 ,...,z n )) = n +1.Wir können aus Beispiel 3.38 ableiten, daß der Identitätssatz in endlichen Körpern nichtgilt.4.5 Die allgemeine lineare GruppeDefinition 4.46Die MengeGL n (IK ):={A ∈ IK n,n |A invertierbar}heißt die allgemeine lineare Gruppe (general linear group).2Die Definition unterstellt, daß GL n (IK )eineGruppeist.WelcheVerknüpfung ist gemeint?Die Addition von Matrizen kann nicht gemeint sein, denn GL n (IK ) ist nicht abgeschlossen


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 100bzgl. der Addition (Beachte A +(−A) =Θ für alle A ∈ IK n,n ). Die Multiplikation istgemeint!Satz 4.47GL n (IK ) ist eine Gruppe bzgl. der Matrixmultiplikation; Einselement ist die EinheitsmatrixE.Beweis:Wir haben in Folgerung 4.27 schon notiert: (AB) −1 = B −1 A −1 . Also ist GL n (IK )abgeschlossenbzgl. der Multiplikation. Alle anderen Bedingungen sind einfach zu verifizieren.Beispiel 4.48Sei A := (a ij ) i=1(1)n , j =1(1)n∈ IK n,n .Agehört zu GL n (IK ),• falls A reguläre Matrix von oberer Dreiecksgestalt ist;• falls A = B t <strong>und</strong> B reguläre Matrix von oberer Dreiecksgestalt ist;• falls n = 2 <strong>und</strong> ∆ := a 11 a 22 − a 12 a 21 ≠ 0 ist, denn:Wir wissen aus Abschnitt 2.1, daß bei ∆ ≠ 0 das GleichungssystemAx = beindeutig für alle b ∈ IK 2,1 lösbar ist. Also ist Kern(A) ={θ} <strong>und</strong> A ist in GL 2 (IK ).Betrachte die Elementarmatrizen<strong>und</strong> damit die GaußmatrizenMan sieht:E kl := (δ ik δ lj ) i=1(1)r , j =1(1)r∈ IK r,r , 1 ≤ k, l ≤ r,E kl (a) :=E + aE kl , 1 ≤ k, l ≤ r, a∈ IK .• Multiplikation einer Matrix A ∈ IK m,n von links mit E kl (a) ∈ IK m,m bedeutet, dasa–fache der l–ten Zeile von A zur k–ten Zeile von A zu addieren.• Multiplikation einer Matrix A ∈ IK m,n von rechts mit E kl (a) ∈ IK n,n bedeutet, dasa–fache der k–ten Spalte von A zur l–ten Spalte von A zu addieren.Damit sind die elementaren Zeilenumformungen als Matrixmultiplikation beschrieben.Zeilen– <strong>und</strong> Spaltenvertauschungen lassen sich ebenfalls als Matrixmultiplikation verstehen:SeienP kl := E + E kl + E lk − E kk − E ll , 1 ≤ k, l ≤ r.Es gilt:


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 101• Multiplikation einer Matrix A ∈ IK m,n von links mit P kl ∈ IK m,m bedeutet, die l–teZeile von A mit der k–ten Zeile von A zu vertauschen.• Multiplikation einer Matrix A ∈ IK m,n von rechts mit P kl ∈ IK n,n bedeutet, die k–teSpalte von A mit der l–ten Spalte von A zu vertauschen.Damit sind alle elementaren Umformungen, die das Gaußsche Eliminationsverfahren ausmachen,durch Matrixmultiplikation unter Verwendung der Matrizen E kl (a),P kl , 1 ≤k, l ≤ r, k≠ l, beschrieben.Es gilt:• E kl (a)E kl (b) =E kl (a + b) , 1 ≤ k, l ≤ r, k≠ l.• E kl (a) ∈ GL r (IK ) <strong>und</strong> E kl (a) −1 = E kl (−a) , 1 ≤ k, l ≤ r, k≠ l.• P kl ∈ GL r (IK ) ,P −1kl = P kl , 1 ≤ k, l ≤ r.Da also die bei elementaren Umformungen benötigten E kl (a),P kl invertierbar sind, sehenwir erneut, daß elementare Umformungen der Rang einer Matrix nicht verändern.Ist ( )( ) ( )B C x1 c=Θ Θ x 2 ddie Endform des Gaußschen Eliminationsverfahrens, angewendet auf das Gleichungssystem(4.10), so können wir die Rechenschritte als Berechnungsverfahren für eine LU–Zerlegung einer permutierten Matrix interpretieren. Die Matrix( )B CΘΘensteht nämlich als( )B CG s P s ···G 1 P 1 AΠ 1 ···Π s =(4.11)Θ Θwobei G 1 ,...,G s Gaußmatrizen <strong>und</strong> P 1 ,...,P s , Π 1 ,...,Π s Permutations– oder Einheitsmatrizensind.Definition 4.49Sei A ∈ IK m,n .DannheißtA = LU eine LU–Zerlegung von A, wenn U, L t Matrizenvon oberer Dreiecksgestalt sind.2Aus (4.11) liest man die LU–Zerlegung von A ab, falls keine Zeilen– <strong>und</strong> Spaltenvertauschungenbenötigt werden:( )B CA = LU mit L =(G s ···G 1 ) −1 ,U =.Θ ΘMansiehtsofort,daßinderTateineLU–Zerlegung vorliegt.


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 102Das vorliegende Gleichungssystem (4.10)Ax = b, d.h. LUx = b,läßt sich dann zweistufig durch Vorwärts– <strong>und</strong> Rückwärtssubstitution lösen:Ly = b, Ux= y,In der numerischen Mathematik beschäftigt man sich mit Stabilitäts– <strong>und</strong> Speicherfragen.Soviel sei hier gesagt: U benötigt die obere Hälfte einer n × n – Matrix, die untere Hälfteohne Diagonale kann L aufnehmen, da wir sowieso wissen, daß in der Diagonalen von Llauter Einsen stehen (Beweis!).4.6 Linearformen <strong>und</strong> DualraumDefinition 4.50Sei X ein IK –Vektorraum.Der IK –Vektorraum X ′ := Hom IK (X, IK ):={L : X −→ IK |L IK −linear} heißt(algebraischer) Dualraum von X. Jedes Element λ ∈ X ′ heißt eine Linearformoder lineares Funktional auf X.2Beispiel 4.51Sei IK ein Körper. Die Abbildungn∑n∑δ t0 : IK [x] ∋ p = a i x i ↦−→ a i t i 0 ∈ IK (t 0 ∈ IK )i=0i=0ist eine Linearform auf IK [x] , d.h. δ t0 ∈ IK [x] ′ . 2Sei X ein IK –Vektorraum.Die Anwendung eines Elements λ ∈ X ′ auf ein Element x ∈ X schreiben wir allgemeinerGewohnheit folgend anders wie wir es bei (gewöhnlichen) Abbildungen sonst tun:Wir haben damit eine Abbildung:= λ(x) .< ·, · >: X ′ × X ∋ (λ, x) ↦−→ ∈ IK ,die in beiden Argumenten offenbar IK –linear ist. Wir nennen diese Abbildung die kanonischePaarabbildung.


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 103Satz 4.52Sei X ein IK –Vektorraum. Dann gilt:(a) X ′ ist ein IK –Vektorraum.(b) Hat X Dimension n, dann hat X ′ ebenfalls Dimension n.(c) Ist Φ X := {x 1 ,...,x n } eine Basis in X, dann hat X ′ eine BasisΦ X ′ = {λ 1 ,...,λ n }⊂X ′ mit= δ ij ,i,j=1(1)n. (4.12)Diese Basis Φ X ′ ist durch die Eigenschaft 4.12 eindeutig bestimmt.Beweis:(a) ist ein Spezialfall: Hom K (X, Y ) ist ein Vektorraum, falls X, Y Vektorräume sind.Zu (b). Wird unter (c) mitbewiesen.Zu (c).Wir schreiben λ i als Projektion auf die i-te Koordinate von x bzgl. der Basis Φ X ,d.h.n∑λ i : X ∋ x = a j x jj=1↦−→ a i ∈ IK ; i ∈{1,...,n}.Diese Elemente λ i sind wohldefiniert, da die Darstellung eines Elements x ∈ X durch dieBasis eindeutig ist. Sie sind offenbar auch IK –linear. Die Eigenschaft (4.12) ist offensichtlich.Bleibt zu zeigen, daß {λ 1 ,...,λ n } eine Basis von X ′ darstellt.Sein∑λ := b i λ i = θ.Dann gilt wegen (4.12)i=10== b j ,j=1(1)n.Dies zeigt, daß Φ X ′ := {λ 1 ,...,λ n } linear unabhängig ist.Sei λ ∈ X ′ ∑. Dann gilt für alle x = n a j x j ∈ X wegen (4.12)j=1n∑n∑n∑= a j = =< λ j ,x> .j=1j=1j=1Dies zeigt, daß λ = n ∑j=1λ j ∈L(Φ X ′) ist. Also ist Φ X ′auch ein Erzeugendensystemvon X ′ ist. Damit ist Φ X ′ eine Basis in X ′ .Zur Eindeutigkeit: Ist Ψ X ′ := {µ 1 ,...,µ n } eine weitere Basis mit der Eigenschaft 4.12,dann gilt für i ∈{1,...,n} =0, 1 ≤ j ≤ n. Daraus folgt offenbar=0für alle x ∈ X. Also λ i = µ i .


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 104Definition 4.53Sei X ein IK –Vektorraum <strong>und</strong> sei Φ X := {x 1 ,...,x n } eine Basis in X. Dannheißteine Basis Φ X ′ := {λ 1 ,...,λ n }⊂X ′ mit= δ ij ,i,j=1(1)n,die duale Basis zu Φ X .2Folgerung 4.54Sei X ein endlichdimensionaler IK –Vektorraum. Dann gibt es zu jedem x ∈ X\{θ}ein λ ∈ X ′ \{θ} mit≠0. (4.13)Beweis:Wähle eine Basis Φ X = {x 1 ,...,x n } in X <strong>und</strong> dazu eine duale Basis Φ X ′ = {λ 1 ,...,λ n }in X ′ ∑.Dafür x = n a j x jj=1a j =, j =1(1)n,gilt, gibt es zu x ∈ X\{θ} ein j mit ≠0.Beispiel 4.55Wähle in X := IK n,1 die Standardbasis e 1 ,...,e n <strong>und</strong> K X die zugehörige Koordinatenabbildung.Jede Linearform X ′ ∋ λ i : IK n,1 ∋ a ↦−→ k X (a) i ∈ IK aus der dualen Basiskönnen wir somit so hinschreiben:=(e i ) t .Also können wir den Dualraum X ′ von X := IK n,1 gleichsetzen mit IK n,1 , wenn wir< ·, · > noch erklären durch := λ t a, λ,a∈ IK n,1 .Verzichten wir auch noch auf die “Feinheit“ IK n,1 statt IK n zu schreiben, können wir denDualraum X ′ von X := IK n gleichsetzen mit IK n , wenn wir < ·, · > durch :=n∑λ i a i erklären. 2i=1Bemerkung 4.56Ist X ein n–dimensionaler IK –Vektorraum, dann wissen wir nun, daß auch X ′ ein n–dimensionaler IK –Vektorraum ist. Beide Räume sind dann isomorph zu IK n . Dies nutzenwir so:Sei {x 1 ,...,x n } eine Basis in X <strong>und</strong> sei {λ 1 ,...,λ n } eine duale Basis in X ′ . Mit den


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 105Koordinatenabbildungen k X : X −→ IK n ,k X ′ : X ′ −→ IK n erhalten wir nun fürλ ∈ X ′ ,x∈ X : =n∑< λ i ,x>i=1=n∑k X ′(λ) i k X (x) ii=1= k X ′(λ) t k X (x) .Auf diese Weise können wir dann eine Gleichung= b (λ ∈ X ′ ,x∈ X,b∈ IK )mit einer Gleichunga t x = b (a ∈ IK n ,x∈ IK n )identifizieren; siehe Beispiel 4.55. Damit ist die Brücke zu den Gleichungssystemen geschlagen.2Satz 4.57Sei X ein IK –Vektorraum. Dann gilt:(a) Für jedes x ∈ X ist die Abbildungein Element von (X ′ ) ′ .(b) Die Abbildungg x : X ′ ∋ λ ↦−→ g x (λ) :=∈ IKj X : X ∋ x ↦−→ g x ∈ (X ′ ) ′ist injektiv <strong>und</strong> ein Element von Hom IK (X, (X ′ ) ′ ) .Beweis:Zu (a): Trivial.Zu (b): Für alle x, y ∈ X, a, b ∈ IK giltj X (ax + by)(λ) == a+b für alle λ ∈ X ′ ,d.h. j X (ax + by) =aj X (x)+bj X (y) . Damit ist die Linearität von j X klar. Die Injektivitätfolgt aus Folgerung 4.54.Definition 4.58Sei X ein IK –Vektorraum. Der IK –Vektorraum (X ′ ) ′ heißt Bidualraum zu X <strong>und</strong>wir schreiben dafür X ′′ .2


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 106Folgerung 4.59Sei X ein endlichdimensionaler IK –Vektorraum. Dann ist der Bidualraum X ′′ isomorphzu X.Beweis:Folgt aus Satz 4.52 unter Beachtung von Bemerkung 4.56Definition 4.60Sei X ein IK –Vektorraum <strong>und</strong> sei U ⊂ X ein linearer Teilraum. Dann heißtU a := {λ ∈ X ′ | =0für alle u ∈ U}der Annihilator von U.2Satz 4.61Sei X ein IK –Vektorraum <strong>und</strong> sei U ⊂ X ein linearer Teilraum. Dann gilt:(a) U a ist ein linearer Teilraum von X ′ .(b) Ist dim IK X=0für alle λ ∈ U a ,


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 107also j X (u) ∈ (U a ) a ,d.h.u ∈ W. Damit wissen wir, daß U ⊂ W gilt. Ausdim IK U +dim IK U a =dim IK X =dim IK X ′ =dim IK U a +dim IK (U a ) a ,(siehe 4.61) folgt dim IK U =dim IK (U a ) a =dim IK W, also U = W.Folgerung 4.63Sei X ein endlichdimensionaler IK –Vektorraum, x 0 ∈ X <strong>und</strong> sei U ein linearerTeilraum von X. Sei l := dim IK U a <strong>und</strong> sei λ 1 ,...,λ l ∈ X ′ eine Basis von U a .Damit sind für x ∈ X äquivalent sind:(a) =< λ i ,x 0 >, i=1(1)l.(b) x ∈ x 0 + U.Beweis:Es gilt offenbar für x ∈ X :x − x 0 ∈ U ⇐⇒ =0,i=1(1)l,⇐⇒ =0,i=1(1)l.Definition 4.64Eine Teilmenge A von X heißt affiner Teilraum (der Dimension r), wenn esx 0 ∈ X <strong>und</strong> einen linearen Teilraum (der Dimension r) gibt mit A = x 0 + U.2Nun ist wegen Folgerung 4.63 klar, daß jeder affine Teilraum als Lösungsraum eines linearenGleichungssystem auftritt; die Umkehrung kennen wir schon aus Satz 4.44. Beachtehierzu Bemerkung 4.56. Mehr noch, wir können nun ganz einfach den noch ausstehendenBeweis von Satz 2.22 führen. Dieser Satz über Ebenen lautet:Satz 4.65Sei IK ein Körper <strong>und</strong> sei E⊂IK 3 , E≠ ∅. Dann sind äquivalent:(a) E ist Ebene.(b) Es gibt a ∈ IK 3 ,a≠ θ, <strong>und</strong> b ∈ IK mitE = {(x 1 ,x 2 ,x 3 ) ∈ IK 3 |a 1 x 1 + a 2 x 2 + a 3 x 3 = b} .Beweis:Zu (a) =⇒ (b).Ist E eine Ebene, dann ist E ein affiner Teilraum der Dimension 2, da der Richtungsraum


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 108nach Definition zweidimensional ist. Also haben wir E = x 0 + U, wobei U ein zweidimensionalerTeilraum von IK 3 ist. Aus Folgerung 4.63 folgt die Existenz von λ ∈ IK 3 \{θ}mit =< λ,x 0 > für alle x ∈E. Aus Bemerkung 4.56 folgt dann b).Zu (b) =⇒ (a).Sei a := (a 1 ,a 2 ,a 3 ) ∈ IK 1,n <strong>und</strong> sei V := L({a}),U := {u ∈ IK 3,1 |a t u =0}. Nun istdim IK V =1,U = V a , dim IK U = 2 <strong>und</strong> x ∈E genau dann, wenn a t (x − x 0 ) = 0 gilt. Alsoist x ∈Egenau dann, wenn x ∈ x 0 + U gilt (beachte Bemerkung 4.56). Daher ist E einzweidimensionaler affiner Raum <strong>und</strong> damit eine Ebene.Definition 4.66Sei X ein IK –Vektorraum. Sei λ ∈ X ′ \{θ} <strong>und</strong> sei b ∈ IK . Dann heißtH λ,b := {x ∈ X| = b}eine Hyperebene.2Bemerkung 4.67Die Folgerung 4.54 besagt, daß der Punkt x 0 ≠ θ nicht auf der Hyperebene H λ,0 liegt.Im Kapitel 9 (Konvexität) gehen wir genauer auf die Diskussion von Hyperebenen ein.Erwähnt sei hier aber noch, daß die Existenz von Linearformen mit der Eigenschaft ausFolgerung 4.54 in unendlichdimensionalen Räumen keine Trivialität ist. Hierzu liefert derSatz von Hahn–Banach, einer der drei Hauptsätze der Funktionalanalysis, Ergebnisse. Diegeometrische Fassung dieses Satzes hat mit trennenden Eigenschaften von Hyperebenen zutun. (Die “Ebene“ IK n wird durch eine Hyperebene H λ,b aufgespalten in zwei Halbräume.)2Daß folgende Definition sinnvoll ist, belegt das nachfolgende Lemma.Definition 4.68Seien X, Y IK –Vektorräume <strong>und</strong> sei L : X −→ Y IK –linear. Die AbbildungL ′ : Y ′ ∋ µ ↦−→ L ′ (µ) ∈ X ′ mit :=< µ,L(x) >, x∈ X,heißt die (zu L) adjungierte Abbildung.2Lemma 4.69Seien X, Y ein IK –Vektorräume <strong>und</strong> sei L : X −→ Y IK –linear. Dann ist L ′ einewohldefinierte IK –lineare Abbildung.Beweis:


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 109Ist die Wohldefiniertheit gezeigt, ist alles klar, denn die Linearität ist offensichtlich.Sei µ ∈ Y ′ . Dann wird durchX ∋ x ↦−→ ∈ IKoffenbar eine IK –lineare Abbildung definiert. Also gibt es λ ∈ X ′ mitIst λ ′ ∈ X ′ eine weitere Linearform mit=< λ,x>,x∈ X.=< λ ′ ,x>, x∈ X,dann ist =0für alle x ∈ X, also λ − λ ′ = θ. Die Setzung L ′ (µ) :=λ ist alsosinnvoll.Satz 4.70Seien X, Y endlichdimensionale IK –Vektorräume, seien Φ X , Φ Y Basen in X bzw.Y <strong>und</strong> seien Φ X ′, Φ Y ′ die zugehörigen dualen Basen in X ′ bzw. Y ′ . Ist dannA := (a ij ) i=1(1)m , j =1(1)n∈ IK m,ndie Matrixdarstellung der IK –linearen Abbildung L : X −→ Y bzgl. Φ X , Φ Y , dannistA t =(a ji ) j =1(1)n , i=1(1)m∈ IK n,mdie Matrixdarstellung von L ′ : Y ′ −→ X ′ bzgl. Φ X ′, Φ Y ′.Beweis:Seien Φ X = {x 1 ,...,x n },Φ Y = {y 1 ,...,y m },Φ X ′ = {λ 1 ,...,λ n },Φ Y ′ = {µ 1 ,...,µ m }.Wir wissen:m∑L(x j )= a sj y s ,j=1(1)n.Für i =1(1)m folgt nunL ′ (µ i ) ====s=1n∑λ jj=1n∑λ jj=1m∑ n∑( a sj )λ jj=1 s=1m∑a ij λ jj=1Daraus liest man nun die Spalten der Matrixdarstellung von L ′ in der behaupteten Formab.Den Inhalt dieses Kapitels können wir nun ziemlich gut durch ein Diagramm wiedergeben.


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 110Seien X, Y IK –Vektorräume mit dim IK X = n, dim IK Y = m.Seien Φ X , Φ Y Basen in X bzw. Y <strong>und</strong> seien Φ ′ X, Φ ′ Y duale Basen in X ′ bzw.Y ′ .Sei L : X −→ Y IK –linear <strong>und</strong> sei A die Matrixdarstellung bzgl. der gewähltenBasen.Damit haben wir:LX −→ YX ′ L←− ′Y ′⏐ ⏐ ⏐⏐↓ ⏐⏐↓ k X k Y ◦ L = A ◦ k X k Yk X ′⏐↓ k X ′ ◦ L ′ = A t ◦ k Y ′⏐↓ k Y ′IK n,1A−→ IK m,1 IK n,1A←− tIK m,14.7 Fredholm–Alternative *Abschließend nochmal ein Blick auf die linearen Gleichungssysteme. Eine Charakterisierungder Lösbarkeit eines Gleichungssystems ist auch unter Zuhilfenahme der adjungiertenAbbildung möglich. Dazu eine Vorbereitung.Lemma 4.71Sei X ein endlichdimensionaler IK –Vektorraum. <strong>und</strong> sei L : X −→ Y linear.Dann gilt:(a) Kern(L ′ )=Bild(L) a .(b) Bild(L ′ )=Kern(L) a .Beweis:Sei λ ∈ Y ′ mit L ′ (y) =θ. Dann ist =< L ′ (λ),x>=0für alle x ∈ X. Also istλ ∈ Bild(L) a . Die Umkehrung ist daraus auch ablesbar. Damit ist (a) gezeigt, (b) beweistman entsprechend.Als Verallgemeinerung von Lemma 4.40 haben wirFolgerung 4.72Seien X, Y endlichdimensionale IK –Vektorräume, sei L : X −→ Y linear. Danngilt rg(L) =rg(L ′ ).Beweis:rg(L ′ )=dimBild(L ′ )=dimKern(L) a =dimX − dim Kern(L) =dimBild(L) =rg(L).Der folgende Satz wird als Fredholm–Alternative (in endlichdimensionalen Räumen)bezeichnet.


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 111Satz 4.73Seien X, Y endlichdimensionale IK –Vektorräume, sei L : X −→ Y linear. Betrachtedie folgenden vier Gleichungen:(1) L(x) =y (3) L(x) =θ(2) L ′ (λ) =µ (4) L ′ (λ) =θDamit gilt:Entweder sind beide Gleichungen (1), (2) lösbar für alle λ, µ, <strong>und</strong> in diesem Fallesind sie eindeutig lösbar, oder die Gleichungen (3), (4) haben diesselbe Anzahl vonlinear unabhängigen Lösungen x 1 ,...,x l <strong>und</strong> λ 1 ,...,λ l , <strong>und</strong> in diesem Falle ist (1)(bzw. (2)) lösbar genau dann, wenn = ···=< λ l ,y >=0(bzw. =···=< µ,x l >=0)gilt.Beweis:Lösbarkeit von (1), (2) für alle λ, µ bedeutet, daß Bild(L) =Y,Bild(L ′ )=X ′ , d.h. daßKern(L ′ ) a = Y,Kern(L ′ ) a = X ′ ist; also Kern(L ′ )={θ}, Kern(L) ={θ}.Ist Kern(L) ≠ {θ}, dann ist dim Kern(L ′ )=dimKern(L ′ ) <strong>und</strong> y ∈ Bild(L) genau dann,wenn y ∈ Kern(L ′ ) a ist, d.h. wenn = ··· =< λ l ,y >= 0 gilt. Entsprechenderhält man µ ∈ Bild(L ′ ) genau dann, wenn = ···=< µ,x l >= 0 gilt.Im Abschnitt über Euklidische Vektorräume werden wir auf obigen Satz zurückkommen.Die Fredholm–Alternative (Fredholm, I., 1866 – 1927, Schwede) in unendlichdimensionalen Räumenist von überragender Bedeutung in der Theorie der linearen Integralgleichungen. Die lineareAbbildung kommt hier als kompakte Störung der Identität daher. Der besondere Wert liegt darin,daß aus der Injektivität einer Abbildung (Eindeutigkeit) auf Surjektivität (Existenz) geschlossenwerden kann. Mit Integralgleichungen können u.a. Randwertaufgaben äquivalent beschrieben werden.


Kapitel 5Eigenwerte <strong>und</strong> EigenvektorenWir studieren hier die linearen Teilräume eines Raumes X, auf denen eine lineare AbbildungL : X −→ X besonders einfach operiert. Von besonderer Bedeutung ist dabei auchder zugehörige Skalarkörper. Mit dem Skalarkörper ′C können alle wesentlichen Fragenabschließend diskutiert werden, am Ende des Kapitels diskutieren wir auch den Fall desSkalarkörpers IR . Stets setzen wir voraus, daß kein endlicher Skalarkörper IK vorliegt.Dann können P IK <strong>und</strong> IK [x] gleichberechtigt verwendet werden.5.1 DefinitionVor einem hinführenden Resultat noch eine Bezeichnung:Mit λ 1 ,...,λ n ∈ IK , IK Körper, setzen wir:⎛diag(λ 1 ,...,λ n ):=⎜⎝⎞λ 1 0 · ··· 00 λ 2 0 ··· 0⎟... ⎠0 · · ··· λ nLemma 5.1Sei X ein n–dimensionaler IK –Vektorraum <strong>und</strong> sei L : X −→ X ein Endomorphismus.Sei A =(a ij ) i=1(1)n , j =1(1)ndie Matrixdarstellung von L bzgl. der Basis{x 1 ,...,x n }⊂X. Für λ 1 ,...,λ n ∈ IK sind dann äquivalent:(a) A = diag(λ 1 ,...,λ n ) .(b) L(x i )=λ i x i , 1 ≤ i ≤ n.Beweis:(a) =⇒ (b) :Der Spaltenvektor λ i e i ist der Koordinatenvektor des Bildes L(x i ), d.h.L(x i )=λ i x i , 1 ≤ i ≤ n.112


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 113(b) =⇒ (a) :Man lese die obige Argumentation rückwärts.Definition 5.2Sei X ein IK –Vektorraum <strong>und</strong> sei L : X −→ X ein Endomorphismus.Ein Skalar λ ∈ IK heißt Eigenwert von L genau dann, wenn es einen Vektorx ∈ X\{θ}, genannt Eigenvektor, gibt mit L(x) =λx .2Der allgemeine Begriff des Eigenwerts eines Endomorphismus tauchte im achtzehnten Jahrh<strong>und</strong>ertauf, <strong>und</strong> zwar nicht im Zusammenhang mit linearen Abbildungen, sondern in der Theorie derlinearen Differentialgleichungen. Hierin kann man eine wesentliche Anwendung für die folgendenÜberlegungen zu einer Normalform einer Matrixdarstellung sehen. Die Zusammenfassung allerEigenwerte einer linearen Abbildung mündete später bei F. Riesz (1880 – 1956) in den Begriff desSpektrums.Das Lemma 5.1 sagt uns, welche Basis wir wählen sollten, damit die Matrixdarstellungeines Endomorphismus besonders einfach wird, nämlich eine Basis aus lauter Eigenvektoren.Endomorphismen, für die eine solche Wahl möglich ist, sind ausgezeichnet <strong>und</strong>erhalten einen Namen.Definition 5.3Sei X ein IK –Vektorraum. Ein Endomorphismus L : X −→ X heißt diagonalisierbaroder halbeinfach genau dann, wenn es in X eine Basis gibt, die ausEigenvektoren von L besteht.2Beispiel 5.4Sei IK Körper, X := IK 2 <strong>und</strong> sei der Endomorphismus L gegeben durch die MatrixA :=(1 00 −1Diese Abbildung beschreibt offenbar eine Spiegelung der “Ebene“ IK 2 an der e 1 –Achse.Man verifiziert leicht, daße 1 Eigenvektor zum Eigenwert λ =1(Auf L({e 1 })istA die Identität!)).<strong>und</strong>e 2 Eigenvektor zum Eigenwert λ = −1(Auf L({e 2 })ist − A die Identität!)


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 114ist. Also ist A diagonalisierbar. Beachte, daß die Matrix A als Diagonalmatrix vorliegt.2Die Bezeichnung “diagonalisierbar“ wird später erst klarer werden. Einige Arbeit werdenwir in die Problemstellung investieren, Basen zu finden, zu denen eine Matrixdarstellungvon oberer Dreiecksgestalt gehört.Das folgende Beispiel erläutert die Bezeichnung <strong>und</strong> macht klar, daß Diagonalisierbarkeitnicht immer errreichbar ist.Beispiel 5.5Sei X = IR 2 <strong>und</strong> sei der Endomorphismus L gegeben durch die Matrix( )0 −1A :=.1 0Diese Abbildung beschreibt offenbar eine Drehung der “Ebene“ IR 2 um den Winkel π/2 .Dieser Endomorphismus besitzt keine Eigenwerte, <strong>und</strong> damit definitionsgemäß auch keineEigenvektoren. Da eine Drehung um π/2 vorliegt, überrascht dies auch nicht, denn Eigenvektorenwerden durch die Anwendung des Endomorphismus ja nur “gestreckt“. Daßin der Tat keine Eigenwerte existieren, verifiziert man so:Aus Ax = λx folgt −x 2 = λx 1 ,x 1 = λx 2 , also, falls etwa x 2 ≠0, −x 2 = λ 2 x 2 ,d.h.λ 2 +1 = 0. Da diese Gleichung in IR nicht lösbar ist, kann auch kein Eigenwert existieren.Betrachtet man den obigen Endomorphismus bzgl. des Skalarkörpers ′C ,dannändert sichdie Situation vollständig, es existiert nun in ′C 2,1 sogar eine Basis aus Eigenvektoren,nämlich:u := ie 1 + e 2 ist Eigenvektor zum Eigenwert λ = i,v := e 1 + ie 2 ist Eigenvektor zum Eigenwert λ = −i.Der Endomorphismus L ist also diagonalisierbar. Man rechnet nach, daß es eine MatrixS ∈ ′C 2,2 gibt mit S −1 AS = D, wobei D eine Diagonalmatrix ist; S := (u|v) leistetnämlich das gewünschte. 2Die Frage nach der Existenz von Eigenwerten führt auf das Gleichungssystem(A − λE)x = θ ;gesucht ist eine nichttriviale Lösung dieses Gleichungssystems. Bringt man dieses Gleichungssystemmit Hilfe der Gaußschen Elimination auf obere Dreiecksgestalt, so ist zuerwarten, daß sich eine Bedingung an λ ergibt, die hinreichend dafür ist, daß sich einenichttriviale Lösung finden läßt. Da sich die Divisionen mit Pivotelementen bei denUmformungsschritten nachträglich durch Multiplikation mit dem Hauptnenner wieder“beseitigen“ lassen, ist zu erwarten, daß diese hinreichende Bedingung eine polynomialeGleichung in λ ist; der Grad kann höchstens n sein, da maximal n−1Einträge zu eliminierensind. Später wird uns diese Gleichung als Nullstellengleichung für das charakteristischePolynom wieder begegnen.Beispiel 5.6


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 115SeiHier istA :=⎛⎜⎝⎛⎜A − λE = ⎝2 0 00 0 10 −1 0⎞2 − λ 0 00 −λ 10 −1 −λ⎟⎠ ∈ IR 3,3 .⎞⎟⎠ ∈ IR 3,3 .Da der Rang von A−λE drei ist für λ =0, ist λ = 0 schon mal auszuschließen. Elimination,angewendet auf A − λE führt auf⎛⎜⎝⎞2 − λ 0 0⎟0 −λ 10 −1 −λ − λ −1⎠ ∈ IR 3,3 .Da die Gleichung λ 2 +1=0keineLösung besitzt, bleibt nur noch λ = 2 als Eigenwert.Dazu ist⎛ ⎞1⎜ ⎟x := ⎝ 0 ⎠0ein Eigenvektor. 2Lemma 5.7Sei X ein IK –Vektorraum <strong>und</strong> sei L : X −→ X ein Endomorphismus. Sindλ 1 ,...,λ r ∈ IK paarweise verschiedene Eigenwerte mit zugehörigen Eigenvektorenx 1 ,...,x r ∈ X, dann sind x 1 ,...,x r linear unabhängig.Beweis:Vollständige Induktion nach r.Ist r =1, so ist x 1 linear uanabhängig, da x 1 ≠ θ ist.Sei die Behauptung nun für r − 1 richtig. Seir∑a i x i = θ. (5.1)i=1Wenden wir L auf diese Linearkombination an, so entstehtr∑a i λ i x i = θ. (5.2)i=1Multipliziert man (5.1) mit λ r <strong>und</strong> subtrahiert die so erhaltenen Gleichung von (5.2),erhält manr−1 ∑a i (λ i − λ r )x i = θ.i=1Also folgt nun aus der Induktionsvoraussetzunga i (λ i − λ r )=0, also a i =0, 1 ≤ i ≤ r − 1 .


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 116Da x r ein Eigenvektor ist, ist wegen (5.1) auch a r = 0. Also sind x 1 ,...,x r linear unabhängig.Folgerung 5.8Sei X ein endlichdimensionaler IK –Vektorraum. Die Anzahl der verschiedenen Eigenwerteeines Endomorphismus L : X −→ X ist nicht größer als die Dimensionvon X.Beweis:Triviale Folgerung aus Lemma 5.7Satz 5.9Sei X ≠ {θ} ein endlichdimensionaler ′C –Vektorraum <strong>und</strong> sei L : XEndomorphismus. Dann besitzt L einen Eigenwert.Beweis:Sei n := dim ′C X.Seix ∈ X\{θ} . Dann sind die n +1Vektoren−→ X einx, L(x),L 2 (x),...,L n (x)linear abhängig; hierbei haben wir für die n–fache Hintereinanderausführung von L kurzL n geschrieben. Also gibt es a =(a 0 ,...,a n ) ∈ ′C n+1 ,a≠ θ, mitn∑a i L i (x) =θ.i=0∑Sei das Polynom p ∈P ′C definiert durch p(z) := n a i z i ,z ∈ ′C . Da x ≠ θ ist, ist p nichti=0das konstante Polynom. Sei p (unter Verwendung des F<strong>und</strong>amentalsatzes der <strong>Algebra</strong> <strong>und</strong>Division mit Rest) zerlegt in Linearfaktoren:n∏p(z) =c (z − λ i ),z ∈ ′C .i=1Dann haben wir – man argumentiere induktiv –n∑θ = a i L i (x) =c (L − λ 1 id X ) ◦···◦(L − λ n id X )(x)i=0<strong>und</strong> folgern daraus, daß L − λ i id X nicht injektiv ist für mindestens ein i. Dieszeigt,daßmindestens ein λ i Eigenwert von L ist.Das eingangs gegebene Beispiel <strong>und</strong> der obige Satz belegen, daß der Körper ′C dank derEigenschaft, daß jedes Polynom mit Koeffizienten in ′C in Linearfaktoren zerfällt, großeBedeutung für die Existenz von Eigenwerten besitzt.Die Tatsache, daß nicht immer eine Basis aus Eigenvektoren erreicht werden kann, selbstim Fall des Skalarkörpers ′C , erkennt man sehr schnell an folgendemBeispiel 5.10


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 117Betrachte auf ′C 2,1 die lineare Abbildung, die durch die Matrix( )0 1A := ∈ ′C 2,20 0vermittelt wird. Sie hat nur den Eigenwert λ = 0 <strong>und</strong> die zugehörigen Eigenvektorenspannen einen eindimensionalen Vektorraum auf, nämlich E := L({e 1 }). Wir beobachtenaber, daß für e 2 gilt:(A − λid) 2 (e 2 )=θ.e 2 ist Eigenwert in einem weiteren Sinne <strong>und</strong> e 1 ,e 2 stellt eine Basis von IK 2 dar. 2Definition 5.11Sei X ein IK –Vektorraum, sei L : X −→ X ein Endomorphismus <strong>und</strong> sei λ ∈ IKein Eigenwert von L. Ein Vektor x ∈ X\{θ} heißt verallgemeinerter Eigenvektorzum Eigenwert λ, falls es ein k ∈ IN gibt mit(L − λid X ) k (x) =θ.Wir setzen H(λ) :=L({x ∈ X|x verallgemeinerter Eigenvektor zu λ}) <strong>und</strong> nennenH(λ) den zu λ gehörenden verallgemeinerten Eigenraum oder Hauptraum. 2Lemma 5.12Sei X ein n – endlichdimensionaler IK –Vektorraum, L : X −→ X Endomorphismus<strong>und</strong> sei λ ∈ IK ein Eigenwert von L. Dann gilt:(a) H(λ) =Kern(L − λid X ) n .(b) L(H(λ)) ⊂ H(λ), d.h. H(λ) ist invariant unter L.Beweis:Zu (a).Offenbar ist Kern(L − λid X ) n ⊂ H(λ).Sei x ein verallgemeinerter Eigenvektor. Nach Definition gibt es k ∈ IN mit(L − λid X ) k (x) =θ.Sei k ∈ IN mit dieser Eigenschaft schon miminal gewählt, d.h.(L − λid X ) j (x) ≠ θ, 0 ≤ j ≤ k − 1.Sindx, (L − λid X )(x),...,(L − λid X ) k−1 (x)linear unabhängig, dann ist k ≤ n <strong>und</strong> x ∈ Kern(L − λid X ) n ist gezeigt, da nunx ∈ Kern(L − λid X ) k ⊂ Kern(L − λid X ) n


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 118ist.Wir zeigen die lineare Unabhängigkeit vonSeix, (L − λid X )(x),...,(L − λid X ) k−1 (x).k−1 ∑i=0a i (L − λid X ) i (x) =θmit a 0 ,...,a k−1 ∈ IK .Wennwir(L − λid X ) k−1 auf jede Seite der obigen Identität anwenden,erhalten wira 0 (L − λid X ) k−1 (x) =θ,also a 0 = 0. Anwendung von (L − λid X ) k−2 auf beiden Seiten führt auf a 1 =0. Sofortfahrend, erhalten wir insgesamt a 0 = ···= a k−1 =0.Da Kern(L−λid X ) n ein linearer Teilraum von X ist, folgt aus der eben gezeigten Tatsache,daß jeder verallgemeinerte Eigenvektor in Kern(L − λid X ) n liegt, schließlich H(λ) ⊂Kern(L − λid X ) n .Zu (b).Folgt aus (a), da L ◦ (L − λid X )=(L − λid X ) ◦ L ist.Wir erweitern nun die Aussage von Lemma 5.7.Lemma 5.13Sei X IK – Vektorraum <strong>und</strong> sei L : X −→ X ein Endomorphismus. Sindx 1 ,...,x r ∈ X verallgemeinerte Eigenvektoren zu paarweise verschiedenen Eigenwertenλ 1 ,...,λ r ∈ IK , so sind x 1 ,...,x r linear unabhängig.Beweis:Vollständige Induktion nach r. Ist r =1, so ist x 1 linear unabhängig, da x 1 ≠ θ ist.Sei die Behauptung nun für r − 1 richtig. Seir∑a i x i = θ.Sei k ∈ IN minimal so gewählt, daß (L − λ 1 id X ) k (x 1 )=θ ist. Wendei=1(L − λ 1 id X ) k−1 ◦ (L − λ 2 id X ) n ◦···◦(L − λ r id X ) nauf die obige Identität an. Dies ergibt mit Lemma 5.12Wenn wiralsa 1 (L − λ 1 id X ) k−1 ◦ (L − λ 2 id X ) n ◦···◦(L − λ n id X ) n (x 1 )=θ. (5.3)(L − λ 2 id X ) n ◦···◦(L − λ r id X ) n((L − λ 1 id X )+(λ 1 − λ 2 ) id X ) n ◦···◦((L − λ 1 id X )+(λ 1 − λ 2 ) id X ) nschreiben <strong>und</strong> jede Potenz nach dem Binomialsatz ”ausmultiplizieren“, bleibt in (5.3)lediglich der Terma 1 (λ 1 − λ 2 ) n ···(λ 1 − λ r ) n (L − λ 1 id X ) k−1 (x 1 )=θübrig. Also ist a 1 =0. Mit der Induktionsvoraussetzung folgt a 2 = ···= a r =0.


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 1195.2 Das MinimalpolynomZunächst eine Verabredung.Sei X ein IK – Vektorraum <strong>und</strong> sei L ∈ Hom IK (X, X). Dann ist zu jedem Polynom∑p = n a i x i ∈ IK [x] eine lineare Abbildung p L : X −→ X erklärt durchi=0n∑p L (x) := a i L i (x) ,x∈ X.i=0Wir schreiben dafür kurz p(L) , d.h. p(L)(·) :=p L (·) . (Wir haben hier den Standpunkt“Polynomfunktion“ eingenommen.)Lemma 5.14Sei X ein endlichdimensionaler IK – Vektorraum <strong>und</strong> sei L : X −→ X einEndomorphismus.Dann gibt es eindeutig bestimmte Zahlen k ∈ IN ,a 0 ,...,a k−1 ∈ IK mita 0 id X + a 1 L + ···+ a k−1 L k−1 + L k = Θ ,q(L) ≠ Θfür alle Polynome q ∈ IK [x]\{θ} mit deg(q)


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 120Definition 5.15Sei X ein endlichdimensionaler IK – Vektorraum <strong>und</strong> sei L : X −→ X einEndomorphismus. Das nach Lemma 5.14 eindeutig bestimmte Polynomx k +k−1 ∑l=0a l x l ∈ IK [x] mit L k +k−1 ∑l=0a l L l = Θheißt das Minimalpolynom von L; wir schreiben dafür µ L .2Satz 5.16Sei X ein endlichdimensionaler IK – Vektorraum <strong>und</strong> sei L : X −→ X einEndomorphismus mit Minimalpolynom µ L . Äquivalent für λ ∈ IK sind:(a) λ ist Eigenwert von L.(b) λ ist Nullstelle von µ L , d.h. µ L (λ) =0.Beweis:Zu (a) =⇒ (b).Sei λ Eigenwert von L mit Eigenvektor x. Dann gilt θ = µ L (L)(x) =µ L (λ)x, <strong>und</strong> dax ≠ θ ist, haben wir µ L (λ) =0.Zu (b) =⇒ (a).Sei λ ∈ IK mit µ L (λ) =0. Division mit Rest zeigt µ L (z) =(z −λ)q(z) mit einem Polynomq mit deg(q) < deg(µ L ). Wegen θ = µ L (L) =(L − λid X ) ◦ q(L) folgt q(L) ≠ θ, da sonstµ L nicht Minimalpolynom wäre. Also gibt es x ′ ∈ X mit x := q(L)(x ′ ) ≠ θ. Daraus folgtAlso ist x ein Eigenvektor zu λ.θ =(L − λid X )q(L)(x ′ )=(L − λid X )x.Beispiel 5.17Betrachte auf ′C 2,1 die lineare Abbildung L, die durch die Matrix( )2 1A := ∈ ′C 2,20 1vermittelt wird. Sie hat die Eigenwerte λ =2,λ =1. Mit Lemma 5.16 schließt mandaraus, daß für das Minimalpolynom µ L von L gilt:µ L (z) =(z − 2)(z − 1) q(z) mit einem Polynom q.Man stellt fest, daß (A − 2E)(A − E) =Θ gilt. Also ist q(z) =1. 2Wir haben schon gesehen, daß die Eigenschaft, daß Eigenwerte im “gewählten“ Skalarkörperexistieren, wesentlich bei der Frage der Diagonalisierbarkeit ist. Hier ist die entsprechendeBegriffsbildung.


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 121Definition 5.18Sei X ein endlichdimensionaler IK – Vektorraum, sei L : X −→ X ein Endomorphismus.L heißt split über IK genau dann, wenn das Minimalpolynom µ Lvon L über IK in Linearfaktoren zerfällt, d.h. wenn es λ 1 ,...,λ r ∈ IK gibt mitµ L (z) =(z − λ 1 ) ···(z − λ r ) ,z∈ IK .2Wir wissen auf Gr<strong>und</strong> des F<strong>und</strong>amentalsatzes der <strong>Algebra</strong>, daß jeder Endomorphismusüber ′C split ist.Die Frage, ob ein Endomorphismus split über IK ist, kann auch dahingehend abgewandelt werden,ob es zu einem Polynom p ∈ IK [x] stets einen Körper IK ′ derart gibt, daß das gegebene Polynomüber diesem Körper in Linearfaktoren zerfällt. Dies kann positiv beantwortet werden. Der “kleinste“Körper, der dies leistet, heißt Zerfällungskörper. Die damit zusammenhängenden Fragen mündenein in die Theorie der endlichen Körpererweiterungen, die von E. Galois (E. Galois, 1811 – 1832)in seiner aufregenden Theorie erfaßt wurde.Lemma 5.19Sei X endlichdimensionaler IK – Vektorraum <strong>und</strong> sei der Endomorphismus L :X −→ X split über IK . Sei λ ∈ IK ein Eigenwert von L. Dann gilt:(a) X = Kern(L − λid X ) n ⊕ Bild(L − λid X ) n = H(λ) ⊕ Bild(L − λid X ) n .(b) Ist L split über IK , dann ist auchL ′ : X ′ := Bild(L − λid X ) n ∋ x ↦−→ L(x) ∈ X ′split über IK .Beweis:Zu (a).Sei x ∈ Kern(L − λid X ) n ∩ Bild(L − λid X ) n .Dannist(L − λid X ) n (x) =θ <strong>und</strong> es gibty ∈ X mit (L − λid X ) n (y) =x. Daraus folgt (L − λid X ) 2n (y) =θ. Aus Lemma 5.12 folgt(L − λid X ) n (y) =θ, also x = θ.Dies zeigt Kern(L − λid X ) n ∩ Bild(L − λid X ) n = θ. Aus der Dimensionsformel 4.39 folgtX = Kern(L − λid X ) n ⊕ Bild(L − λid X ) n .Beachte noch Kern(L − λid X ) n = H(λ) (siehe Lemma 5.12).Zu (b).Ist deg(µ L ′) ≥ deg(µ L ), dann ist µ L ′ = µ L auf Gr<strong>und</strong> der Definition von µ L ′.Ist deg(µ L ′) < deg(µ L ), dann erhalten wir mit Division mit Restµ L = µ L ′f + rmit Polynomen f,r, wobei deg(r) < deg(µ L ′)ist.AusΘ = µ L (L ′ )=µ L ′(L ′ )f(L ′ )+r(L ′ )=r(L ′ )


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 122folgt r(L ′ )=Θ <strong>und</strong> wegen deg(r) < deg(µ L ′) schließlich r = θ. Also ist µ L ′µ L <strong>und</strong> L ′ ist split über IK .ein Teiler vonLemma 5.20Sei X endlichdimensionaler IK – Vektorraum <strong>und</strong> sei der Endomorphismus L :X −→ X split über IK . Dann gilt:X = L({H(λ)|λ Eigenwert von L})Beweis:Sei n := dim IK X. Der Beweis erfolgt mittels Induktion nach n.Der Induktionsbeginn n = 1 ist trivial.Sei n>1. Sei λ ein Eigenwert von L. Ein Eigenwert existiert, da das Minimalpolynomüber IK in Linearfaktoren zerfällt. BetrachteL ′ : X ′ := Bild(L − λid X ) n ∋ x ↦−→ L(x) ∈ X ′ .Jeder verallgemeinerte Eigenvektor von L ′ ist auch ein verallgemeinerter Eigenvektor vonL <strong>und</strong> L ′ ist split über IK nach Lemma 5.19. Nach Induktionsvoraussetzung giltX ′ = L({H(λ ′ )|λ ′ Eigenwert von L ′ }).Da jeder Vektor in Kern (L − λid X ) n ein verallgemeinerter Eigenvektor von L ist, ist derInduktionsschluß abgeschlossen.Nun setzen wir die bisherigen Ergebnisse zu einem ersten Hauptergebnis zusammen. Offenbleibt noch die Konstruktion des Minimalpolynoms.Satz 5.21Sei X ein endlichdimensionaler IK – Vektorraum <strong>und</strong> sei der EndomorphismusL : X −→ X split über IK . Seien λ 1 ,...,λ r ∈ IK die paarweise verschiedenenEigenwerte von L <strong>und</strong> seien H(λ 1 ),...,H(λ r ) die zugehörigen verallgemeinertenEigenräume. Dann gilt:(a) X = H(λ 1 ) ⊕···⊕H(λ r ).(b) L(H(λ j )) ⊂ H(λ j ); 1 ≤ j ≤ r.(c) (L − λ j id X )| k jH(λ j ) = θ für ein k j ∈ IN ;1≤ j ≤ r.(d) L| H(λj ) hat den einzigen Eigenwert λ j ;1≤ j ≤ r.Beweis:Zu (a) :Folgt aus Lemma 5.13 <strong>und</strong> Lemma 5.20.Zu (b) :Schon in Lemma 5.12 gezeigt.Zu (c) :


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 123Folgt aus der Definition von verallgemeinerten Eigenvektoren <strong>und</strong> aus Lemma 5.12.Zu (d) :Sei λ ′ ein Eigenwert von L ′ := L| X ′,X ′ := H(λ j ).Sei x ∈ H(λ j ). Dann gilt<strong>und</strong>(L ′ − λ j id X )(x) =(L − λ j id X )(x) =(λ ′ − λ j )x(L ′ − λ j id X ) k (x) =(L − λ j id X ) k (x) =(λ ′ − λ j ) k xfür jedes k ∈ IN . Da x ein verallgemeinerter Eigenvektor von L zum Eigenwert λ j ist,gibt es k j ∈ IN mit (L − λ j id X ) k j(x) =θ. Also (λ ′ − λ j ) k jx = θ, d.h. λ ′ = λ j .Beispiel 5.22Sei⎛⎜A := ⎝−2 1 11 −2 11 1 −2⎞⎟⎠ ∈ IR 3,3 .In der Standardbasis von IR 3,1 ist bekanntlich A die Matrixdarstellung des EndomorphismusL : IR 3,1 ∋ x ↦−→ Ax ∈ IR 3,1 .Sicherlich sind A 0 <strong>und</strong> A 1 linear unabhängig in IR 3,3 . Weiter istA 2 :=⎛⎜⎝6 −3 −3−3 6 −3−3 −3 6Somit gilt A 2 = −3A. Also ist das Minimalpolynom µ A von A, genauer von L, gegebendurch µ A (z) :=z 2 +3z =(z +3)z,z∈ IR . Als Eigenwerte lesen wir ab: λ 1 =0,λ 2 = −3 .Der Hauptraum H(λ 1 ) wird erzeugt durch den Eigenvektorx 1 :=⎛⎜⎝111⎞⎟⎠ .⎞⎟⎠ .Der Hauptraum H(λ 2 ) wird erzeugt durch die Eigenvektorenx 2 :=⎛⎜⎝01−1⎞⎟⎠ ,x 3 :=Als Konsequenz wissen wir, daß A auf dieser Basis sehr einfach operiert. 2⎛⎜⎝10−1⎞⎟⎠ .


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 124Satz 5.23Sei X ein endlichdimensionaler IK – Vektorraum <strong>und</strong> sei der EndomorphismusL : X −→ X split über IK . Seien λ 1 ,...,λ r ∈ IK die paarweise verschiedenenEigenwerte von L, seien H(λ 1 ),...,H(λ r ) die zugehörigen verallgemeinertenEigenräume <strong>und</strong> seien α 1 ,...,α r ∈ IN die kleinsten Zahlen mitSei das Polynom p erklärt alsDann gilt:(L − λ j id X ) α j(v) =θ für alle v ∈ H(λ j ), 1 ≤ j ≤ r.r∏p(z) := (z − λ j ) α j,z ∈ IK .j=1(a) Der Grad von p ist höchstens gleich der Dimension von X.(b) p ist das Minimalpolynom µ L von L.(c) Ist q ein Polynom mit q(L) =Θ, dann ist µ L ein Teiler von q.Beweis:Zu (a) :Sei 1 ≤ j ≤ r. Wende (a) aus Lemma 5.12 auf X ′ := H(λ j ),L ′ := L |X ′ unter Beachtungvon (b) aus Lemma 5.12 an. Dann ist H(λ j )=Kern(L ′ − λ j id X ′) n′ mit n ′ =dimH(λ j ).Also ist α j ≤ n ′ =dimH(λ j ).∑Nach Satz 5.21 gilt X = H(λ 1 ) ⊕···⊕H(λ r ), alsor α j ≤ dim IK X.Als Vorbereitung zu (b) <strong>und</strong> (c) zeigen wir:Ist q ≠ θ ein Polynom, das über IK in Linearfaktoren zerfällt, mit q(L) =Θ, dannistpein Teiler von q.Sei also q ≠ θ ein Polynom mit q(L) =Θ, das über IK in Linearfaktoren zerfällt. Esgenügt zu zeigen, daß für jedes j ∈{1,...,r} das Polynom (z − λ j ) α jein Teiler von q ist.Sei j ∈{1,...,r}. Da q über IK in Linearfaktoren zerfällt, läßt sich q so schreiben:m∏q(t) =c (z − ξ l ) γ l(z − λ j ) γ ,z ∈ IK ;l=1hierbei sind c, ξ 1 ,...,ξ m ∈ IK ,γ 1 ,...,γ m ∈ IN ,γ ∈ IN 0 ,c≠0.O.E können wir ξ 1 ,...,ξ m ,λ j als paarweise verschieden annehmen.Sei v ∈ H(λ j ). Dann ist nach Satz 5.21 (L − λ j id X ) γ (v) ∈ H(λ j ) <strong>und</strong> wir habenm∏c (L − ξ l id X ) γ l(L − λ j id X ) γ (v) =q(L)(v) =θ.l=1Dam∏c (L − ξ l id X ) γ l| H(λj )l=1injektiv ist, folgt (L − λ j id X ) γ (v) =θ. Da v ∈ H(λ j ) beliebig war, gilt nach Konstruktionvon α j nun α j ≤ γ.j=1


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 125Zu (b) :Da µ L ein Polynom ist, das über IK in Linearfaktoren zerfällt <strong>und</strong> für das µ L (L) =Θgilt, folgt aus der obigen Überlegung, daß p ein Teiler von µ L ist.Sei j ∈{1,...r}. Sei v ∈ H(λ j ). Wir habenr∏− λ l id X )l=1(L α l(v) = ∏ (L − λ l id X ) α l(L − α j id X ) α j(v) =p(L)(v) =θ.l≠jWegen X = H(λ 1 ) ⊕···⊕H(λ r ) folgt damit p(L)(x) =θ für alle x ∈ X, alsop(L) =Θ.Da also p ein Teiler von µ L ist, muß p das Minimalpolynom sein.Zu (c) :Ist deg(q) < deg(µ L ), dann ist q = θ auf Gr<strong>und</strong> der Definition von µ L . Ist deg(q) ≥deg(µ L ), dann erhalten wir mit Division mit Restq = µ L f + rmit Polynomen f,r, wobei deg(r) < deg(µ L )ist.AusΘ = q(L) =µ L (L)f(L)+r(L) =r(L)folgt r(L) =Θ <strong>und</strong> wegen deg(r) < deg(µ L ) schließlich r = θ. Also ist µ L ein Teiler vonq.Definition 5.24Sei X ein endlichdimensionaler IK – Vektorraum <strong>und</strong> sei L : X −→ X einEndomorphismus. Sei λ ∈ IK ein Eigenwert mit zugehörigem verallgemeinertenEigenraum H(λ). Dann heißt β := dim IK H(λ) die Vielfachheit von λ.2Folgerung 5.25Sei X ein endlichdimensionaler IK – Vektorraum <strong>und</strong> sei der EndomorphismusL : X −→ X split über IK . Sind λ 1 ,...,λ r ∈ IK die paarweise verschiedenenEigenwerte mit zugehörigen Vielfachheiten β 1 ,...,β r , dann gilt:Beweis:Folgt aus Satz 5.21.r∑β l =dim IK Xl=1


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 126Definition 5.26Sei X ein endlichdimensionaler IK – Vektorraum <strong>und</strong> sei der EndomorphismusL : X −→ X split über IK . Sind λ 1 ,...,λ r ∈ IK die paarweise verschiedenenEigenwerte von L mit zugehörigen Vielfachheiten β 1 ,...,β r , dann heißt das Polynomr∏χ L(z) := (z − λ l ) β l,z∈ IK ,l=1das charakteristische Polynom von L.2Beispiel 5.27Betrachte erneut⎛⎜A := ⎝−2 1 11 −2 11 1 −2⎞⎟⎠ ∈ IR 3,3(siehe Beispiel 5.22). Man liest aus der Tatsache, daß zum Eigenwert λ 2 = −3 zwei linearunabhängige Eigenvektoren existieren, ab, daß α 2 = 1 <strong>und</strong> β 2 =1ist.Alsoλ 1 =0,α 1 = β 1 =1,λ 2 = −3,α 2 =1,β 2 =2,χ A(z) =(z +3) 2 z,µ A (z) =(z +3)z.2Satz 5.28Sei X ein endlichdimensionaler IK – Vektorraum <strong>und</strong> sei der EndomorphismusL : X −→ X split über IK . Ist χ Ldas charakteristische Polynom von L, sogiltχ L(L) =Θ.Beweis:Seien λ 1 ,...,λ r ∈ IK die (paarweise verschiedenen) Eigenwerte von L mit Vielfachheitenβ 1 ,...,β r ∈ IN . Seien ferner α 1 ,...,α r ∈ IN die kleinsten Zahlen mit(L − λ j id X ) α i| H(λi ) = θ ,1 ≤ i ≤ r.Aus Lemma 5.12 <strong>und</strong> Satz 5.21 wissen wir α j ≤ β j , 1 ≤ j ≤ r. Also ist nach Satz 5.23 dasMinimalpolynom ein Teiler von χ L<strong>und</strong> daher χ L(L) =Θ.Satz 5.28 geht auf A. Cayley zurück; er bewies das Ergebnis nur für n = 2 <strong>und</strong> n = 3. DieVerallgemeinerung – der Skalarkörper ist dann beliebig – wird als Satz von Cayley – Hamiltonbezeichnet.Der obige Satz wird als Satz von Cayley – Hamilton bezeichnet. Im Kapitel überDeterminanten kommen wir darauf zurück, auch von der Anwendungsseite her. Dort habenwir dann auch ein Hilfsmittel bereit, das es erlaubt, das charakteristische Polynom“einfach“ zu finden.


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 127Wir fassen die bisherigen Ergebnisse zusammen:Voraussetzungen <strong>und</strong> Bezeichnungen:• X ein IK – Vektorraum, dim IK X


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 128Sei n := dim IK X. Nach Lemma 5.20 ist jedes x ∈ X ein verallgemeinerter Eigenvektorzum Eigenwert λ =0, also X ⊂ Kern(L n ) nach Lemma 5.12.Wir haben in Abschnitt 2.3verschärfen zuMatrizen von oberer Dreiecksgestalt kennengelernt. WirDefinition 5.31Eine Matrix A ∈ IK n,n von oberer Dreiecksgestalt heißt von strikter oberer Dreiecksgestalt,falls die Elemente in der Diagonalen von A verschwinden.2Lemma 5.32Sei X ein endlichdimensionaler IK – Vektorraum <strong>und</strong> sei L ∈ Hom IK (X, X) nilpotent.Dann besitzt X eine Basis, bezüglich der L eine Matrixdarstellung von strikteroberer Dreiecksgestalt besitzt.Beweis:Wähle eine Basis von Kern(L) <strong>und</strong> erweitere diese Basis zu einer Basis von Kern(L 2 ).Fahre in dieser Weise fort. Da L k = Θ ist für ein k ∈ N, erhält man so eine Basis von X.Klar, bezüglich dieser Basis hat L eine Matrixdarstellung von oberer Dreiecksgestalt.Satz 5.33Sei X ein endlichdimensionaler IK – Vektorraum <strong>und</strong> sei der EndomorphismusL : X −→ X split über IK . Seien λ 1 ,...,λ r ∈ IK die paarweise verschiedenenEigenwerte von L. Dann besitzt X eine Basis bezüglich der L eine MatrixdarstellungA der FormA = diag(D 1 ,...,D r ), (5.4)D i = λ i E + N i ,N i von strikter oberer Dreiecksgestalt, 1 ≤ i ≤ r, (5.5)hat.Beweis :Dies folgt aus Satz 5.21 nach Lemma 5.32.Bemerkung 5.34Der obige Satz stellt eine Normalform eines Endomorphismus bereit: Jeder Endomorphismuskann trianguliert werden. Eine schärfere Normalform stellt die JordanscheNormalform dar. Sie besagt, daß jedes N i in (5.5) in eine Form gebracht werden kann,bei der höchstens in der oberen Nebendiagonalen Einträge von Null verschieden sind; fallssie von Null verschieden sind, sind es Einsen. Diese Normalform werden wir im folgendenAbschnitt ableiten. 2Liegt eine Matrixdarstellung A eines Endomorphismus L : X −→ X in der Form (5.4),(5.5) vor, dann liest man die Eigenwerte von L in der Diagonalen von A direkt ab.


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 1295.3 Jordansche NormalformWir wollen nun eine Normalform beweisen, die die gewünschte Verschärfung der Triangulierungdarstellt. Dazu zunächst eineBezeichnung: Sei IK ein Körper, sei σ ∈ IK . Eine Matrix⎛⎞σ 1 0 ··· 00 σ 1.. . .J k (σ) :=. . . ... ... . 0∈ IK k,k⎜⎝ ... ... ⎟ . 1 ⎠0 ··· ··· 0 σmit J 1 (σ) :=(σ) ∈ IK 1,1 wird als Jordanblock bezeichnet.in der Diago-Eine Matrix J := diag(J k1 , ..., J kr ) ∈ IK n,n mit Jordanblöcken J k1 ,...,J krnale wird Jordanmatrix genannt.Die Jordansche Normalform stellt einen Höhepunkt der <strong>Lineare</strong>n <strong>Algebra</strong> dar. In seinen “Traitédes substitutions“ hat C. Jordan (1838 – 1922) sich mit der Frage beschäftigt, wann zwei Matrizenmit Einträgen aus ZZ p kommutieren. Dazu führte er eine Normalform von Matrizen ein. Späterübertrug er die Methode auf ′C <strong>und</strong> wendete die Normalform bei linearen Differentialgleichungenan. (Wir werden dies später auch tun.)Definition 5.35Sei A ∈ IK n,n .Aheißt split über IK , wenn der EndomorphismusT A : X := IK n,1 ∋ x ↦−→ Ax∈ IK n,1 =: Yschreiben wir kurz µ A <strong>und</strong> nennen µ A das Minimalpo-split über IK ist. Statt µ TAlynom von A.2Der folgende Satz stellt die Jordansche Normalform bereit:Satz 5.36Sei A ∈ IK n,n split über IK , dann gibt es eine nichtsinguläre Matrix P ∈ IK n,n ,sodaß J := P −1 AP eine Jordanmatrix ist.Beweis:Der Satz ist offenbar bewiesen, wenn wir in IK n,1 eine Basis finden können, so daß dielineare AbbildungT A : X := IK n,1 ∋ z ↦−→ Az ∈ IK n,1 =: Yvon der wir wissen, daß sie split über IK ist, bzgl. dieser Basis (in X <strong>und</strong> Y )eineJordanmatrixals darstellende Matrix besitzt. Wir beweisen die Existenz einer solchen Basis


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 130– wir nennen sie Jordanbasis – mit vollständiger Induktion nach n.Der Fall n = 1 ist trivial. Der Induktionsschluß sieht so aus (n >1):Sei λ ∈ IK ein Eigenwert von A; die Existenz ist klar, da T A split über IK ist. SetzeB := A − λE. Nun sieht man:• B ist nicht injektiv, d.h. Kern(B) ≠ {θ}, dim Bild(B)


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 131B p−1 x p,p,j = x p,1,jx p,p−1,j := Bx p,p,jB p−2 x p−1,p−1,j = x p−1,1,jx p,p−2,j := B 2 x p,p,j x p−1,p−2,j := Bx p−1,p−1,j B p−3 x p−2,p−2,j = x p−2,1,j...x p,2,j := B p−2 x p,p,j x p−1,2,j := B p−2 x p−1,p−1,j x p−2,2,j := B p−2 x p−2,p−2,jx p,1,j , 1 ≤ j ≤ l p x p−1,1,j , 1 ≤ j ≤ l p−1 x p−2,1,j , 1 ≤ j ≤ l p−2 ... x 1,1,j , 1 ≤ j ≤ l 1S p S p−1 S p−2 ... S 1β p β p−1 β p−2 ... β 1Beachte, daß nach Konstruktion β := ∪ p i=1β i eine Teilmenge von Kern(B p )ist.Ergänze β durch eine Basis β 0 := {x 0,0,j |j =1,...,l 0 } von Bild(B p ). Damit haben wirnun β p ,...,β 1 ,β 0 gewählt.Wir habenp∑ p∑ t∑ p∑ p∑ p∑tl t = l t = l j = dim S j .t=1Nun gilt mit Folgerung 4.20t=1 j=1j=1 t=jdim S j =dim(Bild(B j−1 ) ∩ Kern(B)) = dim Kern(B j ) − dim Kern(B j−1 ) ,j=1,...,p,alsop∑l 0 + dim(S j )=dim IK Bild(B p )+dim IK Kern(B p )=dim IK IK n,1 .j=1Aus der Dimensionsformel 4.39 folgt, daß wir nun eine Basis von IK n,1 haben, wenn dieso gef<strong>und</strong>ene Menge von Vektoren linear unabhängig ist. Seif +p∑t∑l t ∑t=1 i=1 j=1j=1d t,i,j x t,i,j = θ (5.6)mit f ∈ Bild(B p ). Wende B p auf (5.6) an. Dann folgt B p (f) =θ aus der Konstruktionvon β p ,...,β 1 . Da wegen B p (Bild(B p )) = Bild(B p )B p | Bild(B p ) : Bild(B p ) −→ Bild(B p ) ,surjektiv <strong>und</strong> damit auch injektiv ist, ist Kern(B p | Bild(B p ))={θ}. Also ist f = θ. Wendenun sukzessvie B k ,k = p − 1,...,1 auf (5.6 ) an. Wir erhalten so, daß alle Koeffizientend t,i,j der Linearkombination verschwinden. Damit ist die lineare Unabhängigkeit gezeigt.Betrachte nun G := B| Bild(B p ). Wegen Bild(B p+1 )=Bild(B p )habenwirG : Bild(B p ) −→ Bild(B p ).


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 132Da Bild(B p ) ein echter Teilraum von IK n,1 ist, besitzt nach Induktionsannahme die AbbildungG : Bild(B p ) −→ Bild(B p )eine Jordanbasis v 1 ,...,v s . Diese Jordanbasis v 1 ,...,v s stellt nun zusammen mit den Vektorenaus β p ,...,β 1 eine Jordanbasis in X = IK n,1 dar, da IK n,1 = Bild(B p ) ⊕ Kern(B p )gilt; siehe Aussage über G.Damit ist der Induktionsschluß abgeschlossen <strong>und</strong> der Beweis erbracht.Bemerkung 5.37Wir haben oben den “kurzen“ Beweis der Jordanschen Normalform nach H. Väliaho 1 wiedergegeben.Dies ist ein gewisser Endpunkt in einer Reihe von “elementaren“ Beweisenzur Jordanschen Normalform.Die Jordansche Normalform J einer Matrix A ∈ IK n,n ist bis auf die Reihenfolge derJordanblöcke in J eindeutig bestimmt. Wir verzichten auf den Beweis. 25.4 KomplexifizierungBisher haben wir an entscheidenden Stellen stets vorausgesetzt, daß die vorliegende Abbildungsplit war; im Skalarkörper ′C ist dies sichergestellt. Wir wollen nun einen “Trick“beschreiben, der uns hilft, entsprechende Resultate auch für den Skalarkörper IR abzuleiten.Sei X ein Vektorraum über dem Skalarkörper IR . Wir definieren einen Vektorraum X ′Cüber dem Skalarkörper ′C , der die Komplexifizierung von X genannt wird, durchX ′C := {x + iy|x, y ∈ X},wobei Addition <strong>und</strong> skalare Multiplikation folgendermaßen erklärt sind:(x + iy)+(x ′ + iy ′ ) := (x + x ′ )+i(y + y ′ ),x,y,x ′ ,y ′ ∈ X,(α + iβ)(x + iy) := (αx − βy)+i(αy + βx),α,β ∈ IR,x,y ∈ X(Eigentlich sollten wir X ′C zunächst als Tupelraum erklären wie dies auch bei der Einführungvon ′C ausgehend von IR geschehen ist. Die Vorgehensweise ist uns aber schon vertraut.)Wir “finden“ den Vektorraum X wieder als TeilraumU := {x + iy|x ∈ X, y = θ}.Ist nun {x 1 ,...,x m } eine Basis des reellen Vektorraumes X, soistoffenbar{x 1 ,...,x m }auch eine Basis des komplexen Vektorraums X ′C , d.h. dim IR X =dim ′C X ′C .Seien X, Y Vektorräume über IR <strong>und</strong> seien X ′C ,Y ′C die Komplexifizierungen. Ist dannL : X −→ Y eine IR – lineare Abbildung, dann wird durchL ′C : X ′C ∋ x + iy ↦−→ L(x)+iL(y) ∈ Y ′C1 H. Väliaho: An elementary approach to the Jordan form of a matrix, Amer. Math. Monthly 93 (1986),711 – 714


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 133offenbar eine ′C – lineare Abbildung definiert. Wählen wir eine Basis in X, Y <strong>und</strong> betrachtenwir diese Basen auch als Basen in X ′C ,Y ′C (siehe oben), so stimmen die Matrixdarstellungenvon L <strong>und</strong> der Komplexifizierung L ′C überein.Sei X ein Vektorraum über IR <strong>und</strong> sei L : X −→ X eine IR – lineare Abbildung mitKomplexifizierung L ′C : X ′C −→ X ′C . Ist λ ∈ IR ein Eigenwert von L ′C ,dannistλ auchein Eigenwert von L, dennausL ′C (x + iy) =λ(x + iy)folgtLx = λx, Ly = λy.Ist λ = α + iβ ∈ ′C ein Eigenwert von L ′C , dann ist auch λ := α − iβ ∈ ′C ein Eigenwertvon L ′C ; genauer gilt für k ∈ IN(L ′C − λid X ) k (x + iy) =θgenau dann, wenn(L ′C − λid X ) k (x − iy) =θgilt.Man beweist dies mit vollständiger Induktion. Ist also λ ∈ ′C ein Eigenwert von L ′C mitVielfachheit β, so ist die Vielfachheit von λ ∈ ′C auch β. Da die Summe der Vielfachheitender Eigenwerte von L ′C die Dimension von X ′C also, auch von X ergibt, besitzt L, fallsdie Dimension von X ungerade ist, einen Eigenwert in IR .Folgerung 5.38Sei X ein IR – Vektorraum <strong>und</strong> sei L : X −→ X IR – linear. Ist die Dimensionvon X ungerade, dann besitzt L einen reellen Eigenwert.Beweis:Siehe obige Herleitung. .Das Minimalpolynom <strong>und</strong> charakteristische Polynom von L sind definiert als Minimalpolynombzw. charakteristisches Polynom der Komplexifizierung L ′C von L. Beide Polynomehaben offenbar reelle Koeffizienten. Da ein Polynom ungeraden Grades mit reellen Koeffizientenstets eine reelle Nullstelle besitzt – dies ist eine einfache Folgerung aus demZwischenwertsatz für stetige Funktionen –, folgt das Resultat aus Folgerung 5.38 erneut.5.5 Einführung der DeterminanteAbschließend führen wir auf die nächsten Kapitel hin, in denen wir uns mit Determinantenin ihrer algebraischen Darstellung beschäftigen wollen.Bezeichnung: Zu x =(x 1 ,...,x n ) ∈ ′C n setzen wir ¯x := (¯x 1 ...,¯x n ), wobei mit ū die zuu komplex konjugierte Zahl gemeint ist.


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 134Aus dem Kapitel über Euklidische Vektorräume nehmen wir vorweg:Definition 5.39(a) Die Abbildung< ·, · > : ′C n ×′C n ∋ (x, y) ↦−→ ¯x t y ∈ ′Cheißt das euklidische Skalarprodukt auf ′C n .(b) Zwei Vektoren x, y ∈ ′C n heißen orthogonal, falls =0gilt.2Die Einschränkung des euklidischen Skalarprodukts auf IR n × IR n bezeichnen wir als euklidischesSkalarprodukt in IR n . Es ist damit klar, daß wir von Orthgogonalität auch inIR n reden können.Betrachte nun den Fall, daß eine Matrix A ∈ IR n,n , aufgefaßt als lineare AbbildungT A : IR n ∋ x ↦−→ Ax ∈ IR n ,nur reelle Eigenwerte {λ 1 ,...,λ n } besitzt <strong>und</strong> eine Basis von Eigenvektoren {x 1 ,...,x n }in IR n bestimmt. Sind diese Eigenvektoren paarweise orthogonal, dann ist das “Volumen“des Quadersn∑Q := { a j x j |0 ≤ a j ≤ 1, 1 ≤ j ≤ n}j=1gleich⎛ ⎞1/2n∏⎝ (x j ) t x j ⎠ ,j=1während das Volumen des Bildes⎧⎫⎨ n∑⎬L(Q) := a⎩ j L(x j )|0 ≤ a j ≤ 1, 1 ≤ j ≤ n⎭von Q unter L sich alsj=1⎛⎞1/2n∏⎝ λ j (x j ) t λ j x j ⎠j=1ergibt. Also ist der “Streckungsfaktor“ das Produktwir zum Anlaß für 2n ∏j=1|λ j |. Diese Beobachtung nehmen2 Im Abschnitt 5.2 haben wir uns von dem Aufsatz “Down with determinants!“ von S. Axler ausAmerican Math. Monthly 1995 leiten lassen.


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> I / Stand: August 1996 135Definition 5.40Sei X ein IK – Vektorraum <strong>und</strong> sei der Endomorphismus L : X −→ X split überIK . Seien λ 1 ,...,λ r ∈ IK die Eigenwerte von L mit Vielfachheiten β 1 ,...,β r . Dannheißtdie Determinante von L.det(L) :=r∏i=1λ β ii2Folgerung 5.41Sei X ein endlichdimensionaler IK – Vektorraum <strong>und</strong> sei der EndomorphismusL : X −→ X split über IK . Dann sind äquivalenta) L ist injektiv.b) L ist bijektiv.c) det(L) ≠0.Beweis:Zu a) ⇐⇒ b) : Siehe Folgerung 4.19Zu a) ⇐⇒ c) : Offensichtlich.Lemma 5.42Sei X ein endlichdimensionaler IK – Vektorraum <strong>und</strong> sei der EndomorphismusL : X −→ X split über IK . Dann ist das charakteristische Polynom χ Lvon Lgegeben durchχ L(z) :=det(zid X − L),z ∈ IK .Beweis:Seien λ 1 ,...,λ r ∈ IK die paarweise verschiedenen Eigenwerte von L mit Vielfachheitenβ 1 ,...,β r . Also sind die Eigenwerte von zid X − L gegeben durch z − λ 1 ,...,z− λ r mitVielfachheiten β 1 ,...,β r . Also giltm∏det(zid X − L) = (z − λ j ) β j.j=1Bemerkung 5.43Wir wissen nun, daß sich die Eigenwerte einer Matrix A ∈ IK n,n aus der Polynomgleichungdet(zid X − A) =0berechnen lassen, vorausgesetzt, das Minimalpolynom ist split über IK . Diese Gleichungentspricht der Gleichung, an die wir schon im Anschluß an die Definition der Eigenwerteüber die Gaußsche Elimination herangeführt hatten. Im Kapitel über Determinanten werdenwir auf die “lästige“ Voraussetzung, daß A split über IK ist, auf der Berechnungsseiteverzichten können. 2


Kapitel 6<strong>Geometrie</strong><strong>Geometrie</strong> ist die mathematische Behandlung anschaulich motivierter Strukturen. Hierverschaffen wir uns lediglich einen Überblick über verschiedene Ausprägungen von <strong>Geometrie</strong>:Euklidische, affine, projektive <strong>Geometrie</strong>.6.1 <strong>Geometrie</strong>, Symmetrie, InvarianzEs lassen sich drei Entwicklungsphasen der <strong>Geometrie</strong> erkennen:Die erste Phase führte zur synthetischen <strong>Geometrie</strong>. Hier werden die Strukturen ohneBezüge zu anderen Disziplinen direkt oder rein geometrisch“ in einer eigenen Axiomatik”eingeführt, in der nur mengentheoretisch deutbare Operationen ( Verbinden“,” ” Schneiden“)vorkommen.DiezweitePhaseführte zur <strong>Analytische</strong>n <strong>Geometrie</strong>, in der man sich der Sprache derlinearen <strong>Algebra</strong> bedient. Punkte <strong>und</strong> geometrische Figuren der synthetischen <strong>Geometrie</strong>werden durch Koordinaten bzw. Gleichungen in den Koordinaten gegeben. Die Resultatewerden erzielt durch algebraisches Rechnen mit den Gleichungen. In ihrer modernenFortentwicklung ist die analytische <strong>Geometrie</strong> zu dem geworden, was heute mit der <strong>Algebra</strong>ischen<strong>Geometrie</strong> umschrieben wird.Die dritte Phase läßt sich schließlich in der Entwicklung der Differentialgeometriefestmachen. Hier bedient man sich auch der Sprache der Analysis, <strong>und</strong> zwar u.a. zur Beschreibungvon Tangenten an Kurven <strong>und</strong> Flächen, Arbeitsmittel sind Ableitung“ <strong>und</strong>”Integral“ . Für die mathematische Physik ist dieser Entwicklungszweig der <strong>Geometrie</strong>”besonders fruchtbar (Hamiltonsche Mechanik, Relativitätstheorie).Spezielle <strong>Geometrie</strong>n sind die euklidische <strong>Geometrie</strong>, dieaffine <strong>Geometrie</strong> <strong>und</strong> dieprojektive <strong>Geometrie</strong>. Zur <strong>Geometrie</strong> wird man im allgemeinen auch die Topologieoder aber zumindest Teile der algebraischen Topologie <strong>und</strong> Differentialtopologie zählen.Auf eine Axiomatik der <strong>Geometrie</strong> gehen wir nicht ein. Als Leitlinie bevorzugen wir dieEinordnung unter das Erlanger Programm von F. Klein. Die geometrischen Strukturenwerden danach geordnet, welche Transformationsgruppen mit ihnen verträglich sind. DasZiel einer bestimmten <strong>Geometrie</strong> ist dann, solche Sätze aufzustellen, die gegenüber der136


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 137betreffenden Gruppe invariant sind. Als Beispiel haben wir die ”lineare <strong>Geometrie</strong>“ in derGestalt der Theorie der Vektorräume betrieben; die Transformationsgruppe ist hier dieallgemeine lineare Gruppe (siehe unten). Die nun zur Sprache kommenden <strong>Geometrie</strong>nfügen neue Strukturen zur Struktur der Vektorräume mit ihren linearen Abbildungen hinzu.Eng verknüpft mit der <strong>Geometrie</strong> ist der Begriff der Symmetrie.Symmetrie, ob man ihre Bedeutung weit oder eng faßt, ist eine Idee, vermöge derer der Menschdurch Jahrtausende seiner Geschichte versucht hat, Ordnung, Schönheit <strong>und</strong> Vollkommenheit zubegreifen <strong>und</strong> zu schaffen.H.Weyl, 1885–1955.Vor dem eigentlichen, mathematisch gefaßten Begrif der Symmetrie sollen einige bekannteBeispiele von Symmetrien erwähnt werden:Spiegelsymmetrie: Es handelt sich um die einfachste“ Symmetrie, für den Nichtfachmannmit der Symmetrie allgemein gleichgesetzt. Invariant unter Achsenspiegelung sind”etwa Strecken, Quadrate <strong>und</strong> Kreise in passender Lage.Allgemeine diskrete Symmetrien: Hierher gehören Symmetriebetrachtungen von/anregelmäßigen Figuren in IR 2 oder Körpern in IR 3 . Ebenfalls hierher gehören Symmetrienvon Ornamenten <strong>und</strong> Parkettierungen.Höhere <strong>Geometrie</strong>n: Hierunter faßt man Symmetriebetrachtungen, die sich bevorzugtschon in abstrakten Strukturen bewegen. Etwa: Ähnlichkeitstransformationen der euklidischenEbene, Drehungen des euklidischen Raumes IR n , Transformationsgruppen in derQuantenmechanik (Spin, ...).Als geeignetes mathematisches Werkzeug zur Beschreibung von Symmetrien erweist sichder Gruppenbegriff. Der Zusammenhang zwischen dem Gruppenbegriff <strong>und</strong> dem Begriffder Symmetrie ist der folgende: Symmetrie im mathematischen Sinne wird zunächst durchSymmetrietransformationen beschrieben. Eine Symmetrietransformation eines Objektesist eine Transformation, d.h. eine bijektive Abbildung auf diesem Objekt, welche dasObjekt im Sinne einer vorher festgelegten Struktur nicht verändert: das Objekt ist bezogenauf die Struktur invariant (unveränderlich) unter der Transformation. Zum Beispielkann es sich um eine algebraische Struktur wie Gruppenstruktur oder Vektorraumstrukturhandeln. In diesem Falle heißen solche strukturerhaltenden Transformationen Automorphismen.Wichtig ist, daß die Symmetrietransformationen eines Objektes mit vorgegebener Struktureine Gruppe bilden. Diese Gruppe ist umso größer je symmetrischer das Objekt ist.Im Falle der Vektorraumstruktur etwa ist diese Symmetriegruppe die allgemeine lineareGruppe (siehe unten).


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 138Invarianz <strong>und</strong> Symmetrie sind Leitprinzipien mathematischer Ästhetik. Sie sind komplementäreBegriffe: Etwas ist in dem Maße symmetrisch, wie es invariant (unveränderlich) ist, wenn es einergewissen Transformation unterworfen wird. Einsteins Relativitätstheorie resultiert aus der Vorstellung,daß die physikalischen Gesetze invariant unter der sogenannten Lorentz–Transformation seinsollten. A. Einstein (1879 – 1955) dachte sogar daran, seine Relativitätstheorie Invariantentheoriezu nennen.Werden wir nun mathematisch. Wir haben die Begriffe Symmetrietransformation, Invarianz<strong>und</strong> Struktur zu erläutern.Definition 6.1Sei (G, •) eine Gruppe mit Einselelement e <strong>und</strong> sei M eine nichtleere Menge.Eine Wirkung von G auf M ist eine Abbildung φ : G × M −→ M mitφ(e, m)=m, φ(x, φ(y, m)) = φ(x • y, m)für alle x, y ∈ G, m ∈ M. (G, φ) heißt dann Transformationsgruppe auf M <strong>und</strong>man sagt: G wirkt von links auf M (durch φ).2Folgerung 6.2Sei (G, φ) Transformationsgruppe auf M.(a) Für jedes x ∈ G ist die Abbildungφ x : M ∋ m ↦−→ φ(x, m) ∈ Mbijektiv, d.h. φ x ∈ S(M).(b) Die Abbildung˜φ : G ∋ x ↦−→ φ x ∈ S(M)ist ein Gruppenhomomorphismus, d.h.Beweis:Zu (a) :Seix ∈ G.Injektivität: Seien m, m ′x −1 von x :˜φ(x • y) =˜φ(x) ◦ ˜φ(y),x,y∈ G.∈ M mit φ(x, m) = φ(x, m ′ ). Dann gilt mit dem Inversenm = φ(e, m) =φ(x −1 • x, m) =φ(x −1 ,φ(x, m)) == φ(x −1 ,φ(x, m ′ )) = φ(x −1 • x, m ′ )=φ(e, m ′ )=m ′ .Surjektivität: Sei m ∈ M. Dann giltm = φ(e, m)=φ(x • x −1 ,m)=φ(x, φ(x −1 ,m)) == φ(x, m ′ ) mit m ′ := φ(x −1 ,m).


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 139Zu (b) :Seien x, y ∈ G . Dann folgt für alle m ∈ M :φ x•y (m) = φ(x • y, m) =φ(x, φ(y, m)) == φ x (φ(y, m)) = φ x (φ y (m)) = (φ x ◦ φ y )(m).Beispiel 6.3Sei G die additive Gruppe IR <strong>und</strong> sei M := IR 2 . Wir setzenΦ(t, x) :=(e t x 1 ,e −t x 2 ) ,t∈ IR,x=(x 1 ,x 2 ) ∈ IR 2 ,<strong>und</strong> haben damit eine Wirkung auf IR 2 erklärt, denn Φ(0,x)=x <strong>und</strong>Φ(t, Φ(s, x)) = Φ(t, (e s x 1 ,e −s x 2 ))= (e t e s x 1 ,e −t e −s x 2 )= (e (t+s) x 1 ,e −(t+s) x 2 )= Φ(t + s, x) .(Die Variable in der additiven Gruppe IR haben wir mit t, s bezeichnet. Damit tragenwir der liebgewordenen Gewohnheit Rechnung, im Kontext, wo eine physikalische Zeitauftritt, diese mit t,s,... zu bezeichnen. In der Tat stellt die Wirkung Φ nichts anderesdar als den Fluß einer Bewegung eines Teilchens in der Ebene: Φ(t, x) ist die Positiondes Teilchens zur Zeit t, das zur Zeit t = 0 in der Position x war. Diese Bewegung wirdbeschrieben durch das Differentialgleichungssystemy ′ 1 = y 1 ,y 1 (0) = x 1 ,y ′ 2 = y 2 ,y 2 (0) = x 2 .In der Theorie der dynamischen Systeme kommt zur “algebraischen“ Forderung an eineWirkung noch eine topologische Forderung hinzu, nämlich die Stetigkeit von Φ.) 2Die obige Folgerung (b) kann man so interpretieren, daß die Vorgabe einer Transformationsgruppe(G, φ) gleichbedeutend mit der Festlegung eines Gruppenhomomorphismusϕ von G nach S(M) ist. Jeder Gruppenhomomorphismus ϕ : G −→ S (M) induziertnämlich durchφ(x, m) :=ϕ(x)(m),x∈ G, m ∈ M,eine Wirkung von φ von G auf M.Definition 6.4Sei M eine nichtleere Menge. Dann heißt jede Untergruppe von S(M) eineSymmetrie-Gruppe.2Zur Erinnerung: Eine nichtleere Teilmenge U von G heißt Untergruppe von (G, •), fallsmit x, y ∈ U stets auch xy −1 ∈ U gilt.


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 140Ist U eine Symmetriegruppe auf M –derFallU = S(M) istzugelassen–,dannwirdalsodurchφ U : U × M ∋ (u, m) ↦−→ u(m) ∈ Meine Wirkung auf M definiert. Im allgemeinen spricht man von kontinuierlichen Symmetriegruppen,wenn #M = ∞ ist, sonst von diskreten Symmetriegruppen.Ihre Bedeutung erhalten ausgezeichnete Symmetriegruppen dadurch, daß sie zu gewissenStrukturen passen. Den Strukturbegriff wollen wir hier nicht definieren, in Beispielen wirddeutlich werden, was wir meinen.Beispiel 6.5Sei V ein IK –Vektorraum. Die Gruppe GL(V ):={L ∈S(V )|L IK –linear} der Isomorphismenauf V nennen wir die zur linearen Struktur passende Symmetriegruppe.Beispiel 6.6Sei M eine nichtleere Menge. Die “volle“ Symmetriegruppe S(M) nennen wir zur leerenStruktur passend. “Leere Struktur“ sagen wir, weil ein f ∈S(M) ohne weitere Überprüfungeiner Vorgabe anderer Art zur Symmetriegruppe gehört.Ein wichtiges Beispiel, das vor allem in der Theorie der Mannigfaltigkeiten von Interesseist, istBeispiel 6.7Sei M ⊂ IR n offen. 1 Die GruppeDiff(M) :={f ∈S(M)|f,f −1 differenzierbar}der Diffeomorphismen von M nennen wir die zur differenzierbaren Struktur auf Mpassende Symmetriegruppe. (Der Satz über implizite Funktionen hat eine große Bedeutungbei der Untersuchung von Diffeomorphismen.)Beispiel 6.8Betrachte in IR 2 die regelmäßigen Polygone (regelmäßige Vielecke) im Einheitskreis mitθ als Mittelpunkt. Ein solches Polygon P n mit n Ecken läßt sich durch die EckpunkteM n := {p 1 , ..., p n }⊂P n repräsentieren. Symmetriegruppen, die zu diesen symmetrischenFiguren passen, sind dann beschrieben durch Untergruppen von S(M n ), die das PolygonP n in sich überführen <strong>und</strong> die Abstände zwischen den Endpunkten erhalten. 2Der Fall n = 3 ist schnell klar. Hier ist die volle“ Gruppe S(M ” 3 ) die passende Symmetriegruppe(3 Drehungen, 3 Spiegelungen).1 M heißt offen, wenn es zu jedem m ∈ M einen Würfel W := (a 1 ,b 1 ) ×···× (a n ,b n )gibtmitm ∈ W ⊂ M.√n∑2 Der (euklidische) Abstand d(x, y) zwischenx, y ∈ IR n ist erklärt als d(x, y) := (x i − y i ) 2 .i=1


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 141Im Fall n = 4 stellt man schon fest, daß die volle“ Gruppe S(M ” 4 ) nicht die passendeSymmetriegruppe ist, etwa ist die Permutation( )1 2 3 4π =4 3 1 2nicht zulässig.Für n ≥ 4 ist die sogenannte Diedergruppe D n ⊂S(M n ) die passende Symmetriegruppe.Sie enthält als Untergruppe ZZ n (Drehungen um den Winkel 2π n k ) <strong>und</strong> n Spiegelung.Eine genauere Betrachtung zeigt, daß D n genau diese 2n Elemente enthält. D n ist nichtkommutativ <strong>und</strong> nicht isomorph zu ZZ 2 × ZZ n ! (Dies bedeutet, daß es keine bijektiveAbbildung von D n nach ZZ 2 × ZZ n gibt, bei der die Gruppenoperationen mit der Abbildungsvorschriftverträglich sind.)Die topologische Struktur wollen wir nur am Spezialfall der metrischen Struktur erläutern.Dazu benötigen wirDefinition 6.9Sei M eine nichtleere Menge. Eine Abbildungd : M × M ∋ (x, y) ↦−→ d(x, y) ∈ IRheißt Metrik (auf M), falls gilt:(a) d(x, y) =0genau dann, wenn x = y.(b) d(x, y) =d(y,x) ∀x, y ∈ M(c) d(x, y) ≤ d(x, z)+d(z,y) ∀x, y ∈ MDas Paar (M, d) heißt dann metrischer Raum.(Definitheit)(Symmetrie)(Dreiecksungleichung)2Wir werden eine Reihe von Beispielen für metrische Räume kennenlernen. Das zunächstwichtigste Beispiel ist der IR n zusammen mit der Metrik, die vom euklidischen Abstandinduziert wird (siehe Abschnitt 6.2).Beispiel 6.10Sei (M, d) ein metrischer Raum.Die Abbildungen, die zur metrischen Struktur passen, sind die Isometrien, d.h. die zugehörigeSymmetriegruppe istISO(M, d) :={f ∈S(M)| d(x, y) =d(f(x),f(y)) ∀x, y ∈ M}2


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 142Nun können wir wohl erläutern, was das von F. Klein im Jahre 1872 formulierte ErlangerProgramm zum Inhalt hat: Es ist eine Menge <strong>und</strong> eine Transformationsgruppe gegeben;untersuche die der Menge angehörenden“ Gebilde auf Eigenschaften, die durch die””Transformationsgruppe nicht geändert werden.“ Gegenüber der Definition einer Symmetriegruppehat sich der Blickpunkt vollkommen umgedreht: Gegeben ist nicht eineStruktur <strong>und</strong> eine dazu passende Symmetriegruppe, sondern vorgegeben ist eine Transformationsgruppe,welche eine Struktur auf M, zu der dann die Transformationsgruppedie passende Symmetriegruppe ist, erst definiert.Nach dem Standpunkt von F. Klein sind also nicht die geometrischen Größen wie Abstand,Winkel,...die Gr<strong>und</strong>größen der <strong>Geometrie</strong>, sondern das f<strong>und</strong>amentale Objekt der<strong>Geometrie</strong> ist die Transformationsgruppe als Symmetriegruppe; die geometrischen Größenergeben sich daraus.6.2 Der Euklidische RaumBeginnen wir mit der euklidischen Ebene IR 2 . Die euklidische Struktur auf M := IR 2 wirddurch die euklidische Metrik (auch euklidischer Abstand genannt)d(x, y) :=√(x 1 − y 1 ) 2 +(x 2 − y 2 ) 2definiert. (Daß eine Metrik vorliegt, zeigen wir unten in einer allgemeineren Situation.)Offenbar sind alle TranslationenT b : IR 2 ∋ x ↦−→ x + b ∈ IR 2 (b ∈ IR 2 )strukturerhaltend, d.h. abstandserhaltend. Ferner sind es alle Rotationen( )cos ϕ − sin ϕR ϕ : IR 2 ∋ x ↦−→ A ϕ x ∈ IR 2 ,A ϕ :=,sin ϕ cos ϕum den Winkel ϕ ∈ [0, 2π).Wir fassen zusammen:T := {T b |b ∈ IR 2 }, SO(2) := {R ϕ |ϕ ∈ [0, 2π)}Beide Mengen sind Gruppen bzgl. der Hintereinanderausführung:T a ◦ T b = T a+b ,R ϕ ◦ R ψ = R ϕ+ψ .Die euklidische Gruppe E(2) sei die kleinste Untergruppe von S(IR 2 ), die T <strong>und</strong> SO(2)enthält. Diese Gruppe ist eine Symmetriegruppe der euklidischen Struktur. Da auch dieSpiegelungenS 1 : IR 2 ∋ (x, y) ↦−→ (y, x) ∈ IR 2 ,S 2 : IR 2 ∋ (x, y) ↦−→ (−x, y) ∈ IR 2strukturerhaltend sind, ist eine weitere Symmetriegruppe der euklidischen Struktur gegebendurch die kleinste Untergruppe E ∗ (2) von S(IR 2 ), die T , SO(2) <strong>und</strong> S 1 ,S 2 enthält.Die Elemente von E(2) werden als (euklidische) Bewegungen bezeichnet.


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 143Nun betrachten wir den n – dimensionalen Fall.Definition 6.11(a) Die Abbildungn∑d 2 : IR n × IR n ∋ (x, y) ↦−→ |x − y| := ( (x i − y i ) 2 ) 1 2 ∈ IRi=1heißt euklidische Metrik.(b) Die Abbildung|·|: IR n ∋ x ↦−→ d 2 (x, θ) ∈ IRheißt euklidische Norm.(c) Die Abbildung< ·, · > : IR n × IR n ∋ (x, y) ↦−→n∑x i y i ∈ IRi=1heißt euklidisches Skalarprodukt.2Lemma 6.12Es gilt:(a) |x| ≥0 ,= |x| 2 für alle x ∈ R n .(b) | |≤|x||y| für alle x, y ∈ R n .(c) 1. |x| =0genau dann, wenn x = θ. (Definitheit)2. |ax| = |a||x| für alle a ∈ IR,x∈ IR n . (Homogenität)3. |x + y| ≤|x| + |y| für alle x, y ∈ IR n . (Dreiecksungleichung)Beweis:Zu (a) :KlarZu (b) :Seien x, y ∈ IR n .Isty = θ, dann ist die Aussage schon klar. Sei also nun y ≠ θ.Offenbar gilt 0 ≤ für alle a ∈ IR , alsoSetze a :=< x,y> −1 . Dann folgt0 ≤ −2a +a 2 .0 ≤ − 2 ,


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 144woraus wir die Aussage nun ablesen.Zu (c) :Nur die letzte Ungleichung ist nicht offensichtlich. Seien x, y ∈ IR n . Es gilt mit (b)|x + y| 2 = =< x,y>+2 + ≤ |x| 2 +2|x| |y| + |y| 2= (|x| + |y|) 2<strong>und</strong> die Aussage ist bewiesen.Bemerkung 6.13Die Ungleichung aus (b) in Lemma 6.12 ist die Cauchy-Schwarzsche Ungleichung.Die Eigenschaften aus (c) belegen, daß die Abbildungd 2 : IR n × IR n ∋ (x, y) ↦−→ |x − y| ∈IRtatsächlich eine Metrik im Sinne von Definition 6.9 darstellt. Wir sprechen dabei auchvom euklidischen Abstand.2Wie sehen die Symmetriegruppen auf dem euklidischen Raum IR n (also IR n versehen mitder euklidischen Struktur) aus? Dazu folgende Bezeichnungen:O(n) :={A ∈ IR n,n |A t A = AA t = E} , SO(n) :={A ∈O(n)| det(A) =1}.Hierbei sei an die Einführung der Determinante aus Abschnitt 5.5 erinnert. Da wir nochnicht über den Determinantensatz det(AB) =det(A)det(B) verfügen, können wir nochnicht elementar nachweisen, daß O(n) <strong>und</strong> SO(n) Gruppen sind. SO(n) heißtspezielleorthogonale Gruppe; siestehtfür die Rotationen in der euklidischen Ebene. Die euklidischeGruppe E(n) wird definiert als diejenige Untergruppe von S(IR n ), welche vonSO(n) <strong>und</strong> der Gruppe der TranslationenT := {T b |b ∈ IR n } (T b (x) :=b + x, b ∈ IR n ,x∈ IR n )erzeugt wird. Die volle Symmetriegruppe, d.h. die Gruppe, die zur euklidischen Strukturgehört, ist nicht sehr viel größer als E(n); dazuSatz 6.14Jedes f ∈S(IR n ), welches den euklidischen Abstand invariant läßt, d.h.|f(x) − f(y)| = |x − y| für alle x, y ∈ IR n ,ist nach Identifikation von IR n mit IR n,1 von der Form f = T b ◦ A mit A ∈O(n)<strong>und</strong> b ∈ IR n,1 ; b <strong>und</strong> A sind dabei eindeutig bestimmt.Beweis:


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 145Sei zunächst f(θ) =θ. Wir zeigen, daß f linear ist.Nach Voraussetzung gilt|f(x)| = |f(x) − θ| = |x − θ| = |x|für alle x ∈ IR n . Nun folgt für alle x, y ∈ IR n :2 = |f(x)| 2 + |f(y)| 2 −|f(x) − f(y)| 2= |x| 2 + |y| 2 −|x − y| 2= 2 .Also läßt f auch das euklidische Skalarprodukt invariant.Mit der Standardbasis e 1 ,...,e n ∈ IR n folgt damit nun<strong>und</strong> f(e 1 ),...,f(e n ) ist eine Basis von IR n .Sei x ∈ IR n ∑,x= n x i e i . Damit haben wiri=1= δ ij , 1 ≤ j ≤ n,x i ==< f(x),f(e i ) >, 1 ≤ i ≤ n,<strong>und</strong>n∑f(x) = x i f(e i ).i=1Daraus lesen wir ab, daß f ein Endomorphismus ist, der das Skalarprodukt invariant läßt.Nun können wir ohne Einschränkungen IR n mit IR n,1 identifizieren <strong>und</strong> annehmen (nachWahl einer Basis), daß mit A ∈ IR n,n gilt:f(x) =Ax , x ∈ IR n,1 .Aus =< x,y>,x,y∈ IR n,1 , folgt in leichter Rechnung=< A t Ax, y >=< x,A t Ay > , x, y ∈ IR n,1 .Daraus folgt A t A = E <strong>und</strong> schließlich auch AA t = E.Sei nun b := f(θ). Setze g(x) :=f(x) − b, x ∈ IR n,1 . Man sieht, daß auch g den Abstandinvariant läßt. Außerdem gilt g(θ) =θ. Aus obigem Spezialfall folgt die Existenz vonA ∈O(n) mitf(x) =b + Ax , x ∈ IR n,1 ,alsof = T b ◦ A.Für jede andere solche Darstellungf = T c ◦ Bmit c ∈ IR n,1 <strong>und</strong> B ∈O(n) folgt zunächst b = f(θ) =c <strong>und</strong> dann Ax = Bx für allex ∈ IR n,1 ,alsoA = B.


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 146Wir wissen| |≤|x||y| für alle x, y ∈ R n ,also−1 ≤ ≤ 1für alle x, y ∈ R n \{θ} .|x||y|Also gibt es zu x, y ∈ R n \{θ} einen eindeutig bestimmten Winkel ϑ = ϑ(x, y) ∈ [0,π]mit=cos(ϑ(x, y)) .|x||y|Wir nennen ϑ(x, y) den Winkel zwischen x <strong>und</strong> y.Aus der obigen Beweisführung ergibt sich, daß jedes f ∈S(IR n ), welches den euklidischenAbstand invariant läßt, auch die Winkel invariant läßt.Der richtige Rahmen für die euklidische <strong>Geometrie</strong> <strong>und</strong> ihrer Symmetriegruppen ist eigentlicherst durch den Begriff des euklidischen affinen Raumes gegeben. Wir kommen daraufim nächsten Abschnitt zurück.Beispiel 6.15Analog zu Beispiel 6.8 untersucht man geometrische Gebilde im IR 3 mit der von IR 3 induzierteneuklidischen Struktur auf Symmetrie. Dabei ergeben sich Symmetriegruppenfür allgemeine Polyeder <strong>und</strong> insbesondere für die regulären Körper wie Tetraeder, Würfel,Oktaeder, Dodekaeder <strong>und</strong> Ikosaeder. Entsprechend der Anzahl k der Ecken sind die vollenSymmetriegruppen der regelmäßigen Körper als Untergruppen von S k aufzufassen.Für das Tetraeder mit 4 Eckpunkten ist die zugehörige volle Symmetriegruppe zum Beispielisomorph zur alternierenden Gruppe A 4 in S 4 . Die Symmetriegruppe des Würfelsist isomorph zu S 4 <strong>und</strong> die volle Symmetriegruppe des Dodekaeders ist isomorph zuralternierenden Gruppe A 5 in S 5 mit bereits 60 Elementen 2Unter dem Stichwort Kristallographische Gruppen faßt man Symmetriegruppen <strong>und</strong>”Überdeckungen“ des IR 3 durch einen Körper aus IR 3 <strong>und</strong> dessen Translationen <strong>und</strong>Drehungen zusammen.Beispiel 6.16Versehen wir IR n nicht mit dem euklidischen Skalarprodukt sondern mit einer möglicherweiseausgearteten Bilinearform, genaueres dazu später, so erhalten wir andere Symmetriegruppen.Betrachte in IR 2 etwa ( < ·, · > euklidisches Skalarprodukt):< ·, · > h : IR 2 × IR 2 ∋ (x, y) ↦−→ x 1 y 1 − x 2 y 2 ∈ IR .Zur Symmetriegruppe dieser Bilinearform gehören die hyperbolischen Drehungen, diedurch Matrizen der Form( )cosh ϕ sinh ϕH ϕ =,ϕ∈ IR ,sinh ϕ cosh ϕgegeben sind, d.h. h = h ,x,y ∈ IR 2 ,ϕ∈ IR .So kommt man in IR 4 in ähnlicher Weise zur Lorentz–Gruppe, einer Gruppe, die in derRelativitätstheorie von großer Bedeutung ist. 2


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 1476.3 Affine Räume <strong>und</strong> affine AbbildungenHäufig sehen wir IR 2 als Zeichenebene <strong>und</strong> IR 3 als den uns umgebenden Anschauungsrauman. Dabei gehen wir fast immer von einem festgelegten Koordinatensystem aus. Für IR 2bedeutet dies:Man wählt einen Punkt O (“Ursprung“) <strong>und</strong> zwei (gerichtete) Geraden g 1 <strong>und</strong>g 2 , die sich in O schneiden. Zu jedem Punkt P der Ebene ziehe man nun dieParallelen durch P zu g 1 <strong>und</strong> g 2 . Ihre Schnittpunkt P 1 mit g 1 <strong>und</strong> P 2 mit g 2kann man nun als Koordinatenpaar für den Punkt P verwenden, wenn mandie Punkte auf g 1 bzw. g 2 in umkehrbar eindeutiger Weise den reellen Zahlenzuordnet. Man hat dazu lediglich noch auf jeder Gerade eine Einheit festzulegen,welche der Einheit 1 in IR entspricht.Verwendet man aufeinander senkrecht stehende Geraden (Koordinatenachsen),spricht man von einem kartesischen Koordinatensystem.Es ist klar, daß für n = 2 die Geraden g 1 ,g 2 durch die Basisvektoren x 1 ,x 2 sogegeben sind:g 1 := {x = a 1 x 1 |a 1 ∈ IK } ,g 2 := {x = a 2 x 2 |a 2 ∈ IK }Dem Vektor x = a 1 x 1 +a 2 x 2 ∈ X entspricht im Koordinatensystem der PunktP ,denmansoerhält:Trage von O aus a 1 Einheiten auf g 1 , a 2 Einheiten auf g 2 ab <strong>und</strong> hefte dasentstehende Geradensegment auf g 2 durch Parallelverschiebung an das Geradensegmentauf g 1 an; der Endpunkt des angehefteten Segments ist der PunktP .Treibt man aber “nur“ <strong>Geometrie</strong>, so sind Ursprung <strong>und</strong> (Koordinaten-) Achsen keineswegsausgezeichnet, sie werden, wenn sie denn gebraucht werden, den Bedürfnissen angepaßt.In der Zeichenebene oder in dem uns umgebenden Raum ist schnell einzusehen, daß dieParallelverschiebungen (Translationen) eine kommutative Gruppe bilden (siehe oben).Mehr noch: zu je zwei Punkten gibt es genau eine Parallelverschiebung, die den einenPunkt in den anderen überführt.Definition 6.17Sei X ein IK –Vektorraum. Eine Menge A ≠ ∅ heißt affiner Raum über X, wennes eine AbbildungA × A ∋ (P, Q) ↦−→ PQ−→∈ Xgibt mit:(a) Für jedes P ∈ A ist die Abbildung A ∋ Q ↦−→ PQ−→∈ X bijektiv.(b) Für je drei Punkte P, Q, R ∈ A gilt PQ−→+ QR−→= PR−→ .Man setzt affdim A := dim IK X.2


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 148Den SachverhaltPQ−→+ QR−→= PR−→kann man in der üblichen Weise zeichnen: Man heftet an P den Pfeil PQ−→an <strong>und</strong> kommtzu Q <strong>und</strong> man heftet an Q den Pfeil QR−→<strong>und</strong> kommt zu R. Man heftet an P den PfeilPR−→ <strong>und</strong> kommt auch zu R.Folgerung 6.18Sei A affiner Raum über dem IK –Vektorraum X. Es gilt:(a) PP−→ = θ für alle P ∈ A.(b) QP−→= −PQ−→ für alle P, Q ∈ A.(c) Aus PQ−→Beweis:Zu (a) := RS−→folgt PR−→Nach Definition gilt PP−→+ PP−→Zu (b) :Aus der Definition <strong>und</strong> (a) folgt θ = PP−→Zu (c) :PR−→= PQ−→+ QR−→= RS−→+ QR−→= QR−→= QS−→ . (Parallelogrammregel)= PP−→ ,alsoPP−→ = θ.+ RS−→= PQ−→+ QP−→ , also PQ−→= QS−→ .= −QP−→ .Folgerung 6.19Ist X ein IK –Vektorraum, dann wird X durch die Abbildungzu einem affinen Raum.Beweis.Offensichtlich.X × X ∋ (x, y) ↦−→ y − x ∈ XBeispiel 6.20Den affinen Raum, der aus IK n gemäß Folgerung 6.19 abgeleitet wird, schreiben wir alsA n (IK ). 2Da die AbbildungA ∋ Q ↦−→ PQ−→für jedes P ∈ A bijektiv ist, können wir die Definition 6.17 im Lichte von Folgerung 6.19pauschal etwa so wiedergeben:∈ XEin affiner Raum entsteht aus einem Vektorraum, indem man die Auszeichnungeines festen Punktes als Ursprung (eines Koordinatensystems) aufhebt.


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 149Sei A affiner Raum über dem IK –Vektorraum X. Aus der eben formulierten Tatsacheleiten wir ab, daß wir ohne Verluste auf die Unterscheidung zwischen dem VektorraumX <strong>und</strong> der Menge verzichten können. Wir haben lediglich die Sprechweise anzupassen. Inder affinen Sprechweise sind die Elemente von X nun Punkte. Die affine Gr<strong>und</strong>operationbesteht darin, je zwei Punkten u, v den Verbindungsvektor v − u von u nach v zuzuordnen.Zu gegebenem Punkt x ∈ X <strong>und</strong> Vektor u ∈ X existiert genau ein Punkt v ∈ X,sodaß u der Verbindungsvektor von x nach v ist, nämlich v = x + u. Man sagt, der Punktv entsteht aus x durch Abtragen des Vektors u. Ist x 0 ein fester Punkt von X <strong>und</strong> v ∈ X,so heißt der Verbindungsvektor v − x 0 auch Ortsvektor von v bezüglich dem Ursprungx 0 . Da die Zuordnung v ↦−→ v − x 0 bijektiv ist, ist bei festem x 0 jeder Punkt v durchseinen Ortsvektor v − x 0 charakterisierbar. Für x 0 = θ erhält man spezielle Ortsvektoren,die aber in der affinen Betrachtung keine Sonderrolle spielen. Die Ortsvektoren einesPunktes v bezüglich zweier Ursprünge unterscheiden sich nur durch einen festen Vektor.Definition 6.21Sei X ein IK -Vektorraum. Eine Teilmenge A von X heißt affiner Teilraum vonX, wenn es x ∈ X <strong>und</strong> einen linearen Teilraum U von X gibt mit A = x + U. Mansetzt affdim A := dim IK U.Den Raum U nennt man Richtungsraum von A.2Affine Unterräume sind uns schon bei der Einführung der Faktorräume begegnet. Wirwissen auch schon, daß U durch A schon eindeutig bestimmt ist.Sei X ein IK -Vektorraum X.Die affinen Teilräume der (affinen) Dimension 0 sind die Punkte x ∈ X, die eindimensionalenaffinen Teilräume sind die Geraden. Einen affinen Teilraum der Dimensionn − 1(n := dim X) nenntmaneineHyperebene.Definition 6.22Seien A 1 := x 1 + U <strong>und</strong> A 2 := x 2 + V affine Teilräume des IK –Vektorraums X.A 1 ,A 2 heißen parallel, wenn U ⊂ V oder V ⊂ U gilt.2Achtung! Die Parallelität ist keine Äquivalenzrelation.Beispiel 6.23Sei IK := ZZ 2 <strong>und</strong> betrachte A 2 (IK ). Wie sehen die affinen Teilräume von A 2 (IK )aus?Punkte sind :(0, 0), (0, 1), (1, 0), (1, 1).Geraden sind:G 1 = {(0, 0), (1, 0)} ,G 2 = {(0, 1), (1, 1)} ,G 3 = {(0, 0), (1, 1)} ,G 4 = {(0, 1), (1, 0)} ,G 5 = {(0, 0), (0, 1)} ,G 6 = {(1, 0), (1, 1)} .


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 150Parallele Geraden sind G 1 ,G 2 bzw. G 3 ,G 4 .(Ein weiterer affiner Teilraum ist noch der Raum selbst). 2Sei X ein IK –Vektorraum X <strong>und</strong> sei A := x+U ein affiner Teilraum von X. Ist {u 1 ,...,u k }eine Basis von U, dann kann man jedes v ∈ A in der Gestaltk∑v = x + a i u i mit a 1 ,...,a k ∈ IKi=1schreiben. Man nennt dies eine Parameterdarstellung von A mit Richtungsvektorenu 1 ,...,u k <strong>und</strong> Parametern a 1 ,...,a k .Der Begriff einer Basis läßt sich nun mit Hilfe der Basen von Richtungsräumen auf affineRäume übertragen.Definition 6.24Sei X ein IK –Vektorraum. Punkte x 0 ,x 1 ,...,x k ∈ X heißen affin unabhängig,wenn {x 1 − x 0 ,...,x k − x 0 } linear unabhängig in X ist.2Man bestätigt sehr einfach, daß in der Definition 6.24 die Reihenfolge der Elemente nichtwesentlich ist, d.h. sind x 0 ,x 1 ,...,x k ∈ X affin unabhängig, dann sind x π(0) ,...,x π(k)affin unabhängig für jede Permutation π von 0,...,k.Beispiel 6.25Im affinem Raum A n (IK )ist{θ, e 1 , ..., e n } mit den Standardeinheitsvektoren e 1 ,...,e n ∈IK n affin linear unabhängig. 2Seien x 0 ,x 1 ,...,x n ∈ X affin unabhängig in X. Dann gibt es einen eindeutig bestimmtenk–dimensionalen affinen Teilraum A, der die Punkte x 0 ,...,x k enthält. Seine Parameterdarstellungistk∑v = x 0 + a i (x i − x 0 )mita 1 ,...,a k ∈ IK . (6.1)i=1Dieser affine Teilraum heißt der Verbindungsraum von x 0 ,...,x k . Wir schreiben dafürx 0 ∨ x 1 ∨ ...∨ x k . Durch Umrechnen der Darstellung (6.1) ergibt sichk∑k∑v =(1− a i )x 0 + a i x i mit a 1 ,...,a k ∈ IK , (6.2)i=1i=1alsok∑k∑v = b i x i mit b 0 ,...,b k ∈ IK , b i =1. (6.3)i=0i=0Bei der Darstellung (6.3) ist die Sonderrolle des Punktes x 0 beseitigt; sie liefert eine völligsymmetrische Darstellung der Punkte von x 0 ∨ x 1 ∨ ...∨ x k . Die Zahlen b 0 ,...,b k in derDarstellung (6.3) heißen die baryzentrischen Koordinaten von v bezüglich x 0 ,...,x k .


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 151Diese Bezeichnung rührt daher, daß (6.3) der Formel für den Schwerpunkt v von k +1“Massenpunkten“ x 0 ,...,x k mit den Massen b 0 ,...,b k <strong>und</strong> der Gesamtmasse 1 gleicht.Für k = 2 haben wir eine Verbindungsgerade x 0 ∨ x 1 zweier Punkte. Ist v ein weitererPunkt von x 0 ∨x 1 , so heißen x 0 ,x 1 ,v kollinear <strong>und</strong> der eindeutig bestimmte Skalar a mitv = x 0 + a(x 1 − x 0 )wird das Teilungsverhältnis von x 0 ,x 1 ,v genannt; wir schreiben dafüra = TV(x 0 ,x 1 ,v).Ist dim IK = n <strong>und</strong> sind x 0 ,...,x n affin linear unabhängig, dann nennt man {x 0 ,...,x n }eine affine Basis von X.Definition 6.26Seien X, Y IK –Vektorräume. Eine Abbildung f : X −→ Y heißt affin, falls eseine IK – lineare Abbildung L : X −→ Y gibt mitf(u) − f(v) =L(u − v) für alle u, v ∈ X.2Folgerung 6.27Seien X, Y IK –Vektorräume <strong>und</strong> seien A 1 ,A 2 affine Unterräume von X <strong>und</strong> seif : X −→ Y affin. Dann gilt:(a) f(A 1 ),f(A 2 ) sind affine Unterräume von Y .(b) Sind A 1 ,A 2 parallel, dann sind auch f(A 1 ),f(A 2 ) parallel.Beweis:Trivial.Seien X, Y IK –Vektorräume <strong>und</strong> sei f : X −→ Y. Dann ist f offenbar affin genau dann,wenn es y 0 ∈ Y <strong>und</strong> eine lineare Abbildung L : X −→ Y gibt mit f(x) =y 0 + L(x) füralle x ∈ X. Mankannalsof als Hintereinanderausführung der linearen Abbildung L mitder Translation T y 0 auffassen, die θ in y 0 überführt.DamitsindwirnunbeidenObjektenangelangt,diedieBrücke zum Erlanger Programmschlagen helfen. Die zur affinen <strong>Geometrie</strong> passende Symmetriegruppe ist gegeben durchdie GruppeGA(X) :={f ∈S(X)|f affin} ,die sogenannte affine Gruppe. Die Elemente von GA(X) heißenAffinitäten. Die affine<strong>Geometrie</strong> beschäftigt sich mit Aussagen, die invariant unter Affinitäten sind. SpezielleAffinitäten sind die Translationen. Dies sind die AbbildungenT b : X ∋ x ↦−→ b + x ∈ X (b ∈ X) .


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 152Die AbbildungX ∋ b ↦−→ T b ∈ GA(X)ist injektiv. Dies führt dazu, daß die abelsche Gruppe (X, +) mit mit einer Untergruppeder affinen Gruppe GA(X) identifizierbar ist. Mit diesem Sachverhalt wird häufig auchauf den Begriff des Vektorraums hingeführt.Bemerkung 6.28Beachte, daß man eine TranslationT b : X ∋ x ↦−→ b + x ∈ X (b ∈ X)als Wirkung der abelschen Gruppe (X, +) auf X verstehen kann:Φ:X × X ∋ (b, x) ↦−→ b + x ∈ X.Kommen wir zu Invarianzeigenschaften.Sei f ∈ GA(X) ,f(·) =¯x + L(·) , ¯x ∈ X,Llinear. Dann gilt für u, v ∈ Xv − u ⇐⇒ f(v) − f(u) .Dies kann man dahingehend zusammenfassen, daß Parallelogramme invariant unter Affinitätensind. Eine zweite Invarianzeigenschaft ist das Teilungsverhältnis. Dies folgt mitx 0 ,x 1 ,v ∈ X,x 0 ≠ x 1 , ausv − x 0 = a(x 1 − x 0 ) ⇐⇒ f(v) − f(x 0 )=a(f(x 1 ) − f(x 0 )) .Man faßt dies als Geradentreue zusammen.Einer der Ausgangspunkte für die Entwicklung der affinen <strong>Geometrie</strong> war die Untersuchungvon Parallelprojektionen in der darstellenden <strong>Geometrie</strong>. Wichtige Spezialfälledavon sind die Parallelprojektionen des dreidimensionalen Raums auf eine Ebene. Diesewerden, wie wir nun sehen wollen, beschrieben durch affine Abbildungen.2Satz 6.29Sei X ein IK –Vektorraum X <strong>und</strong> seien A 1 ,A 2 affine Teilräume von X mit RichtungsraumU 1 bzw. U 2 . Es gelte: X = U 1 ⊕ U 2 . Setze für v ∈ XA 1 (v) :=v + U 1 .Dann gilt:(a) Zu jedem v ∈ V gibt es genau ein x v ∈ X mit A 1 (v) ∩ A 2 = {x v } .(b) Die Abbildung f : X ∋ v ↦−→ x v ∈ X ist affin.Beweis:Sei etwa A 2 = w + U 2 = w 1 + w 2 + U 2 mit w = w 1 + w 2 ,w 1 ∈ U 1 ,w 2 ∈ U 2 .Sei v ∈ X, v = v 1 + v 2 ,v 1 ∈ U 1 ,v 2 ∈ U 2 . Setze dazu x v := v 2 + w 1 . Dann gilt mit


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 153u 1 := w 1 −v 1 einerseits v+u 1 ∈ A 1 (v) <strong>und</strong> andererseits v+u 1 = w+v 2 −w 2 +v 1 +u 1 −w 1 =w +(v 2 − w 2 ) ∈ A 2 .Damit ist (a) bis auf die Eindeutigkeit schon klar. Diese folgt sehr schnell aus der Tatsache,daß U 1 ∩ U 2 = {θ} ist.(b) ergibt sich aus der Definition von x v .Die Abbildung f aus Satz 6.29 nennt man Parallelprojektion von X auf A 2 längs A 1 .Definition 6.30Sei X ein reeller Vektorraum.Eine Abbildung : X ×X −→ IR heißt Skalarprodukt (auf X), wenn folgendeBedingungen erfüllt sind:(1) =0 ⇐⇒ x = θ. (Definitheit)(2) =< y,x>für alle x, y ∈ X. (Symmetrie)(3) = a+b für alle a, b ∈ IR,x,y ∈ X.(Linearität)Der Raum X zusammen mit dem Skalarprodukt < ·, · > heißt dann euklidischerRaum.2In der affinen Sprache heißt ein reeller Vektorraum zusammen mit einem Skalarproduktein affiner euklidischer Raum. Wir gehen in Kapitel 8 näher auf euklidische Räumeein.Bemerkung 6.31Zur Formulierung der klassischen Mechanik, wie sie von Isaac Newton (1643 – 1727) begründetwurde, sind Aussagen <strong>und</strong> Annahmen über das Raum–Zeitkontinuum zu treffen.Bewegung eines Massenpunktes wird im Ortsraum IR 3 formuliert, Bewegungen sind immerrelative Bewegungen von (mindestens zwei) physikalischen Systemen zu verstehen.Nur die Angaben der relativen Positionen (Teilchen A zu Teilchen B, Teilchen A zu BeobachterB) zu jedem festen Zeitpunkt ist physikalisch sinnvoll.Die Mechanik geht aus von der Annahme, daß physikalische Bewegung eines Massenpunktesin einem Raum stattfindet, der die Struktur eines dreidimensionalen euklidischenRaumes besitzt. Der Bewegungsraum des Teilchens ist also ein affiner Raum, wie es derphysikalischen Anschauung entspricht: Die Angabe einer einzigen Position x(t) zurZeitist nicht sinnvoll, wohl aber die Angabe von x(t) relativ zur Position y(t) eines Beobachterszur selben Zeit. Versieht man den affinen Raum mit einem Ursprung, d.h. definiertman einen Nullpunkt z.B. durch Vorgabe eines Beobachters, so wird daraus wieder derdreidimensionale reelle Vektorraum IR 3 . 26.4 Projektive Räume <strong>und</strong> projektive AbbildungenDie affine <strong>Geometrie</strong> hat ihren Ursprung in der Parallelprojektion. Eine weitere Projektionsart,die von Interesse ist <strong>und</strong> in der Natur etwa bei Abbildungen des Raumes mit


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 154Hilfe einer Lochkamera auf eine Ebene vorkommt, ist die Zentralprojektion. Die geeignetemathematische Theorie zur Betrachtung von Sätzen, in denen die Zentralprojektioneine Rolle spielt, ist die Theorie der projektiven Räume. Die projektive <strong>Geometrie</strong> kanndann wieder entsprechend dem Erlanger Programm als Beschäftigung mit Invarianten gegenüberder Zentralprojektion angesehen werden.Zunächst wollen wir projektive Räume <strong>und</strong> Abbildungen ganz algebraisch einführen, dieanschauliche Seite wird hervortreten, wenn wir ein “Modell“ für einen projektiven Raumbetrachten.Definition 6.32Sei X ein IK –Vektorraum. Dann heißt die MengePR(X) :={U ⊂ X|U linearer Teilraum von X, dim IK U =1}der projektiver Raum zu X. Die projektive Dimension von PR(X) ist definiertals prodim PR(X) :=dim IK X − 1, falls dim IK X


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 155Dies folgt so:Ist Q = PR(U) =PR(W ),U,W lineare Teilräume von X, so folgt für u ∈ U, u ≠ θ, auchL({u}) ∈ Q = PR(W ), d.h. L({u}) ist linearer Teilraum von W <strong>und</strong> daher u ∈ W. Alsoist U ⊂ W. Aus Symmetriegründen bekommt man U = W.Die projektiven Unterräume der Dimension 0 sind die einelementigen Teilmengen vonPR(X), <strong>und</strong> sie werden deshalb üblicherweise mit den Punkten in PR(X) identifiziert.Die projektiven Unterräume der Dimension 1 nennt man Geraden. Eine Gerade inPR(X) ist also ein projektiver Raum PR(U), wobei U ein linearer Teilraum von X<strong>und</strong> dim IK U =2ist.Beispiel 6.34Sei IK ein Körper. Dann nennen wir IP n (IK ):=PR(IK n+1 )den(kanonischen) n–dimensionalen projektiven Raum über IK . 2Halten wir noch fest:In der projektiven Ebene schneiden sich je zwei verschiedene Geraden in genaueinem Punkt <strong>und</strong> durch je zwei verschiedene Punkte geht genau eine Gerade.Dies folgt zum Teil aus der Dimensionsformelprodim PR(U 1 + U 2 ) = dim IK (U 1 + U 2 ) − 1= dim IK (U 1 )+dim IK (U 2 ) − dim IK (U 1 ∩ U 2 ) − 1= prodim PR(U 1 )+prodimPR(U 1 ) − prodim PR(U 1 ∩ U 2 )= 2− prodim PR(U 1 ∩ U 2 ) ,da hier prodim PR(U 1 + U 2 ) ≤ 2 <strong>und</strong> daher prodim PR(U 1 ∩ U 2 ) ≥ 0ist.Wir sehen also, daß die Ausnahmen, die man in der euklidischen <strong>Geometrie</strong> des IR 3 häufigwegen der Parallelität von Geraden <strong>und</strong> Ebenen machen muß, in der projektiven Ebenenicht auftreten sollten.In der bisherigen Betrachtung ist “keinerlei“ Anschauung eingearbeitet. Wir wollen nunein “Modell“ des projektiven Raumes in der Anschauungsebene <strong>und</strong> im (uns umgebenden)Raum entwickeln, das den Begriff der Zentralprojektion aufnimmt.Betrachte in IR 2 eine Gerade g mit Richtungsvektor p, die nicht durch den Nullpunkt geht.Dann können wir jedem Punkt u der Geraden g den Punkt L({p}) ∈ IP 1 (IR) zuordnen.Damit erhalten wir alle eindimensionalen Teilräume von IR 2 mit Ausnahme von p 0 :=L({p}) . Diesen Punkt fügen wir nun hinzu <strong>und</strong> erhalten so die projektive Gerade IP 1 (IR).Den Punkt p 0 := L({p}) bezeichnet man als unendlich fernen Punkt. Man verknüpftdamit die Vorstellung, daß die beiden “Enden“ von IR zu einem Punkt zusammengeb<strong>und</strong>enwerden. Eine Untermauerung dafür ist, daß es eine bijektive Abbildung von IP 1 (IR) auf dieKreislinie in IR 2 gibt. In ähnlicher Weise gehen wir eine Dimension höher vor. Betrachtein IR 3 eine Hyperebene E, d.h. einen affinen Teilraum der Dimension 2, der den Nullpunktθ nicht enthält. Dann können wir die Abbildungσ : E∋x ↦−→ L({x}) ∈ IP 2 (IR )


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 156betrachten. Damit haben wir im Bild von σ alle eindimensionalen Teilräume (Geraden)in IR 3 erfaßt, die nicht in der zu E parallelen Ebene E 0 durch den Nullpunkt θ liegen.Fügen wir diese dem Bild von σ hinzu, dann haben wir den “vollen“ projektiven Raumvorliegen. Wir können also mit Hilfe von Ẽ := E∪E 0 den projektiven Raum IP 2 (IR )“parametrisieren.“Während in IP 2 (IR ) alle Punkte, also die eindimensionalen Teilräume des VektorraumesX, gleichberechtigt sind, werden im konkreten Modell Ẽ die Punkte der Ferngeraden,d.h. der Geraden, die durch Punkte in E 0 repräsentiert werden <strong>und</strong> in ganz E 0 liegen, vorden anderen ausgezeichnet. Sie entsprechen keinen Punkten von E, sondern einer Richtungin E.Machen wir uns ein zweites “Modell“ der projektiven Ebene.Sei S 2 := {(x, y, z) ∈ IR 3 |x 2 +y 2 +z 2 =1} die Einheitssphäre. Jede Gerade g in IR 3 durchden Nullpunkt θ trifft auf S 2 in zwei antipodal liegenden Punkten. Unser zweites Modelldes IP 2 (IR ) ist nun die Menge aller Paare (u, v) antipodal liegender Punkte, d.h.{(u, −u)|u ∈S 2 } .(Es ist nicht möglich, einfach aus jedem Paar einen Punkt auszuwählen, da die Mengeungeordnet ist. Der Äquator z = 0 ist sicher ein besonderes Hindernis.) In der Theorie derMannigfaltigkeiten lernt man, diesem Modell noch weitere Anschaulichkeit abzugewinnen.Bemerkung 6.35Sei X ein n + 1 – dimensionaler IK – Vektorraum <strong>und</strong> sei PR(X) dern – dimensionaleprojektive Raum zu X. Die linearen Teilräume U von X korrespondieren mit linearenTeilräumen U a in X ′ ; siehe Definition 4.60 <strong>und</strong> Abschnitt 4.6. Damit korrespondieren mitden projektiven Unterräumen PR(U) derDimensionk projektive Unterräume PR(U a )der Dimension n − k − 1inPR(X ′ ) . Daraus ergibt sich das Dualitätsprinzip derprojektiven <strong>Geometrie</strong>: Sätze bleiben im allgemeinen richtig, wenn in ihnen projektiveRäume der Dimension k durch projektive Räume der Dimension n − k − 1 ersetzt werden.(“Im allgemeinen“ bedeutet, daß sich die Formulierung der Sätze mit der Annihilator–Bildung “verträgt“.) Für k = 0 ergibt sich die Tatsache, daß Punkte gegen Hyperebenenausgetauscht werden dürfen. 2Seien X, Y IK –Vektorräume, sei L : X −→ Y IK – linear <strong>und</strong> sei U := Kern(L) . IstU ≠ X, dann werden eindimensionale Unterräume von X, dienichtganzinU enthaltensind, auf eindimensionale Unterräume von Y abgebildet. Damit wird in einfacher Weiseeine Abbildunginduziert. Dies führt uns zuξ L : PR(X)\PR(U) ∋L({u}) ↦−→ L({L(u)}) ∈PR(Y )


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 157Definition 6.36Seien PR(X), PR(Y ) projektive Räume <strong>und</strong> sei U ein von X verschiedener Teilraumvon X. Eine Abbildung ξ : PR(X)\PR(U) −→ P R(Y ) heißt projektiv,wenn es eine lineare Abbildung L : X −→ Y gibt mit Kern(L) =U.Der projektive Unterraum PR(U) heißt das Zentrum von ξ.2Aus der Voraussetzung U ≠ X in obiger Definition folgt sofort PR(X) ≠ PR(U).Ist der Teilraum U in obiger Definition 0–dimensional, dann ist der projektive RaumPR(U) leer. Wir sehen dann, daß die projektive Abbildung ξ auf ganz PR(X) erklärtist.Beispiel 6.37Sei H eine Hyperebene im Vektorraum X, die θ enthält, <strong>und</strong> sei x 0 ∈ X\H.Dann ist<strong>und</strong> wir setzenX = H ⊕L({x 0 })U := p 0 := L({x 0 }),L:= Projektion von X auf H,d.h.L(x) :=h, falls x = h + u mit h ∈ H, u ∈L({x 0 }) .Die zugehörige projektive Abbildung ist ξ : PR(X)\L({x 0 }) −→ P R(H) . Man sieht,daß ξ(p) der eindeutig bestimmte Schnittpunkt der Geraden, die p <strong>und</strong> p 0 in PR(X)verbindet, mit PR(H) ist. Deshalb heißt ξ die Zentralprojektion von PR(X) auf dieHyperebene PR(H) inPR(X) mitdemZentrum p 0 .Mit allgemeineren direkten Zerlegungen von X lassen sich allgemeinere Zentralprojektionenbetrachten. 2Bemerkung 6.38In einem projektiven Raum PR(X) kann man über eine Basis von X wieder Koordinatenim projektiven Raum selbst einführen. Während man für einen n – dimensionalen linearenRaum n Vektoren für ein Koordinatensystem, für einen n – dimensionalen affinenRaum n + 1 Punkte für ein Koordinatensystem benötigt, sind für ein Koordinatensystemin einem n – dimensionalen projektiven Raum n + 2 Punkte nötig.Die “Parametrisierung“ der eindimensionalen Räume gelingt durch homogene <strong>und</strong> inhomogeneKoordinaten, das sogennante Doppelverhältnis ist eine inhomogene Koordinate.Daraus leiten sich dann auch Darstellungen der projektiven Abbildungen ab;sie führen auf gebrochen lineare Abbildungen auf der Koordinatenebene. Genauereserfährt man z.B. in der <strong>Geometrie</strong> <strong>und</strong> auch in der Theorie der Mannigfaltigkeiten. 2Abschließend wollen wir nun wieder die Objekte angeben, die die Brücke zum ErlangerProgramm schlagen helfen. Die zur projektiven <strong>Geometrie</strong> passende Symmetriegruppe istgegeben durch die GruppePGL(X) :={ξ ∈S(PR(X))|ξ projektiv} ,


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 158die sogenannte projektive Gruppe; den Nachweis der Gruppeneigenschaft übergehenwir.DieElementevonPGL(X) heißenProjektivitäten.Die projektive <strong>Geometrie</strong> beschäftigt sich mit Aussagen, die invariant unter Projektivitätensind. Aus der Linearität der die projektive Abbildung erzeugenden AbbildungL folgt auch, daß eine projektive Abbildung projektive Unterräume in projektive Unterräumeabbildet. Dies ist eine erste Invarianzeigenschaft. Eine weitere ist, daß unterprojektiven Abbildungen das in Bemerkung 6.38 kurz erwähnte Doppelverhältnis invariantist.


Kapitel 7DeterminantenJeder Matrix kann ein Skalar (Determinante) so zugeordnet werden, daß er Auskunftdarüber gibt, ob eine Matrix invertierbar ist oder nicht. Wir konstruieren diese Determinantehier nun in einem allgemeinen algebraischen Kontext.Der Skalarkörper sei in diesem Kapitel ohne weitere Erwähnung immer von der Charakteristik0, also insbesondere auch unendlich; an geeigneter Stelle verweisen wir auf denGr<strong>und</strong>. Damit können wir wieder P IK <strong>und</strong> IK [x] gleichberechtigt verwenden.7.1 EinführungErinnern wir uns an Kapitel 2: Bei der Lösung des Gleichungssystemsa 11 x 1 + a 12 x 2 = b 1a 21 x 1 + a 22 x 2 = b 2haben wir die von der Matrix ( )a11 a 12a 21 a 22abgeleitete Größe∆:=a 11 a 22 − a 12 a 21(Produkt der Haupdiagonalen minus Produkt der Nebendiagonalen) kennengelernt. Diezugehörige Abbildung( )δ : IK 2,2 a11 a∋12↦−→ ∆:=aa 21 a 11 a 22 − a 12 a 21 ∈ IK22hat interessante Eigenschaften.(R1) δ(E) =1für die Einheitsmatrix E.Folgt durch einfaches Nachrechnen.(R2) δ(A) =δ(A t )Folgt durch einfaches Nachrechnen.159


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 160(R3) δ(A) ändert das Vorzeichen, wenn man die Spalten (Zeilen) vertauscht.Folgt durch einfaches Nachrechnen.(R4) δ(A) multipliziert sich mit λ, falls man eine Spalte (Zeile) mit λ multipliziert.Folgt durch einfaches Nachrechnen.(R5) δ(A) = 0, falls die beiden Spalten (Zeilen) gleich sind.Folgt durch einfaches Nachrechnen.(R6) δ ist eine lineare Abbildung der Spalten (Zeilen).Sei A =(a 1 |a 2 ) ∈ IK 2,2 ,u∈ IK 2,1 . Dann ist offenbar δ((a 1 +u|a 2 )) = δ((a 1 |a 2 ))+δ((u|a 2 )).Eine Konsequenz aus Regel (R6) ist, daß δ(A) = 0, falls A eine Nullspalte (Nullzeile)enthält.(R7) Die elementaren Umformungen “Subtraktion eines Vielfaches einer Spalte (Zeile)von einer anderen Spalte (Zeile)“ ändern den Wert von δ nicht.Folgt aus den Regeln (R4) <strong>und</strong> (R5).(R8) δ(A) = 0 genau dann, wenn A singulär ist.Dies folgt aus der Tatsache, daß man wegen Regel (R8) ohne Einschränkungen annehmenkann, daß A von oberer Dreiecksgestalt ist. Dann ist die Aussage aber klar.(R9) δ(AB)=δ(A)δ(B).Folgt durch einfaches Nachrechnen.Damit haben wir nun Aussagen gef<strong>und</strong>en, die wir später nach Einführung der Determinantenfunktiondet als Verallgemeinerung von δ wiederfinden werden.Betrachten wir nun eine Matrix( )a11 a 12∈ IRa 21 a 2,222von oberer Dreicksgestalt. (Wir haben den Körper IK = IR gewählt, damit die Anschauungeine bessere Gr<strong>und</strong>lage hat.) Dann können wir dieser Matrix das ParallelogrammOABC mit den EckpunktenO (0, 0) A (a 11 ,a 12 ) B (a 11 + a 21 ,a 12 + a 22 ) C (a 21 ,a 22 ) .zuordnen. Die Fläche (Der Inhalt) von OABC ist offenbar gegeben durchF = a 11 · a 22 − a 12 · a 21 = δ(A) .(Man betrachte etwa zunächst die Fläche des Dreiecks OAC <strong>und</strong> verdopple dann.) Damiterhält der Skalar δ(A) die Bedeutung der Fläche des durch die Zeilen der Matrix


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 161A aufgespannten Parallelogramms. Regel (R2) besagt, daß die Fläche des von den Zeilenaufgespannten Parallelogramms gleich dem durch die Spalten von A aufgespanntenParallelogramms ist. Andere Regeln lassen erkennen, daß die Funktion δ die von einerFlächenfunktion zu erwartenden Eigenschaften besitzt. Als Verallgemeinerung von δ wirddie Determinantenfunktion det dann als Volumenfunktion interpretiert.Beispiel 7.1Hat man eine MatrixA =( )A1 θ∈ IKθ A 3,3 mit A 1 ∈ IK 2,2 ,A 2 ∈ IK 1,1 ,2in Kästchenform, so sollte sich das Volumen des von den Spalten von A aufgespannteParallelepiped, wenn die obige Interpretation zutrifft, als δ(A 1 )·δ(A 2 ) ergeben. Vergleichedies mit dem Resultat aus Regel (R1)<strong>und</strong> (R4). 2Die Behandlung von Determinanten in der linearen <strong>Algebra</strong> ist nicht so unumstrittenwie dies für Gruppen, Vektorräume <strong>und</strong> lineare Abbildungen gilt. Die häufig zu findendeBegründung für die Einführung von Determinanten, daß sie für die Diskussion von linearenGleichungssystemen gebraucht würden, ist irreführend: Weder für die theoretischenÜberlegungen (Existenz <strong>und</strong> Eindeutigkeit), noch für die praktischen Schritte werden siebenötigt. (Unsere obige Darstellung täuscht eine Relevanz für die Gleichungssyteme nurvor: Wir wollten an das Kapitel 2 anküpfen, in dem erst ein Verfahren zur Behandlungbereitzustellen war, <strong>und</strong> die Begriffe Rang <strong>und</strong> Defekt noch nicht bereitstanden.) Dieeigentliche Motivation für die Einführung von Determinanten ist die Tatsache, daß beider Behandlung von Volumina spätestens dann Detrminanten benötigt werden, wenn manKoordinaten–Transformationen vornimmt (Substitutionsregel; siehe Analysis II).Im Kapitel 5 haben wir die Determinante einer Matrix auf sehr indirektem Weg eingeführt;die Interpretation als Volumenfunktion ist damit vorweggenommen. Für die obige Matrixbedeutet diesdet(A) =λ 1 · λ 2 ,λ 1 ,λ 2 Eigenwerte von A.Die Schwierigkeit dieser Definition liegt in der Tatsache, daß dazu Eigenwerte von Aexistieren müssen, eine Tatsache, die offenbar mit der Eigenschaft, daß A split über IRist, zusammenhängt. Als Kandidat für das charakteristische Polynom erhalten wir auseinem Eliminationsschritt (“Elimination von x 1 “), angewendet auf das Gleichungssystemdie Polynomgleichungoder(a 11 − λ)x 1 + a 12 x 2 =0,a 21 x 1 +(a 22 − λ)x 2 =0Diese Polynomgleichung läßt sich lesen als(a 11 − λ)(a 22 − λ) − a 12 a 21 =0λ 2 − λ(a 11 + a 22 )+a 22 a 11 − a 12 a 21 =0.δ(A − λE) =0


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 162<strong>und</strong> als Konsequenz ist der Kandidat für das charakteristische Polynom χ Agegeben alsδ(A − λE) =0. Die Gleichung δ(A − λE) = 0 hat unabhängig von den Eigenwerten vonA einen Sinn. Formal entdecken wir auch sofort wieder den Satz von Cayley – Hamilton:χ A(A) =Θ .7.2 MultilinearformenDefinition 7.2Sei X ein IK –Vektorraum <strong>und</strong> sei m ∈ IN .Eine Abbildung T : X m −→ IK heißt multilinear, wenn T in jedem ArgumentIK – linear ist, d.h. wennT (x 1 ,...,x j−1 ,au+ bv, x j+1 ,...,x m )= aT (x 1 ,...,x j−1 ,u,x j+1 ,...,x m )+bT (x 1 ,...,x j−1 ,v,x j+1 ,...,x m )für alle x 1 ,...,x j−1 ,u,v,x j+1 ,...,x m ∈ X, a, b ∈ IK , gilt.Wir setzen T m (X) :={T : X m −→ IK |T multilinear} .2Offensichtlich ist T m (X) wiederingewöhnlicher Weise ein IK –Vektorraum. Für m =1haben wir T m (X) =X ′ <strong>und</strong> für m = 2 sprechen wir bei T m (X) vom Raum der Bilinearformen(siehe Abschnitt 8.1).Ist X ein endlichdimensionaler Raum mit Basis {e 1 ,...,e n }, dann ist jede AbbildungT ∈T m (X) auf Gr<strong>und</strong> der Multilinearität durch die Wertefestgelegt. Dies führt zuT (e i 1,...,e im ) , 1 ≤ i 1 ,...,i m ≤ n,Folgerung 7.3Ist dim IK X = n, dann ist dim IK T m (X) =n m .Beweis:Betrachte die multilinearen Abbildungen T j1 ,...,j m, die durchT j1 ,...,j m(e i 1,...,e im )=δ j1 i 1···δ jmi m, 1 ≤ i 1 ,...,i m ≤ nfestgelegt sind; 1 ≤ j 1 ,...,j m ≤ n. Man stellt fest, daß diese Abbildungen eine Basisbilden.Beispiel 7.4


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 163Sei X = IK n,1 ,A∈ IK n,n . BetrachteT : X × X ∋ (x, y) ↦−→ x t Ay ∈ IK .Offenbar gilt T ∈T 2 (X).T (x, x) ist ein Polynom zweiten Grades in n Variablen. Die “Niveaulinien“ T (x, x) =dbeschreiben in Spezialfällen für n = 2 die Kegelschnitte Kreis, Ellipse, Parabel, Hyperbel.2Unter den multilinearen Abbildungen sind nun solche ausgezeichnet, die gewisse Vertauschungseigenschaftenhinsichtlich ihrer Argumente besitzen. Eine solche Klasse vonmultilinearen Abbildungen ist die Menge der alternierenden (schiefsymmetrischen) Abbildungen.Sie spielen eine wichtige Rolle in der Analysis (Differentialformen, Satz vonStokes). Hier führen sie uns zur Determinantenfunktion.Erinnert sei an Abschnitt 3.2, in dem Permutationen σ <strong>und</strong> ihr Vorzeichen ɛ(σ)eingeführtwurden.Definition 7.5Sei X ein IK –Vektorraum <strong>und</strong> sei m ∈ IN . Eine multilineare AbbildungT : X m −→ IK heißt alternierend (schiefsymmetrisch), wennT (x σ(1) ,...,x σ(m) )=ɛ(σ)T (x 1 ,...,x m )für alle σ ∈S m gilt.Wir setzen A m (X) :={T ∈T m (X)|T alternierend} .2Lemma 7.6Sei X ein IK –Vektorraum <strong>und</strong> sei m ∈ IN . Dann sind für eine multilineare AbbildungT : X m −→ IK äquivalent:(a) T ∈A m (X) .(b) T (...,x,x,...)=0für alle x ∈ X.(c) T (...,x,y,...)=−T (...,y,x,...) für alle x, y ∈ X.(d) T (...,x,...,y,...)=−T (...,y,...,x,...) für alle x, y ∈ X.(e) T (...,x,...,x,...)=0für alle x ∈ X.(f) Sind x 1 ,...,x m linear abhängig, dann gilt T (x 1 ,...,x m )=0.Beweis:Die Implikation (a) =⇒ (c) ist klar, da eine Nachbarvertauschung eine ungerade Permutationist.Die Implikation (c) =⇒ (d) folgt aus der Tatsache, daß jede Transposition als Produkt


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 164einer ungeraden Anzahl von Nachbarnvertauschungen geschrieben werden kann.Die Implikation (d) =⇒ (a) ist klar, da eine Permutation Produkt von Transpositionenist.Der Ringschluß (b) =⇒ (c) =⇒ (d) =⇒ (e) =⇒ (f) =⇒ (b) sei dem Leserüberlassen.Bemerkung 7.7Den Schluß (d) =⇒ (e) in obigem Beweis zieht man so: AusfolgtT (...,x,...,x,...)+T (...,x,...,x,...)=0T (...,x,...,x,...)=0,da die Charakteristik von IK als Null vorausgesetzt ist.Vergleiche (c) mit Regel (R3) <strong>und</strong> (b) mit Regel (R5) aus Abschnitt 7.1. 2Folgerung 7.8Sei X ein IK –Vektorraum <strong>und</strong> sei m ∈ IN . Dann ist A m (X) ein linearer Teilraumvon T m (X) .Beweis:Mit Hilfe von Lemma 7.6 ist dies leicht zu verifizieren.Satz 7.9Sei X ein IK –Vektorraum <strong>und</strong> sei m ∈ IN . Die AbbildungAlt m : T m (X) −→ T m (X) ,Alt m (T )(x 1 ,...,x m ):= 1 ∑ɛ(σ)T (x σ(1) ,...,x σ(m) ) , (x 1 ,...,x m ) ∈ X m ,m!σ∈S mhat folgende Eigenschaften:(a) Alt m ist IK –linear.(b) Alt m|Am(X) = id Am(X) .(c) Bild(Alt m )=A m (X) .Beweis:Aus Definition von Alt m folgt Alt m (T ) ∈T m (X) für jedes T ∈T m (X) , da T m (X) einIK –Vektorraum ist. Also ist die oben vorgenommene Definition korrekt.(a) ist trivial.


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 165Zu (b). Sei T ∈A m (X) . Seien x 1 ,...,x m ∈ X.Es gilt:Alt m (T )(x 1 ,...,x m ) = 1 ∑ɛ(σ)T (x σ(1) ,...,x σ(m) )m!σ∈S m= 1 ∑ɛ(σ)ɛ(σ)T (x 1 ,...,x m )m!σ∈S m= T (x 1 ,...,x m )Zu(c). Die Tatsache Bild(Alt m ) ⊂A m (X) folgt so:Sei T =(Alt m )(T ′ )mitT ′ ∈T m (X) . Sei τ ∈S m <strong>und</strong> seien x 1 ,...,x m ∈ X.Alt m (T ′ )(x τ (1) ,...,x τ (m) ) = 1 ∑ɛ(σ)T ′ (x σ(τ (1)) ,...,x σ(τ (m)) )m!σ∈S m= 1 ∑ɛ(σ ′ ◦ τ −1 )T ′ (x σ′ (1) ,...,x σ′ (m) )m!σ ′ ∈S m= 1 ∑ɛ(σ ′ )ɛ(τ −1 )T ′ (x σ′ (1) ,...,x σ′ (m) )m!σ ′ ∈S m= ɛ(τ) 1 ∑ɛ(σ ′ )T ′ (x σ′ (1) ,...,x σ′ (m) )m!σ ′ ∈S m= Alt m (T ′ )(x 1 ,...,x m )Damit ist T = Alt m (T ′ ) ∈A m (X) gezeigt.Satz 7.10Sei X ein n–dimensionaler IK –Vektorraum. Dann gilt:( )ndim IK A m (X) = .mBeweis:Von den Basiselementen T j1 ,...,j m, 1 ≤ j 1 ,...,j m ≤ n in T m (X) (siehe Beweis zu Satz 7.3),die durchT j1 ,...,j m(e i 1,...,e im )=δ j1 i 1···δ jmi m, 1 ≤ i 1 ,...,i m ≤ nfestgelegt sind, bleiben hier nur die übrig, für die die Tupel (j 1 ,...,j m ) paarweise verschiedeneKomponenten haben. Die Anzahl dieser Elemente ist gleich der Anzahl allerTeilmengen von {1,...,n} mit m Elementen.Aus der obigen Dimensionsformel lesen wir ab:dim IK A m (X) =1, falls dim IK X = m.Dies führt uns im nächsten Abschnitt zur Determinantenfunktion.


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 1667.3 DeterminantenfunktionNun wollen wir die alternierenden Formen in den Spalten einer Matrix betrachten. Wirwissen schon, daß die alternierende Form T ∈T n (IK n ) bis auf eine Konstante festgelegtist, durch Normierung wird sie dann also eindeutig. Dies ist Inhalt vonDefinition 7.11Die eindeutig bestimmte alternierende Form det ∈T n (IK n,1 ) mit det(e 1 ,...,e n )=1heißt Determinantenfunktion.Ist A ∈ IK n,n eine Matrix mit Spaltenformulierung A =(a 1 | ...|a n ), dann heißtdet(a 1 ,...,a n ) die Determinante von A <strong>und</strong> wir schreiben kurz:det(A) :=det((a 1 | ...|a n )) := det(a 1 ,...,a n ) .2Auf den Zusammenhang des Determinantenbegriffs mit der Volumenmessung wollen wirhier nicht weiter eingehen, dies soll aber im Kapitel 8 nachgeholt werden.Erstmals wurden Determinanten ähnliche Objekte wohl von dem japanischen Mathematiker SekiKowa (1642 – 1708) betrachtet. G.W. Leibniz (1646 – 1716) beschrieb in einem Brief an G.l’Hospital (1661 – 1704) die 3 × 3 – Determinante als Hilfsmittel, ein lineares Gleichungssystem in2 Unbekannten <strong>und</strong> drei Gleichungen zu lösen.Halten wir nochmal ausdrücklich fest, daß die Determinantenfunktion det in IK n,n vollständigfestgelegt ist durch drei Eigenschaften:(D1) det(A) ist linear in jeder Spalte der Matrix A.(Multilinearität)(D2) det(A) ist Null, wenn zwei Spalten von A gleich sind.(Alternation)(D3) det(A) ist Eins, wenn A = E ist.(Normierung)Fügen wir noch Konsequenzen hinzu, die sich aus der Tatsache ergeben, daß det einealternierende Form ist (siehe Abschnitt 5.2).(D4) Die Determinante ändert sich nicht, wenn man zu einer Spalte eine Linearkombinationeiner anderen Spalte addiert.(D5) Die Determinante ändert das Vorzeichen, wenn man zwei Spalten vertauscht.(D6) det(A) ist Null, wenn rg(A) 1 .(D8) det((e σ(1) | ...|e σ(n) )) = ɛ(σ), wobei σ eine Permutation ist.(D8) ist richtig für Transpositionen, da die Determinantenfunktion alternierend ist. Seiσ ∈S m eine Permutation. Nach Satz 3.18 gibt es Transpositionen τ 1 ,...,τ k mit σ =τ ◦ ...◦ τ k . Damit folgt mit Folgerung 3.19Der Multiplikationssatz lautet:det((e σ(1) | ...|e σ(n) )) = (−1) k det(E) =(−1) k = ɛ(σ) .


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 167(D9) det(AB)=det(A) det(B) .Er folgt so: Sei B =(b 1 | ...|b n ) in Spaltenform hingeschrieben. DaIK n,1 × ...× IK n,1 ∋ (x 1 ,...,x n ) ↦−→ det(Ax 1 ,...,Ax n ) ∈ IKeine alternierende Multilinearform in T n (IK n,1 ) definiert, gibt es einen Skalar d ∈ IK mitdet(AB) = det((Ab 1 | ...|Ab n )) = d det((b 1 | ...|b n )) = d det(B) .Wählt man B = E, erhält man d =det(A) .Trivial ist(D10) det(aA)=a n det(A) .<strong>und</strong> wichtig ist(D11) det(A t )=det(A) .Der Beweis zu (D11) geht so:Wegen (D6) können wir o.E. annehmen rg(A) =n, d.h. A ist invertierbar. Das GaußscheEliminationsverfahren liefert eine Darstellung von A als Produkt von Gauß– <strong>und</strong> Permutationsmatrizen(siehe Abschnitt 4.5). Für jede dieser Matrizen gilt die Aussage (D11).Also gilt wegen (D9) die Aussage auch für A selbst.Kommen wir zur Berechnung von Determinanten. Für Matrizen von oberer Dreiecksgestaltsind wir sofort erfolgreich:(D12) Ist A =(a ij ) i=1(1)n , j =1(1)neine Matrix von oberer Dreiecksgestalt, dann gilt:det(A) =a 11 ···a nn .Dies folgt so:Ist a 11 ···a nn =0,dannistrg(A)


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 168wird eine alternierende Form auf den Spalten von B erklärt. Also gibt es einen Skalard ∈ IK mitδ(B) =d det(B) für alle B ∈ IK n,n .(( ))E ΘFür B = E ergibt sich d = δ. Also folgtΘ D(( )) (( ))B ΘE Θdet=detdet(B) .Θ DΘ DAnalog erhält man((B ΘdetΘ D)) ((B Θ=detΘ E))det(D) .Daraus folgt(( )) (( ))B ΘB Θdet=detdet(D) =Θ DΘ E(( ))E Θ=detdet(B) det(D) =det(B) det(D) .Θ EDer allgemeine Fall folgt nun so:Ist rg(B)


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 169Nur der Beweis der zweiten Formel ist zu erbringen, die erste Formel folgt aus der Tatsache,daß det(A) =det(A t ) gilt (siehe (D11)).Sei A =(a 1 | ...|a n ) in Spaltenform gegeben. Dann wissen wir, daß mit der Standardbasise 1 ,...,e n in K n,1 gilt: a j ∑= n a i,j e i , 1 ≤ j ≤ n. Die Multilinearität (D1) von det lieferti=1det(A) =n∑ n∑... a i1 ,1 ···a in,n det((e i 1| ...|e in ))=i 1 =1 i n=1a σ(1),1 ···a σ(n),n ɛ(σ)σ∈S nwobei wir auch (D8) verwendet haben.Beispiel 7.12Mit Regel (D14) berechnet mand 3 :=∣∣a 11 a 12 a ∣∣∣∣∣∣ 13a 21 a 22 a 23a 31 a 32 a 33nach folgender Formel:d 3 = a 11 a 22 a 33 + a 12 a 23 a 31 + a 13 a 21 a 32 − a 11 a 23 a 32 − a 12 a 21 a 33 − a 13 a 22 a 31Hierzu hat man lediglich die Kenntnis von S 3 einzubringen.DieFormel,dieauchRegel von Sarrus heißt, kann man sich leicht merken durch folgendeStütze:Man schreibt den ersten <strong>und</strong> zweiten Spaltenvektor der Matrix hinter die drei Spalten derMatrix; die drei Produkte der Hauptdiadonalen ergeben die positiven Summanden, diedrei Produkte der Nebendiagonalen ergeben die Summanden mit dem negativen Vorzeichen.2Bemerkung 7.13Man sollte nicht der Versuchung unterliegen, die Formeln aus (D14) als effektive Methodezur Berechnung einer Determinante anzusehen: Bei der Auswertung fallen n!(n−1) (teuere)Multiplikationen an, abgesehen von den (etwas billigeren) Additionen. 1 Die Methodeder Wahl zur Berechnung einer Determinante sollte das Gaußsche Eliminationsverfahrenzusammen mit (D12) <strong>und</strong> (D13) sein. Hier fallen nur etwa 2n 2 Multiplikationen an. 2Bemerkung 7.141 Die Stirlingsche Formel sagt, daß n! sich etwa wie n n e −n√ 2πn verhält.


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 170Aus der Formeldet(A) = ∑für eine Matrix A =(a ij ) i=1(1)n , j =1(1)nableiten. Dies geht so:det(A t ) = ∑σ∈S nɛ(σ)a σ(1),1 ···a σ(n),nkann man die Regel det(A t )=det(A) auchɛ(σ)a 1,σ(1) ···a n,σ(n)σ∈S n= ∑ɛ(σ −1 )a σ −1 (1),1 ···a σ −1 (n),nσ∈S n= ∑ɛ(σ ′ )a σ ′ (1),1 ···a σ ′ (n),1σ ′ ∈S n= det(A)2Satz 7.15Für A ∈ IK n,n sind äquivalent:(a) A ∈ GL n (IK ) .(b) det(A) ≠0.Zusatz: Ist A ∈ GL n (IK ), dann gilt det(A −1 )=(det(A)) −1 .Beweis:(a) =⇒ (b) <strong>und</strong> der Zusatz folgen aus E = AA −1 mit dem Multiplikationssatz.Zu (b) =⇒ (a). Aus det(A) ≠0folgtrg(A) =n, d.h.A ist invertierbar.Erinnert sei nun an die spezielle orthogonale GruppeSO(n) :={A ∈O(n)| det(A) =1}wobei O(n) :={A ∈ IR n,n |A t A = AA t = E} die orthogonale Gruppe ist. Aus den obigenErgebnissen folgt sofort, daß SO(n) mit der Matrixmultiplikation als Verknüpfung eineGruppe ist.Definition 7.16Sei A =(a 1 | ...|a n ) ∈ IK n,n . Wir setzena # ij := det((a 1 | ...|a j−1 |e i |a j+1 | ...|a n )) , 1 ≤ i, j ≤ n,<strong>und</strong> nennen a # ij die algebraischen Komplemente von A. Die damit aufgebauteMatrix A # := adj(A) := ( a # )jiheißt die zu A komplementärei=1(1)n , j =1(1)nMatrix oder Adjunkte.2


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 171Lemma 7.17Sei A =(a ij ) i=1(1)n , j =1(1)n∈ IK n,n <strong>und</strong> seien a # ij , 1 ≤ i, j ≤ n, die algebraischenKomplemente. Dann gilt:a # ij =(−1) i+j det(A ij ),wobeiA ij ∈ IK n−1,n−1 aus A durch Streichen der i−ten Zeile<strong>und</strong> j−ten Spalte entstanden ist; 1 ≤ i, j ≤ n.Beweis:Sei A ′ ij ∈ IK n,n die Matrix, die aus A durch Ersetzen der j-ten Spalte durch e i ∈ IK n,1<strong>und</strong> Ersetzen der i-ten Zeile durch e j ∈ IK 1,n entsteht. Aus (a 1 | ...|a j−1 |e i |a j+1 | ...|a n )entsteht durch elementare Spaltenumformungen diese Matrix A ′ ij , <strong>und</strong> es giltdet((a 1 | ...|a j−1 |e i |a j+1 | ...|a n )) = det(A ′ ij) .Durch (i − 1) Spalten– <strong>und</strong> (j − 1) Zeilenvertauschungen ensteht aus A ′ ij die Matrix( )1 θ.θ A ijEs gilt:det((a 1 | ...|a i−1 |e j |a i+1 | ...|a n )) = det(A ′ ij) =(−1) i+j det(A ij ) .Lemma 7.18Sei A ∈ IK n,n <strong>und</strong> sei A # die zu A komplementäre Matrix. Dann gilt:AA # = A # A =det(A) E.Beweis:Wir berechnen die Einträge von A # A.n∑n∑a # kia kj = a kj det((a 1 | ...|a i−1 |e k |a i+1 | ...|a n ))k=1k=1n∑= det((a 1 | ...|a i−1 | a kj e k |a i+1 | ...|a n ))k=1= det((a 1 | ...|a i−1 |a j |a i+1 | ...|a n ))= δ ij det(A)Also ist A # A =det(A)E. Analog AA # =det(A)E.Gegeben sei ein GleichungssystemAx= bmit A ∈ IK n,n ,b∈ IK n,1 . Ist det(A) ≠0, dann existiert A −1 <strong>und</strong> wir lesen aus Lemma7.18 ab:A −1 1=det(A) A# .


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 172Die Lösung x des Gleichungssystems ist dann also gegeben durch1x =det(A) A# b.Unter Ausnutzung der Definition von A # erhalten wir1x j =det(A) det((a1 | ...|a j−1 | b |a j+1 | ...|a n )) , 1 ≤ j ≤ n.Diese Darstellung der Lösungskomponenten heißt Cramersche Regel.Wie bereits früher vermerkt, hat G.W. Leibniz (1646 – 1716) die 3×3 – Determinante als Hilfsmittel,ein lineares Gleichungssystem in 2 Unbekannten <strong>und</strong> drei Gleichungen zu lösen, beschrieben.Von C. MacLaurin (1698 – 1746) wurde 1748 eine Lösungsmethode für ein lineares 4 × 4 GleichungssystemHilfe von Determinanten angegeben. G. Cramer (1704 – 1752) verallgemeinerte 1750diese Methode auf ein n × n – Gleichungssystem (siehe Cramersche Regel). Von P.S. Laplace (1749-1827) stammt der Entwicklungssatz, den Multiplikationssatz hat A.-L. Cauchy (1789 – 1857) bewiesen.Von ihm stammt die Bezeichnung “Determinante“. Unabhängig davon hat J.L. Lagrange(1736 – 1813) 3 × 3– Determinanten zur Volumenmessung bei Pyramiden verwendet.Satz 7.19Sei n ≥ 2 <strong>und</strong> sei A =(a ij ) i=1(1)n , j =1(1)n∈ IK n,n .∑(a) Für jedes i ∈{1,...,n} gilt det(A) = n (−1) i+j a ij det(A ij ) .∑(b) Für jedes j ∈{1,...,n} gilt det(A) = n (−1) i+j a ij det(A ij ) .Beweis:Wir beweisen nur (b). Nach Lemma 7.18 gilt A # A =det(A)E. Daraus folgtdet(A) ===j=1i=1n∑a # ija iji=1n∑a ij det((a 1 | ...|a j−1 |e i |a j+1 | ...|a n ))i=1n∑(−1) i+j a ij det(A ij )i=1Der Satz 7.19 enthält den Laplaceschen Entwicklungssatz: Entwicklung nach der i–tenZeile ((a)), Entwicklung nach der j–ten Spalte ((b)).Mitunter verwenden wir die auch anderswo zu findende Schreibweise∣ ⎛⎛⎞⎞a 11 ··· a ∣∣∣∣∣∣∣ 1na 11 ··· a 1n. . für det ⎜⎜⎟⎟⎝⎝. . ⎠⎠ .∣ a n1 ··· a nn a n1 ··· a nn


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 173Beispiel 7.20In der Ebene IR 2 arbeiten wir meist mit (den) kartesischen Koordinaten, d.h. mit den Koordinatenbezogen auf die Standardbasis e 1 ,e 2 . In vielen Fällen vereinfachen sich Rechnungenbeträchtlich, wenn man bei den Rechnungen stattdessen Polarkoordinaten verwendet.Dies bedeutet, die Lage eines Punktes (x, y) ∈ IR 2 durch Koordinaten r ≥ 0,φ ∈ [0, 2π)gemäßx = r cos(φ) ,y= r sin(φ)auszudrücken. Für (x, y) ≠(0, 0) hat man√r = x 2 + y 2 ,φ= arctan ( y x )für x ≠0,φ= arcctg (x )für y ≠0.yDie Abbildung(0, ∞) × [0, 2π) ∋ (r, φ) ↦−→ (r cos(φ),rsin(φ)) ∈ IR 2ist (unendlich oft) partiell differenzierbar. Die Jakobi–Matrix J(r 0 ,φ 0 ) in einem Punkt(r 0 ,φ 0 ) ∈ (0, ∞) × [0, 2π) ist gegeben durch( )cos(φ) r sin(φ)J(r 0 ,φ 0 ):=.sin(φ) r cos(φ)Für ihre Determinante erhalten wirdet J(r 0 ,φ 0 )=r 0 > 0 .(Nichtlineare Transformationen mit der Eigenschaft, daß die Jakobimatrix regulär ist,haben die Eigenschaft, daß sie sich lokal invertieren lassen (siehe Analysis II).) 2Beispiel 7.21Das Interpolationsproblem für Polynome lautet:Gegeben: (Stütz–)Punkte t 1 ,...,t n ∈ IR ,(Stütz–)Werte y 1 ,...,y n ∈ IR .Gesucht: Polynom p(t) := n−1 ∑x j t j mit p(t i )=y i , 1 ≤ i ≤ n.j=0(Der Grad des gesuchten Polynoms ist so gewählt, daß die Anzahl der Interpolationsforderungengleich der Anzahl der Freiheitsgrade (Koeffizienten des Polynoms) ist.)Die Wortwahl “Interpolationsproblem“ wird klar, wenn man sich die Daten y 1 ,...,y n alsWerte einer Funktion auf IR vorstellt.Offensichtlich ist die Aufgabe äquivalent zum linearen GleichungssystemAx= y,wobei y t =(y 1 ,...,y n ) ∈ IR 1,n <strong>und</strong>⎛2 n−11 t 1 t 1 ··· t 1 2 n−11 t 2 t 2 ··· t 2A = A(t 1 ,...,t n ):=⎜⎝ ..2 n−11 t n t n ··· t n⎞n,n⎟ ∈ IK⎠


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 174ist. Dieses Gleichungssystem besitzt genau eine Lösung, da die Determinante von A nichtverschwindet, denndet(A) =det(A(t 1 ,...,t n )) =∏1≤i1) Zeile hat. Mit Regel (D13) folgt⎛⎛t 2 − t 1 t 2 (t 2 − t 1 ) ··· t n−2 2 (t 2 − t 1 )det(A(t 1 ,...,t n )) = det ⎜⎜⎝⎝..t 2 − t 1 t 2 (t 2 − t 1 ) ··· t n−2 2 (t 2 − t 1 )⎞⎞⎟⎟⎠⎠Die Behauptung folgt also mit Induktion.= (t 2 − t 1 )(t 3 − t 1 ) ···(t n − t 1 )det(A(t 2 ,...,t n )) .Zur Berechnung der Lösung der Interpolationsaufgabe eignet sich das obige Gleichungssystemnicht sehr gut, da die Matrix A(t 1 ,...,t n ) vollbesetzt ist. Dies liegt daran, daßdie Monome 1,t,t 2 ,...,t n−1 keine problemangepaßte Basis des n–dimensionalen RaumsP IK ,n−1 darstellen. Eine geeignetere Basis (“Basis der Newtonpolynome“) ist1,t− t 1 , (t − t 1 )(t − t 2 ),...,(t − t 1 ) ···(t − t n−1 ) .Das Gleichungssystem wird dann zu A N x = y mit⎛⎞1 0 ··· 01 t 2 − t 1 0 ··· 0A N :=... . ..⎜⎝ 1 0⎟⎠1 ··· (t n − t 1 ) ···(t n − t n−1 )Dieses Gleichungssystem kann nun allein durch Vorwärtselimination gelöst werden.Eine in dieser Beziehung noch günstigere Basis ist die Basis der “Lagrange–Polynome“:l j (t) :=n∏k=1,k≠j(t − t k )(t j − t k ) , 1 ≤ j ≤ n.Hierzu gehört dann ein Gleichungssytem, das durch eine Diagonalmatrix beschrieben wird,also sehr einfach auflösbar ist. In dieser Basis hat das Interpolationspolynom die Darstellung(Lagrangessche Interpolationsformel)n∑p(t) = y i l i (t) ,t∈ IR .i=1


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 175Allerdings hat diese Basis gegenüber der Basis der Newtonpolynome zwei Nachteile: Erstensist die Auswertung der Lagrangepolynome nicht sehr stabil, zweitens hat man dieBasis komplett neu aufzustellen, wenn etwa ein Datenpunkt t n+1 ,y n+1 neu hinzukommt.Die Darstellung des Interpolationspolynoms durch die Lagrangepolynome eignet sich abersehr gut für theoretische Überlegungen (Fehlerabschätzung, Entwurf von Quadraturformeln).2Ein Schwerpunkt der Gaußschen Beiträge zur numerischen Mathematik liegt in der Interpolation<strong>und</strong> der Integration. Am 25.11.1796 steht in seinem Tagebuch die Eintragung“’Formula interpolationis elegans“womit wahrscheinlich die Interpolationsformel von Lagrange gemeint ist.7.4 Determinante von EndomorphismenNun übertragen wir die Determinantenfunktion in naheliegender Weise auf Endomorphismen.Definition 7.22Sei X ein IK –Vektorraum mit Basis Φ X = {x 1 ,...,x n } <strong>und</strong> sei L : X −→ XIK – linear. Wir setzendet(L) :=det(A L ) ,wobei A L die Matrixdarstellung von L bzgl. der Basis Φ X ist.2Damit die obige Definition sinnvoll ist, ist zu zeigen, daß det(L) nichtvondergewähltenBasis abhängt. Dies ist aber mit Bemerkung 4.33 sofort klar, da sich Matrixdarstellungenvon L nur bis auf Ähnlichkeit unterscheiden, d.h.:Ist A ′ L die Darstellung von L bzgl. einer weiteren Basis Φ ′ X, dann gibt es eine invertierbareMatrix S mitA ′ L = S −1 A L S.Also ergibt der MultiplikationssatzDies war zu zeigen.det(L) =det(S −1 A L S)=det(S −1 )det(A L )det(S) =det(L) .


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 176Satz 7.23Sei X ein endlichdimensionaler IK –Vektorraum <strong>und</strong> sei L : X −→ X IK – linear.Dann sind für λ ∈ IK äquivalent:(a) λ ist Eigenwert von L.(b) Kern(λid X − L) ≠ {θ} .(c) Kern(λE − A) ≠ {θ} für jede Matrixdarstellung A von L.(d) det(λE − A) =0für jede Matrixdarstellung A von L.(e) det(λid X − L) =0.Beweis:Sei n := dim IK X <strong>und</strong> sei A eine Matrixdarstellung von L (bei gewählter Basis in X .(a) ⇐⇒ (b)Klar, ein Vektor x ist Eigenvektor zu λ genau dann, wenn x in Kern(λid X − L) ist.(b) ⇐⇒ (c)Betrachte das DiagrammXL−→Xk X⏐ ⏐⏐↓k X ◦ L = A ◦ k X⏐ ⏐⏐↓k XIK n,1A−→ IK n,1mit der Koordinatenabbildung k X . Aus der Kommutativität des Diagramms <strong>und</strong> derTatsache, daß k X ein Isomorphismus ist, folgt, daß jedes Element k X (x) ∈ IK n,1 mitx ∈ Kern(λid X − L) inKern(λE − A) liegt.Damit ist (b) =⇒ (c) klar, die Umkehrung folgt analog.Die Implikationen (c) ⇐⇒ (d) , (d) ⇐⇒ (e) sind trivial.Sei A =(a ij ) i=1(1)n , j =1(1)n∈ IK n,n . Betrachte die Abbildungp A : IK ∋ λ ↦−→ det(λE − A) ∈ IK .Die Darstellungsformel (D14) zeigt sofort, daß p A ein Polynom ist, dessen Grad höchstensn ist. Der Grad ist wirklich n, denn der Summand, der zur Identität id ∈S m gehört,lautet(λ − a 11 ) ···(λ − a nn ) .Der Koeffizient von λ n ist also 1. Der Koeffizient von λ n−1 ergibt sich zu−(a 11 + ...+ a nn ) ,der Koeffizient von λ 0 ist (−1) n det(A) . Also haben wirp A (λ) =λ n − (a 11 + ...+ a nn )λ n−1 + ...+(−1) n det(A) ,λ∈ IK . (7.1)


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 177Kommen wir nun zur Definition des charakteristischen Polynoms in einer allgemeinenSituation (siehe Definition 5.26).Definition 7.24Das Polynom χ A(λ) :=det(λE−A) heißt charakteristisches Polynom der MatrixA =(a ij ) i=1(1)n , j =1(1)n.Der Koeffizient a 11 + ...+ a nn von λ n−1 in χ Aheißt Spur von A.2Ist nun A ∈ IK n,n eine Matrixdarstellung einer IK –linearen Abbildung L, dannistχ Avonder speziellen Matrixdarstellung gar nicht abhängig, da eine andere Matrixdarstellungdazu ähnlich ist. Daher ist sinnvoll:Definition 7.25Sei X ein endlichdimensionaler IK –Vektorraum <strong>und</strong> sei L : X −→ X IK – linear.Das Polynom χ L, definiert durch χ L(λ) :=χ A(λ) ,λ∈ IK , wobei A eine Matrixdarstellungvon L ist, heißt das charakteristisches Polynom von L.2Bemerkung 7.26Bei ähnlichen Matrizen stimmen die charakteristischen Polynome offenbar überein. DieUmkehrung gilt nicht, wie man an folgendem Paar nichtähnlicher Matrizen erkennt:A :=(0 00 0),B:=(0 10 0Beide Matrizen haben als charakteristisches Polynom das Polynom p(λ) :=λ 2 . 2).Folgerung 7.27Sei X ein endlichdimensionaler IK –Vektorraum <strong>und</strong> sei L : X −→ X IK – linear.λ ∈ IK ist genau dann Eigenwert der IK – linearen Abbildung L : X −→ X,wennλ Nullstelle des charakteristischen Polynoms χ Lvon L ist.Beweis:Satz 7.23.Kennt man einen Eigenwert λ eines Endomorphismus L : X −→ X (dim IK X endlich),dann berechnet man einen Eigenvektor, indem man eine Basis von X wählt, die zugehörigeMatrixdarstellung A von L ermittelt, einen (Koordinaten–)Vektor a in Kern(λE − A)berechnet <strong>und</strong> diesen mit Hilfe der Koordinatenabbildung k X zu einem Vektor x ∈Kern(λid X − L) macht (siehe Beweis zu Satz 7.23).Das Hauptproblem liegt also im Auffinden von Eigenwerten von Matrizen. Hierzu sindnach Folgerung 7.27 die Nullstellen des charakteristischen Polynoms aufzufinden. Damitkommt nun der F<strong>und</strong>amentalsatz der <strong>Algebra</strong>


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 178Jedes Polynom vom Grad n ≥ 1 besitzt genau n Nullstellen in ′Cwieder ins Spiel (siehe Abschnitt 3.3). Liegt also der Skalarkörper ′C vor, dann haben wirn := deg(χ L) Nullstellen des charakteristischen Polynoms <strong>und</strong> das Problem, genügendviele Eigenvektoren zu finden (siehe Lemma 5.7 <strong>und</strong> Lemma 5.1), scheint zumindest prinzipiellgelöst. Leider führt uns Lemma 5.7 nur dann zu einer Basis von Eigenvektoren inX, wenn die Eigenwerte paarweise verschieden sind. Hier ist wieder der zentrale Punktder Theorie diagonalisierbarer Abbildungen erreicht.Der Satz von Cayley – Hamilton erhält nun eine allgemein gültige Fassung.Satz 7.28Sei X ein endlichdimensionaler IK – Vektorraum <strong>und</strong> sei L : X −→ X IK – linear.Ist χ Ldas charakteristische Polynom von L, sogiltχ L(L) =Θ.Beweis:Sei n := dim IK X <strong>und</strong> sei A irgendeine Matrixdarstellung von L.Sei p(λ) :=det(λE − A) =a 0 + a 1 λ + ...+ a n−1 λ n−1 + λ n ,λ∈ IK .Sei für λ ∈ IK B # (λ) =(b ji (λ)) i=1(1)n , j =1(1)n die zu λE − A komplementäre Matrix.Jeder Eintrag b ji (·) stellt ein Polynom dar <strong>und</strong> hat höchstens Grad n − 1; dies folgt ausder Definition der algebraischen Komplemente. Also können wir B # (λ)mitC 0 ,...,C n−1 ∈IK n−1,n−1 so hinschreiben:Nach Definition des Komplements giltB # (λ) =C 0 + C 1 λ + ···+ C n−1 λ n−1 .(λE − A) B # (λ) =det(λE − A)E.Ein Koeffizientenvergleich liefert die Gleichungen−AC 0 = a 0 E,−AC 1 + C 0 = a 1 E,...,−AC n−1 + C n−2 = a n−1 E,C n−1 = E.Indem man hier die k-te Gleichung mit A k multipliziert (k =0,...,n) <strong>und</strong> die Ergebnisseaddiert, kommt man zur BeziehungΘ = a 0 E + a 1 A + ...+ a n−1 A n−1 + A n = p(A).Nun ist auch klar, wie das Minimalpolynom eines Endomorphismus L, losgelöst von derAnnahme, daß L split über dem Skalarkörper ist, definiert werden kann. Es existiert janun offensichtlich ein Polynom p kleinsten Grades mit p(L) =Θ.


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 179Definition 7.29Sei X ein endlichdimensionaler IK – Vektorraum <strong>und</strong> sei L : X −→ X einEndomorphismus. Das eindeutig bestimmte Polynomx k +k−1 ∑l=0a l x l ∈ IK [x] mit L k +k−1 ∑l=0a l L l = Θheißt das Minimalpolynom von L; wir schreiben dafür µ L .2Beispiel 7.30Sei X := IR 2 <strong>und</strong> sei der Endomorphismus L : X −→ X dargestellt durch die Matrix( )0 −1A :=∈ IR1 02,2 .Das charakteristische Polynom ist offenbar χ L(λ) :=λ 2 +1. Es ist identisch mit demMinimalpolynom. Da es keine Nullstellen in IR 2 hat, ist der Endomorphismus nicht splitüber IR . Klar, über ′C ist der Endomorphismus split. 2Mit etwas Kenntnissen aus der Theorie der Ideale im Polynomring IK [x] leitet man ab,daß µ L ein Teiler des charakteristischen Polynoms χ List <strong>und</strong> daß χ Lein Teiler vonµ n L (n =dim IK X)ist.7.5 OrientierungIn IR 1 kann man eine “Orientierung“ einführen, indem man einen Halbstrahl der Zahlengeradenals positiv auszeichnet.In IR 2 erhält man eine “Orientierung“, indem man einen Drehsinn als positiv auszeichnet.Im allgemeinen ist dies der Gegenuhrzeigersinn.Im IR 3 schließlich kann man eine “Orientierung“ einführen, indem man einen “Schraubungssinn“als positiv auszeichnet. Der Physiker hat dafür die sogenannte Dreifingerregelparat.Allgemein läßt sich eine Orientierung mittels geordneter Basen einführen. Davor nochmalsein Blick auf IR 2 . In IR 2 gibt es zwei verschiedene Drehrichtungen. Man gebe sich eineBasis {a 1 ,a 2 } vor. Die Gerade L({a 1 }) kann durch die Gleichungdet(a 1 |x) =0beschrieben werden. Damit gibt es die zwei Halbebenendet(a 1 |x) > 0 , det(a 1 |x) < 0 .Die beiden Orientierungen lassen sich also dadurch unterscheiden, obdet(a 1 |a 2 ) > 0oder det(a 1 |x) < 0


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 180gilt. Welche Orientierung als positiv ausgezeichnet wird, ist willkürlich.Definition 7.31Zwei geordnete Basen {x 1 ,...,x n }, {y 1 ,...,y n } im IR – Vektorraum X heißengleich–orientiert, falls det(A) > 0 für die Übergangsmatrix A gilt.2Die Relation “gleich–orientiert“ ist eine Äquivalenzrelation. Die Eigenschaften Reflexivität,Symmetrie, Transitivität folgen ausdet(E) =1, det(A −1 )=det(A) −1 , det(AB) =det(A)det(B).Die Klasseneinteilung ist einfach; sie führt auf zwei Klassen. Wiederum ist es willkürlich,welche Klasse von geordneten Basen als positiv orientiert bezeichnet wird. Beachte, daßes wirklich auf die Reihenfolge in der Angabe der Basis ankommt: Bei Vertauschung vonzwei Basiselementen wechselt die Basis die Klasse.Beispiel 7.32Sind in IR 3 die beiden Basen {e 1 ,e 2 ,e 3 } <strong>und</strong> {e 1 ,e 1 + e 2 ,e 1 − e 3 } gleichorientiert?Die Übergangsmatrix ist⎛⎞1 1 1⎜⎟A := ⎝ 0 1 0 ⎠0 0 −1<strong>und</strong> damit det(A) =−1 < 0. Also sind die Basen nicht gleichorientiert. 2Definition 7.33Einen endlich–dimensionalen IR – Vektorraum mit einer in ihm gewählten Orientierung,d.h. mit einer als positiv ausgezeichneten Klasse von Basen, nennt man einenorientierten Raum.2Man löse ein Etikett von einer Thunfischdose ab, gebe dem Papierstreifen eine halbe Drehung <strong>und</strong>klebe ihn so zusammen, daß die blanke Innenseite nahtlos in die beschriftete Außenseite übergeht.Auf diese Weise bekommt man ein Möbiusband mit all seinen seltsamen Eigenschaften. Erstens,das Möbiusband hat nur eine Seite. Man entdeckt dies, wenn man versucht, das Möbiusband aufeiner Seite rot <strong>und</strong> auf der anderen Seite blau zu färben. Zweitens, man kann es nicht teilen,wenn man es entlang der Mittellinie durchschneidet. Drittens, es ist nicht orienterbar. Man siehtdies, wenn man ein kleines Koordinatenkreuz entlang der Mittellinie über das Möbiusband schiebt:Wenn man einmal rum ist, kommt das Koordinatenkreuz nicht zu Deckung.Dieses aufregende (topologische/geometrische) Objekt wurde von A.F. Möbius (1790 – 1868) entdeckt.Wir führen nun ein Vektorprodukt, d.h. ein “Produkt“ von zwei Vektoren, das wieder einVektor ist, so ein, daß gilt:


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 181Sind x, y ∈ IR 3 linear unabhängig <strong>und</strong> ist x × y das zugehörige Vektorprodukt, dann istx, y, x × y eine positiv orientierte Basis von IR 3 (e 1 ,e 2 ,e 3 ist als positiv orientierte Basisfestgelegt).Da das Vektorprodukt auch linear in jedem Argument sein soll, muß dann notwendigerweisegelten:e 1 × e 2 = e 3 ,e 2 × e 3 = e 1 ,e 3 × e 1 = e 2 .Definition 7.34Sei IK ein Körper. Unter dem Vektorprodukt x × y von x, y ∈ IK 3,1 versteht manden Vektor⎛⎞x 2 y 3 − x 3 y 2⎜⎟x × y := ⎝ x 3 y 1 − x 1 y 3 ⎠ ∈ IK 3,1 .x 1 y 2 − x 2 y 12Das Bildungsgesetz läßt sich leicht merken, indem man die Entwicklung einer Determinantenach einer Spalte in sehr formaler Weise verwendet:x × y :=∣e 1 x 1 y 1e 2 x 2 y 2e 3 x 3 y 3∣ ∣∣∣∣∣∣:= e 1 ∣ ∣∣∣∣ x 2 y 2x 3 y 3∣ ∣∣∣∣− e 2 ∣ ∣∣∣∣ x 1 y 1x 3 y 3∣ ∣∣∣∣+ e 3 ∣ ∣∣∣∣ x 1 y 1x 2 y 2∣ ∣∣∣∣.Bei der Einführung des Vektorprodukts haben wir Spaltenvektoren verwendet. Es ist klar,daß wir damit auch ein Vektorprodukt in IK 3 zur Verfügung haben. Diesen Standpunktnehmen wir nun ein <strong>und</strong> unterscheiden in diesem Zusammenhang nicht zwischen Spaltenvektoren<strong>und</strong> Tupeln.Unter Verwendung des euklidischen Skalarprodukts < ·, · > in IR 3 b haben wir folgendeRechenregeln:(R1) x × y = −y × x, x× x = θ.(R2) (ax + by) × z = ax × y + by × z.(R3) x × (ay + bz) =ax × y + bx × z.(R4) x × (y × z) =y− z.(R5) x × (y × z)+y × (z × x)+z × (x × y) =θ.(Grassmann – Identität)(Jakobi – Identität)(R6) = det((x|y|z)) .(R7) =< y,x× y>=0.( (R8) |x × y| 2 = |x| 2 |y| 2 − 2 =det )(R9) |x × y| = |Ax × Ay| für A ∈O(3).


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 182(R10) |x × y| = |x||y| sin(θ),= |x||y| cos(θ), 0 ≤ θ ≤ π.Bemerkung 7.35IR 3 zusammen mit der Vektoraddition <strong>und</strong> dem Kreuzprodukt als “Multiplikation“ isteine nichtkommutative <strong>Algebra</strong>, die statt assoziativ zu sein, die Jakobi – Identität (R5)erfüllt. Eine solche <strong>Algebra</strong> heißt Lie–<strong>Algebra</strong>. 2Von der Orientierung der Basen gelangt man zu einem orientierten Volumen von Parallelepipeds.Ein solches Parallelepiped wird aufgespannt durch eine Basis x 1 ,...,x n gemäß⎧⎫⎨ n∑⎬P := a⎩ j x j |0 ≤ a j ≤ 1, 1 ≤ j ≤ n⎭ .j=1Das Volumen von P ist gegeben durch det(x 1 |···|x n ) <strong>und</strong> wir sehen, daß es positiv ist,falls die Standardbasis {e 1 ,...,e n } <strong>und</strong> die Basis {x 1 ,...,x n } gleichorientiert sind.7.6 Anwendung: Gleichungen der Mechanik *An den Anfang der eines kurzen Abrisses der Mechanik sollten wir Newtons Gr<strong>und</strong>gesetzein ihrer ursprünglichen Formulierung stellen:• Jeder Körper verharrt in seinem Zustand der Ruhe oder der gleichförmig geradlininigenBewegung, wenn er nicht durch einwirkende Kräfte gezwungen wird,seinen Bewegungszustand zu ändern.• Die Änderung der Bewegung ist der Einwirkung der bewegenden Kraft proportional<strong>und</strong> geschieht nach der Richtung derjenigen geraden Linie, nach welcher jeneKraft wirkt.• Die Wirkung ist stets der Gegenwirkung gleich; oder die Wirkungen zweier Körperaufeinander sind stets gleich <strong>und</strong> von entgegengesetzter Richtung.Mit Körper sind zunächst Massenpunkte, das sind punktförmige Teilchen, gemeint. Fürdie folgenden Betrachtungen sehen wir von der räumlichen Ausdehnung eines physikalischenKörpers/Massenpunktes zunächst also ab.Für die Beschreibung der Bewegung des Massenpunktes – wir sprechen von Bewegung,wenn sich im Ablauf der Zeit die Koordinaten des Körpers in einem gewählten Koordinatensystemändern – wählen wir ein geeignetes Koordinatensystem, etwa die drei Kantendes Labors, die in einer Ecke als Ursprung zusammenstoßen; siehe Bemerkung 6.31.Die Zeit spielt in der nichtrelativistischen Mechanik eine Sonderrolle. Die tägliche Erfahrungsagt uns, daß die Zeit universell zu sein scheint, d.h. daß sie unbeinflußt von denphysikalischen Gesetzen abläuft. Wir beschreiben die Zeit durch einen eindimensionalenaffinen Raum oder, nach Wahl eines Nullpunktes, durch die reelle Gerade IR .Sind P (t) ∈ IR 3 die Koordinaten des Massenpunktes zur Zeit t, so heißt−→r(t) :=OP(t)


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 183der Ortsvektor der Bewegung, wobei O als Koordinatenursprung angenommen wird. DerGeschwindigkeitsvektor ist definiert als zeitliche Veränderung des Ortsvektors:Der Beschleunigungsvektor istv(t) :=ṙ(t) := d dt r(t) .b(t) := ˙v(t) := d dt v(t) .(Die Notation ṙ, ˙v ist von den Physikern “geliehen“.) Der Geschwindigkeitsvektor v isteigentlich ein Tangentialvektor an die Bahnkurve t ↦−→ r(t) <strong>und</strong> liegt daher im Tangentialrauman die Mannigfaltigkeit der Ortsvektoren an der Stelle r. Hier können wir aberzunächst noch diesen Tangentialraum mit IR 3 identifizieren, in allgemeiner Situation hatman auf die Theorie der Mannigfaltigkeiten zurückzugreifen.Eine Einwirkung auf einen Massenpunkt, die eine Bewegung hervorrufen kann, bezeichnetman als Kraft. Eine Kraft K besitzt einen Angriffspunkt, hat eine Größe <strong>und</strong> eineRichtung. (Eine besonders offensichtlicher Fall einer Krafteinwirkung ist die Schwerkraft:Jeder Körper erfährt auf der Erdoberfläche eine Krafteinwirkung nach unten, nämlich seinGewicht. Damit kann eine Krafteinheit (Kilopond) festgelegt werden. Außer der Schwerkraftgibt es elektrische , magnetische, ... Kräfte.)Die gleichförmig geradlinige Bewegung ist eine Bewegung mit konstanter Geschwindigkeit.Bezugssysteme (Koordinatensysteme), in denen alle kräftefreien Bewegungen einesKörpers geradlinig sind, heißen Inertialsysteme. In solchen Inertialsystemen hat dasNewtonsche Gesetz der Mechanik die Formmb = K.Hierbei ist der Skalar m die Masse des Körpers, ein Maß für die Trägheit (Beharrungsvermögen)des Körpers. Die Masseneinheit ist die Masse des Archivkilogramms, die Masseder Volumeneinheit eines homogenen Körpers wird Dichte genannt. K kann eine Funktionvon (t, r, v) sein.Statt mb = K kann man auch schreibend(mv) =K.dtIn dieser Form ist das Gesetz auch gültig bei veränderlicher Masse, etwa bei der Beschreibungder Bewegung einer treibstoffverbrennenden Rakete. Die Größe P := mv heißtImpuls oder Bewegungsgröße. Wenn also keine Krafteinwirkung vorliegt, bleibt der Impulskonstant.Isaac Newton (1643 – 1727) gibt in seiner Arbeit “Philosophia naturalis pricipia mathematica“ eineaxiomatische Gr<strong>und</strong>lage der klassischen Mechanik. Sie enthält das Gravitationsgesetz, das Gesetz,nach dem ein Apfel zur Erde fällt <strong>und</strong> das den Mond auf seiner Bahn um die Erde hält. SeinAktionsprinzip lautet so: Die auf eine Zeiteinheit bezogene Änderung der Bewegungsgröße ist derEinwirkung der bewegenden Kraft proportional <strong>und</strong> geschieht in der Richtung, in der jene Kraftangreift.I. Newton <strong>und</strong> G. W. Leibniz (1646 – 1716) “fanden“ die Differential– <strong>und</strong> Integralrechnung fastgleichzeitig <strong>und</strong> unabhängig voneinander.


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 184Beispiel 7.36Betrachte die Schwingung einer an einer Feder aufgehängten Masse.Es bezeichne x(t) die Auslenkung der punktförmigen Masse aus der Ruhelage zur Zeit t.Aus einem Hauptsatz der Newtonschen Mechanik folgtmx ′′ (t) =f(t) (7.2)wobei m die Masse ist <strong>und</strong> f(t) die Gesamtheit der zur Zeit t auf die Masse wirkendenKräfte darstellt. Nach dem Hookschen Gesetz ist die Rückstellkraft f h (t) derFederzurZeit t gegeben durchf h (t) =−cx(t)wobei c>0 die sogenannte Federkonstante ist. Wird auch die Reibungskraft f r (mit Luft,in einem Ölbad,...)berücksichtigt, so ist ein modellhafter Ansatzf r (t) :=−2dx ′ (t)wobei x ′ (t) für die Geschwindigkeit zur Zeit t steht <strong>und</strong> 2d >0 eine Reibungskonstanteist, die wir zweckmäßigerweise zu 2d angesetzt haben. Damit bekommt man aus (7.2)mx ′′ (t) =f h (t)+f r (t) =−cx(t) − 2dx ′ (t) , (7.3)alsox ′′ (t)+2dx ′ (t)+cx(t) =0. (7.4)Dabei haben wir die Masse nun der Einfachheit halber auf den Wert 1 gesetzt.(7.4) ist nun eine Differentialgleichung zweiter Ordnung, die wir durch Einführung derAuslenkung z 1 := x <strong>und</strong> der Geschwindigkeit z 2 := x ′ als Variablen in ein System umschreiben:( )0 1z ′ = Az mit A =. (7.5)−c −2dNun haben wir die Beobachtung, daßz(t) :=e λt z 0 ,t∈ IR ,eine Lösung des Systems (7.5) ist, falls λ ∈ IR ein Eigenwert von A <strong>und</strong> z 0 ein Eigenvektordazu ist. Dies folgt aus:z ′ (t) =λe λt z 0 ,Ae λt z 0 = e λt Az 0 = e λt λz 0 .Aus ∣ ∣∣∣∣ λ −1c λ+2d ∣ =0folgtλ 1/2 = −d ± √ d 2 − c.NunhatmandreiFälle zu unterscheiden:Fall 1: d 2 − c>0 .Hier haben wir zwei verschiedene Eigenwerte <strong>und</strong> wir erhalten dazu die zwei Lösungenz 1 (t) :=e λ 1t z 0,1 ,z 2 (t) :=e λ 2t z 0,2 ,


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 185wobei z 0,1 ,z 0,2 die zugehörigen Eigenvektoren sind.Fall 2: d 2 − c


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 186Bisher hatten wir den vorliegenden Körper als Massenpunkt (ohne Ausdehnung) betrachtet.Bei ausgedehnten Körpern ist die Annahme, daß die Kräfte alle an demselben Punktangreifen, nicht zu halten. Wir sehen von Deformationen ab <strong>und</strong> betrachten nun einensogenannten starren Körper. Die angreifenden Kräfte können nun neben beschleunigtenParallelverschiebungen auch Drehungen bewirken. Für ihre Beschreibung treten andie Stelle von Kraft, Masse, Beschleunigung die Begriffe Drehmoment, Trägheitsmoment,Winkelbeschleunigung.In einem Punkt P eines Körpers mit Ortsvektor r := OP−→greife eine Kraft an. Der Körperwerde in O festgehalten. Dann heißtD P := r × Kdas (resultierende) Drehmoment. An die Stelle von mb = K tritt nunΘ ˙ω = D.Hierbei ist Θ das Trägheitsmoment, ω die Winkelgeschwindigkeit um eine fest gewählteAchse, ˙ω die Winkelbeschleunigung <strong>und</strong> D die Summe aller Drehmomente. (Das Trägheitsmomenteiner punktförmigen Masse in Bezug auf den Ortsvektor r := OP−→ ist Θ = m|r| 2 .)Betrachten wir etwa eine (masselose) Stange, an der an den Enden im Abstand r 1 bzw.r 2 vom Auflagepunkt Massen m 1 bzw. m 2 angebracht sind. Damit sich die Stange nichtum ihren Auflagepunkt dreht, müssen die Drehmomente entgegengesetzt gleich sein. Diesbedeutet in eindimensionaler Betrachtung:r 1 m 1 g = r 2 m 2 g oder r 1 m 1 = r 2 m 2Hierbei ist g die Gravitationskonstante.Also dreht sich die Stange nicht, wenn die Stange im Schwerpunkt unterstützt wird. Erteilt die Stange im Verhältnis r 1 : r 2 = m 2 : m 1Betrachten wir nun als Beispiel die Bewegung eines Massenpunktes in einem Zentralfeld.Als Anwendung kann man sich dann die Bewegung eines Planeten um die Sonne vorstellen.Weist jeder Vektor K(x, y, z) eines Kraftfeldes K im Raum IR 3 auf ein <strong>und</strong> denselbenPunkt θ, so nennen wir das Kraftfeld K ein Zentralkraftfeld. Dies bedeutet, daß wirK(x, y, z) =f(x, y, z)(x, y, z) , (x, y, z) ∈ IR 3 \{θ}haben mit einer Funktion f : IR 3 \{θ} −→ IR .Unter dem Einfluß einer solchen Kraft möge nun ein Punkt mit Masse m sich bewegen.Sind r(t) :=(x(t),y(t),z(t)) die Koordinaten zur Zeit t, dann ist nach dem NewtonschenKraftgesetzm(ẍ(t), ÿ(t), ¨z(t)) = f(x(t),y(t),z(t))(x(t),y(t),z(t)) .Daraus folgt (ohne Argumente) fr× r = mr × ¨r,<strong>und</strong> da r × r verschwindet, erhalten wirdie Gleichung r × ¨r = θ. Da offenbar d (r × ṙ) =r × ¨r +ṙ × ṙ = r × ¨r gilt, muß also diedtAbleitung von r × ṙ verschwinden <strong>und</strong> somit r × ṙ dauernd konstant sein. Dies zeigt, daßder Drehimpuls mr × ṙ konstant ist. Dies ist ein wichtiges Ergebnis: In einem Zentralfeld2


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 187ist der Drehimpuls konstant.Sei nun d dieser zeitunabhängige Drehimpuls. Ist d = θ, dann sind r <strong>und</strong> ṙ linear abhängig<strong>und</strong> die Bewegung des Massenpunktes findet auf einer Geraden statt. Ist d ≠ θ, folgt aus=< r,r× ṙ>=0, daß der Massenpunkt sich ständig in einer Ebene befindet, dieorthogonal zu d ist. Es liegt also eine ebene Bewegung vor. Für die Planetenbewegungbedeutet dies, daß die Planeten sich in einer Ebene durch den Nullpunkt, in dem die Sonnesich befindet, bewegen. Wählt man nun diese Ebene als die Ebene z =0, so erhalten wirFühren wir die Polarkoordinaten gemäßein, dann zeigt eine einfache Rechnungxẏ − yẋ = d 0 , (d 0 eine reelle Konstante)x(t) =a(t)cosφ(t),y(t) =a(t)sinφ(t)a(t) 2 ˙φ(t) =d0 .Da die Fläche F (t 1 ,t 2 ), die der Bewegungsstrahl in dem Zeitintervall [t 1 ,t 2 ] überstreicht,durch∫ t 2F (t 1 ,t 2 )=1/2 a(t) 2 ˙φ(t)dt = 1/2(t2 − t 1 )d 0t 1gegeben ist, ergibt sich der Flächensatz: In einem Zentralfeld überstreicht der Radiusvektorder Bewegung in gleichen Zeiten gleiche Flächen. Durch eine genauere Analyseerhalten wir für die Planetenbewegung die sogenannten Keplerschen Gesetze:1. Keplersches Gesetz Die Bahnen der Planeten sind Ellipsen, in derem einem Brennpunktdie Sonne ist.2. Keplersches Gesetz Der von der Sonne zu einem Planeten weisende Radiusvektorüberstreicht in gleichen Zeiten gleiche Flächen,3. Keplersches Gesetz Das Verhältnis zwischen dem Quadrat der Umlaufzeit <strong>und</strong> demKubus der großen Achse (der Bahnellipse) ist für alle Planeten des Sonnensystemsgleich.Die beiden ersten Gesetze veröffentlichte Johannes Kepler (1571 – 1630) 1609, das dritte 1619.Er schloß damit eine Etappe der Revolution in der Astronomie aufbauend auf die Arbeiten vonKopernikus <strong>und</strong> Tycho Brahe ab. Newton konnte diese empirisch aufgestellten Gesetze aus seinemGravitationsgesetz in strenger mathematischer Beweisführung ableiten. Die von ihm gef<strong>und</strong>eneDifferential– <strong>und</strong> Integralrechnung spielte als Hilfsmittel eine überragende Rolle.Wichtige Eigenschaften des Raumes der physikalischen Bewegungen sind seine Homogenität(“er sieht überall gleich aus“) <strong>und</strong> seine Isotropie (“alle Richtungen sind gleichberechtigt“).Für die Zeit gibt es eine Ordnung der Zeitpunkte in früher bzw. später,Vergangenheit <strong>und</strong> Zukunft. Faßt man den momentanen Ort eines Teilchens <strong>und</strong> denZeitpunkt, zu dem dieser Ort angenommen wird, zu (x, t) ∈ IR 3 × IR zusammen, so spricht


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 188man von einem Ereignis. Diese Zusammenfassung von Raum <strong>und</strong> Zeit wird in der relativistischenPhysik besonders wichtig, weil dort eine tiefere Symmetrie von Raum <strong>und</strong>Zeit herrscht. In der nichtrelativistischen Mechanik spielt die Zeit nur die Rolle einesParameters, vergleichbar mit den Parametern bei der Beschreibung von Kurven.Man macht sich klar, daß die allgemeinste Transformation, die Inertialsysteme in Inertialsystemeabbildet, folgende Form haben muß:x ↦−→ Ax + wt +¯x mit A ∈O(3) ,w∈ IR 3 ,t ↦−→ λt + s mit λ = ±1 .Es ist sinnvoll, für eine solche Transformation noch det(A) = 1 <strong>und</strong> λ = 1 zu verlangen.Diese Transformationen heißen dann Galilei–Transformationen. Sie bilden eine Gruppe,die sogenannte eigentliche orthochrone Galilei–Gruppe. Hierin verbergen sich10 freie Parameter (6 für A, 3für w, 1für s). Sie entsprechen den 10 ErhaltungsgrößenImpuls, Drehimpuls, Schwerpunkt, Energie.


Kapitel 8Euklidische VektorräumeWir betrachten nun die Begriffe ”Länge“ <strong>und</strong> ”Winkel“ in allgemeinem Rahmen. Darausentwickeln sich dann ”Orthogonalität“, ”Orthonormalbasis“ <strong>und</strong> ”Normalformen“ symmetrischerEndomorphismen.8.1 Normierte RäumeDefinition 8.1Sei IK ∈{IR , ′C} <strong>und</strong> sei X ein IK -Vektorraum. Eine Abbildung ‖·‖: X −→ IRheißt Norm genau dann, wenn gilt:(1) ‖x‖ ≥0 für alle x ∈ X <strong>und</strong>esgilt‖x‖ =0genau dann, wenn x = θ.(2) ‖ax‖ = |a|‖x‖ für alle x ∈ X, a ∈ IK .(3) ‖x + y‖ ≤‖x‖ + y‖ für alle x, y ∈ X.Das Paar (X, ‖·‖) heißt dann ein normierter Raum.2Die Eigenschaften aus Definition 8.1 hatten wir bereits in Lemma 6.12 kennengelernt. Esbesagt damit, daß der euklidische Abstand eine Norm darstellt. Im nächsten Abschnittordnen wir dies allgemein ein.Man sieht auch sehr schnell, daß ein normierter Raum (X, ‖·‖)mitderMetrikd : X × X ∋ (x, y) ↦−→ ‖x − y‖ ∈IRzu einem metrischen Raum wird. Wir können daher (wie in der Analysis) die topologischenBegriffe offen, abgeschlossen, kompakt“ erklären. Dazu noch eine Bezeichnung:”Die abgeschlossene Kugel um x 0 ∈ X mit Radius r>0istdieMengeB r (x 0 ):={x ∈ X|‖x − x 0 ‖≤r}.189


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 190Definition 8.2Sei (X, ‖·‖) ein normierter Raum <strong>und</strong> sei M ⊂ X.(a) M heißt offen, wenn für jedes x 0 ∈ M eine Kugel B r (x 0 ),r > 0, existiertmit B r (x 0 ) ⊂ M.(b) M heißt abgeschlossen, wenn X\M offen ist.(c) M heißt kompakt, wenn zu jeder offenen ÜberdeckungM ⊂ ⋃ i∈IU i ,U i offen für alle i ∈ I,Indizes i 1 , ..., i l ∈ I gibt mitl⋃M ⊂ U ik .k=12Beispiel 8.3Sei X := ′C n . Wir haben zu p ∈ [1, ∞) dieNormn∑‖·‖: X ∋ x ↦−→ ( |x i | p ) 1 p ∈ IR .i=1Die Normeigenschaften sind bis auf die Dreiecksungleichung sofort klar. Ist p =1, dann istdie Dreiecksungleichung eine einfache Konsequenz aus der Gültigkeit dieser Ungleichungfür den Betrag. Sei nun p ∈ (1, ∞). Zur Verifikation der Dreiecksungleichung ziehen wirdas nachfolgende Lemma heran. Sei q ∈ (1, ∞) mitq −1 + p −1 =1.Seien x, y ∈ ′C n . Mit Lemma 8.4 erhalten wir:‖x + y‖ p =≤≤≤n∑|x i + y i | pi=1n∑n∑|x i ||x i + y i | p−1 + |y i ||x i + y i | p−1i=1i=1(∑ n) 1 (|x i | p p n ) 1 (∑|x i + y i | (p−1)q q n) 1∑(+ |y i | p p n ) 1∑|x i + y i | (p−1)q qi=1i=1i=1i=1⎧( ⎨ n) 1 (∑|x⎩ i | p p n) 1⎫ (∑+ |y i | p p ⎬ n)∑1−1|x⎭ i + y i | p pi=1i=1i=1Daraus liest man nun die Dreiecksungleichung ab.Ergänzt wird diese Normenfamilie (‖·‖ p ,p∈ [1, ∞)) durch‖·‖ ∞ : X ∈ x ↦−→ max1≤i≤n |x i|∈IR .


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 191Man rechnet für p ∈ [0, ∞) sehr einfach die folgende Ungleichung nach:‖x‖ ∞ ≤‖x‖ p ≤ n 1 p ‖x‖∞ ,x∈ ′C n (8.1)Darauf kommen wir in allgemeinerer Situation wieder zurück. 2Das folgende Lemma stellt die Höldersche Ungleichung bereit. 1Lemma 8.4Seien x i ,y i ∈ ′C , 1 ≤ i ≤ n, p ∈ IR mit 1


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 192Definition 8.5Sei (X, ‖·‖) ein normierter Raum. Eine Folge (x n ) n∈INx ∈ X genau dann, wenn gilt:in X konvergiert gegen∀ε >0 ∃N ∈ IN ∀n ≥ N(‖x n − x‖ 0mitB ε (x 0 ) ⊂ X\A. Dazu gibt es N ∈ IN mit x n ∈ B ε (x 0 )für alle n ≥ N. Dies ist im Widerspruch zu x n ∈ A für alle n ∈ IN .(b) =⇒ (a)Annahme: A nicht abgeschlossen, d.h. X\A nicht offen.Dann gibt es x 0 ∈ X\A derart, daß zu jedem n ∈ IN ein x n ∈ A existiert mit ‖x 0 − x n ‖ 0 ∃N ∈ IN ∀n, m ≥ N(‖x n − x m ‖


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 193Aus der Analysis wissen wir, daß IR <strong>und</strong> ′C , betrachtet als normierter Raum – die Normist der Abstand –, vollständig sind. Daraus schließt man sofort, daß auch (IR n , ‖·‖ ∞ ) <strong>und</strong>( ′C n , ‖·‖ ∞ ) vollständig sind. Mit der Ungleichung (8.1) folgt dann, daß sogar (IR n , ‖·‖ p )<strong>und</strong> ( ′C n , ‖·‖ p ) , 1 ≤ p ≤∞, vollständig sind.Aus der Analysis wissen wir, daß die Einheitskugel B 1 (θ) in(′C n , ‖·‖ ∞ )kompaktist.Meist wird dieser Sachverhalt aber so ausgedrückt:Jede beschränkte Folge in B 1 (θ) hat eine konvergente Teilfolge.(Eine Folge (x n ) n∈IN in einem normierten Raum (X, ‖·‖)heißtbeschränkt, falls es einr>0 gibt mit x n ∈ B r (θ) für alle n ∈ IN .) DieÄquivalenz dieser Aussage beweist man(in der Analysis) sehr einfach.Wir benötigen die Kompaktheit in normierten Räumen meist in der folgenden äquivalentenAussage:K ist genau dann kompakt, wenn jede Folge in K eine konvergente Teilfolgemit Grenzwert in K besitzt.Insbesondere ist jede kompakte Menge abgeschlossen (siehe Lemma 8.6). Für den Beweisverweisen wir auf die Analysis.Definition 8.8Seien (X, ‖·‖ X ), (Y,‖·‖ Y ) normierte Räume. Eine Abbildung f : D −→ Y,D ⊂ Xheißt stetig in x 0 ∈ D genau dann, wenn gilt:∀ε >0 ∃δ >0 ∀x ∈ D(‖x − x 0 ‖ X


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 194Satz 8.11Sei (X, ‖·‖) ein normierter Raum, sei A ⊂ X kompakt <strong>und</strong> sei f : A −→ IR stetig.Dann gibt es x 0 ,x 1 ∈ A mitf(x 0 )=inf f(x)x∈A ,f(x1 )=supf(x) .x∈ABeweis:Es ist der Beweis nur zu einem Fall zu führen.Sei (x n ) n∈IN eine Minimalfolge, d.h. lim f(x n )=inff(x) . Da A kompakt ist, enthält diesen∈IN x∈AFolge eine konvergente Teilfolge: x 0 = lim x n k . Da f stetig ist, gilt f(x 0 ) = lim f(x n k )=k∈IN k∈INinf f(x) .x∈AKarl Weierstraß (1815 – 1897) klärte die Begriffe “Infimum“ <strong>und</strong> “Minimum“ völlig auf <strong>und</strong> beseitigtedamit die vorhandenen Unklarheiten, die aus der Auslassung von Existenzbetrachtungen beiExtremalaufgaben an vielen Stellen entstanden waren; das sogenannte Dirichletproblem (P.G.L.Dirichlet (1805 – 1859)) war zentral dabei. Das Dirichletsche Prinzip besteht darin, eine Lösungmit Hilfe der Variationsrechnung zu finden. Bis etwa 1870 blieb allerdings dabei die Frage nachder Existenz von Minima nahezu unbeachtet; “inf“ wurde allzuoft mit “min“ gleichgesetzt.Hier hat auch seine “Entdeckung“ der gleichmäßigen Konvergenz durch K. Weierstraß (von Funktionenfolgen)seinen Platz.Nach diesen Vorbereitungen kommen wir nun zu einer für die <strong>Lineare</strong> <strong>Algebra</strong> in endlichdimensionalenVektorräumen wichtigen Aussage:Satz 8.12Sei X ein endlichdimensionaler Vektorraum über IR oder ′C . Seien ‖·‖ <strong>und</strong> ‖·‖ ∼Normen in X. Dann gibt es reelle Zahlen c 1 > 0,c 2 > 0 derart, daßc 1 ‖x‖ ∼ ≤‖x‖ ≤c 2 ‖x‖ ∼für alle x ∈ Xgilt.Beweis:Sei {x 1 ,...,x n ∑} eine Basis von X. Durch‖·‖ 0 : X ∋ x = n a i x i ∑↦−→ n |a i |∈IR wirdi=1i=1offenbar eine Norm ‖·‖ 0 auf X erklärt. Es istn∑n∑n∑‖ a i x i ‖≤ |a i |‖x i ‖≤c‖ a i x i ‖ 0i=1mit c := max1≤i≤n ‖xi ‖. Damit giltn∑‖x‖ = ‖ a i x i ‖≤c‖x‖ 0 für alle x ∈ Xi=1Betrachte die Abbildungi=1i=1n∑f : IR n ∋ a ↦−→ ‖ a i x i ‖∈IR .i=1


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 195(Wir betrachten hier den Fall, daß der Skalarkörper IR ist.) Es istn∑n∑|f(a) − f(a 0 )|≤‖ (a i − a 0 i )x i ‖≤c |a i − a 0 i | .i=1i=1Daher ist f stetig (bezüglich der Norm ‖·‖ 1 ) <strong>und</strong> nach Satz 8.11 gibt es m>0mitDaraus folgt sofortn∑‖x‖ = ‖ a i x i ‖ = f(a) ≥ m für alle x mit ‖x‖ 0 ≤ 1 .i=1‖x‖ ≥m‖x‖ 0 für alle x ∈ X.Wendet man dies nun auch auf die Norm ‖·‖ ∼ an, dann erhält man die Aussage durcheinfaches Umrechnen. 2Satz 8.12 besagt, daß in einem endlichdimensionalen Vektorraum über (IR oder ′C )dieinduzierte Topologie von der gewählten Norm unabhängig ist.Satz 8.13Sei (X, ‖·‖) ein normierter Raum. Dann gilt:(a) Ist dim X


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 196Sei X := C[0, 1] := {f :[0, 1] −→ IR |f stetig}. Auf X ist durch‖·‖ 1 : X ∈ f ↦−→∫ 10|f(x)|dt ∈ IReine Norm gegeben. Wir definieren durch⎧1 , 0 ≤ t ≤ 1 2 − n1⎪⎨ nf n :[0, 1] ∋ t ↦−→ 2− nt ,2 1 − n 1 ≤ t ≤ 1 2 + n1 ∈ IR ,n∈ IN ,⎪⎩ −1 , 1 2 + n 1 ≤ teine Cauchyfolge (f n ) n∈IN in X, denn für m ≥ n gilt‖f n − f m ‖ 1 =∫10|f n (t) − f m (t)|dt ≤ 4 m .Wir zeigen nun, daß es kein f ∈ X gibt, das Grenzwert der Folge (f n ) n∈IN ist.Annahme: (f n ) n∈IN konvergiert gegen f ∈ X. Aus der Stetigkeit der Norm folgt, daßf(t) =1, 0 ≤ t ≤ 1 2 ,f(t) =−1, 1 20 gibt mit B r (x) ⊂ A; wir setzen A ◦ := {x ∈ A|x innerer Punkt von A}.Wir wollen nun wieder zu den Abbildungen der linearen <strong>Algebra</strong>, nämlich den linearen Abbildungen,zurückkommen. Als Hauptresultat erhalten wir, daß alle linearen Abbildungenauf endlichdimensionalen Räumen stetig sind. Zuvor ein Gegenbeispiel dazu:Beispiel 8.15Sei X := C ∞ [0, 2π] :={f :[0, 2π] −→ IR |f unendlich oft differenzierbar}. AufXbetrachte die Norm‖·‖: X ∋ f ↦−→∫2πBetrachte dazu die lineare Abbildung (Ableitung)0|f(t)|dt ∈ IR .D : X ∋ f ↦−→ f ′ ∈ X.


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 197Setzef n (t) := 1 cos(nt),t∈ [0, 2π],n∈ IN .nEs gilt ‖f n ‖ 1 = 2π n ,n∈ IN . Also ist (f n) n∈IN eine Nullfolge in X. Aberesist‖Df n ‖ 1 =4,n∈ IN .Somit ist D nicht stetig. 2Satz 8.16Seien (X, ‖·‖ X ), (Y,‖·‖ Y ) normierte Räume <strong>und</strong> sei L : X −→ Y linear. Dannsind äquivalent:(a) L ist beschränkt, d.h. es gibt c>0 mit ‖L(x)‖ Y ≤ c‖x‖ X für alle x ∈ X.(b) L ist stetig in jedem x 0 ∈ X.(c) L ist stetig in x 0 := θ.Beweis:a) =⇒ b) :Sei x 0 ∈ X. Sei ε>0. Wähle δ := ε c . Für ‖x − x0 ‖ 0mit‖L(x) − L(x 0 )‖ = ‖L(x − x 0 )‖≤c‖x − x 0 ‖


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 198∑Dann gilt für x = n a i x ii=1‖L(x)‖ Y = ‖≤≤n∑a i L(x i )‖ Yi=1n · max1≤i≤n ‖L(xi )‖ Y ‖x‖ ∼n · c · max1≤i≤n ‖L(xi )‖ Y ‖x‖ XDabei haben wir Satz 8.12 verwendet; die Konstante c ist daraus abgeleitet. Mit Satz 8.16folgt nun die Behauptung.8.2 BilinearformenSei X ein IK – Vektorraum. Wir erinnern an die Multilinearformen in T 2 (X) :T ∈T 2 (X) genau dann, wenn T eine Abbildung von X × X nach IK ist mitT (ax + by, z) =aT (x, z)+bT (y, z) ,T(z,ax + by) =aT (z,x)+bT (z,y)für alle x, y, z ∈ X, a, b ∈ IK . Wir wissen auch, daß T 2 (X) einIK – Vektorraum derDimension n 2 ist, falls n =dimX


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 199eine lineare Abbildung, d.h. T ∗ ein Homomorphismus der Vektorräume. Diese AbbildungT ∗ ist injektiv genau dann, wenn Kern(T )={θ} gilt. Also haben wirSatz 8.19Sei X ein IK – Vektorraum <strong>und</strong> sei T eine nicht-ausgeartete symmetrische Bilinearform.Dann ist durchT ∗ : X ∋ x ↦−→ T (x, ·) ∈ X ′ein Monomorphismus definiert.Zusatz: Ist X endlichdimensional, dann ist T ∗ ein Isomorphismus, insbesondere gibtes zu jeder Linearform λ ∈ X ′ ein x ∈ X mit λ = T ∗ (x).Beweis:Nur noch der Zusatz bedarf eines Beweises. Er ergibt sich aber aus der Tatsache, daß nunT ∗ sogar bijektiv ist, da X ′ endlichdimensional ist.Satz 8.20Sei X ein endlichdimensionaler IK – Vektorraum <strong>und</strong> sei T ∈T 2 (X) eine symmetrischenicht–ausgeartete Bilinearform von X. Dann gibt es zu jedem L ∈ Hom IK (X, X)ein L ∗ ∈ Hom IK (X, X) mitT (x, L(y)) = T (L ∗ (x),y) für alle x, y ∈ X.Zusatz: L ∗ ist hierdurch eindeutig bestimmt.Beweis:Für x ∈ X betrachten wir die LinearformNach Satz 8.19 gibt es genau ein ˜x ∈ X mitDamit erklären wir die Abbildungλ x : X ∋ z ↦−→ T (x, L(z)) ∈ IK .λ x (z) =T (x, L(z)) = T (˜x, z),z ∈ X.L ∗ : X ∋ x ↦−→ ˜x ∈ X.Diese Abbildung ist linear, denn da T nichtausgeartet ist, folgt ausT (L ∗ (ax + by),z) = T (ax + by, L(z))= aT (x, L(z)) + bT (y, L(z))= aT (L ∗ (x),z)+bT (L ∗ (y),z)= T (aL ∗ (x),z)+T (bL ∗ (y),z)offenbarL ∗ (ax + by) =aL ∗ (x)+bL ∗ (y).


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 200Die eindeutige Bestimmtheit von L ∗ folgt sofort daraus, daß T (symmetrisch <strong>und</strong>) nichtausgeartetist.Definition 8.21Sei T eine symmetrische nichtausgeartete Bilinearform auf dem IK – VektorraumX <strong>und</strong> sei L ∈ Hom IK (X, X).(a) Die lineare Abbildung L ∗(bzgl. T ).∈ Hom IK (X, X) heißt die Adjungierte von L(b) L heißt selbstadjungiert (bzgl. T ), falls L ∗ = L gilt.2In Abschnitt 4.6 hatten wir bereits eine adjungierte Abbildung eingeführt. Da wir, fallsdim X


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 201Sei ˜T ∈T 2 (X). Sei x ∈ X.Die Abbbildungist linear. Also gibt es ein ˜x ∈ X mitDie so resultierende AbbildungX ∋ z ↦−→ ˜T (x, z) ∈ IK˜T (x, z) =T (˜x, z) für alle z ∈ X.X ∋ x ↦−→ ˜x ∈ Xist linear (vergleiche Beweis zu Satz 8.20), <strong>und</strong> es gibt daher L ∈ Hom IK (X, X) mit˜x = L(x),x∈ X. Die Linearität dieser Zuordnung ˜T ↦−→ L folgt aus der Tatsache, daßT nichtausgeartet ist, die Injektivität aus der Tatsache, daß T (θ, z) =0für alle z ∈ Xist. Da Hom IK (X, X) endlichdimensional ist, ist J T sogar bijektiv.Unter den Voraussetzungen von Satz 8.22 ist die Bilinearform ˜T symmetrisch genau dann,wenn L selbstadjungiert (bezüglich T ) ist. Sie ist auch nichtausgeartet, wenn L bijektivist.Ist x 1 ,...,x n eine Basis von X, dann kann man einer Bilinearform T ∈T 2 (X) die MatrixB T := (T (x i ,x j )) 1≤i,j ≤nzuordnen. Unter Verwendung des Skalarproduktesn∑σ(a, b):= a i b i ,a,b∈ IK n,1i=1<strong>und</strong> der Koordinatenabbildung k X : X −→ IK n,1 kann man nun die Bilinearform T sodarstellen:T (x, y)=k X (x) t B T k X (y)Offenbar ist also T eine symmetrische nichtausgeartete Bilinearform genau dann, wennBT t = B T <strong>und</strong> B T invertierbar ist. Ist T nun eine symmetrische nichtausgeartete Bilinearform<strong>und</strong> ist A L die Matrixdarstellung von L ∈ Hom IK (X, X) bezüglich der Basisx 1 ,...,x n , dann ist A t L die Matrixdarstellung von L ′ : X ′ −→ X ′ bezüglich der dualenBasis <strong>und</strong> die BeziehungT (L(x),y)=T (x, L ∗ (y)) für alle x, y ∈ Xliefert für die Matrixdarstellung A L ∗ von L ∗ die IdentitätA L ∗ = B −1T A t LB T .


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 2028.3 Skalarprodukte <strong>und</strong> OrthogonalitätWir diskutieren nun wieder Vektorräume über einem Skalarkörper IK ∈{IR , ′C }. Von Fallzu Fall haben wir dann IK = IR <strong>und</strong> IK = ′C zu unterscheiden. Wir erinnern daran, daßwir die konjugierte Zahl von a ∈ ′C mit a bezeichnen.Definition 8.23Sei X ein Vektorraum über IK . Eine Abbildung σ : X × X ↦−→ IK heißt Skalarprodukt(inneres Produkt) auf X, wenn gilt:(a) σ(x, x) ∈ IR ,σ(x, x) > 0 für alle x ∈ X, σ(x, x) =0 ⇐⇒ x = θ;(b) σ(x, y)=σ(y,x) für alle x ∈ X;(c) σ(x, ay + bz) =aσ(x, y)+bσ(x, z) für alle x, y, z ∈ X, a, b ∈ IK .2Ist σ : X × X −→ IR ein Skalarprodukt auf dem IR – Vektorraum X, dann ist σ einenichtausgeartete symmetrische Bilinearform.Lemma 8.24Sei σ ein Skalarprodukt auf X. Dann gilt:|σ(x, y)| 2 ≤ σ(x, x)σ(y, y) für alle x, y ∈ X.Zusatz: Es steht das Gleichheitszeichen genau dann, wenn x, y linear abhängig sind.Beweis:Die Ungleichung beweist man fast wie die entsprechende Aussage (b) von Lemma 6.12.Seien x, y ∈ X. O.E. y ≠ θ. Für alle a, b ∈ IK gilt0 ≤ σ(ax + by, ax + by) =|a| 2 σ(x, x)+abσ(y, x)+baσ(x, y)+|b| 2 σ(y, y) .Wähle a := σ(y,y). Es folgtSetzt man noch b := −σ(y,x), so folgt0 ≤ σ(x, x)σ(y, y)+bσ(y, x)+bσ(x, y)+|b| 2 .0 ≤ σ(x, x)σ(y, y) − σ(y, x)σ(x, y) .Daraus liest man die behauptete Ungleichung ab.Ist |σ(x, y)| 2 = σ(x, x)σ(y,y), so folgt mit a, b wie oben0=σ(ax + by, ax + by), also ax + by = θ.Dies zeigt, daß x, y linear abhängig sind. Daß für linear abhängige x, y die Gleichheitsteht, ist einfach einzusehen.


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 203Folgerung 8.25Sei σ ein Skalarprodukt auf X. Dann wird durch‖·‖ σ : X ∋ x ↦−→ σ(x, x) 1 2∈ IReine Norm ‖·‖ σ auf X definiert.Beweis:Die Eigenschaften der Norm folgen in einfacher Weise aus Lemma 8.24; beachte auchLemma 6.12.Definition 8.26Sei σ ein Skalarprodukt auf X <strong>und</strong> sei ‖·‖ σ die nach Folgerung 8.25 zugehörige Norm.Dan heißt (X, σ) Hilbertraum, falls der normierte Raum (X, ‖·‖ σ ) vollständig ist.2Die Theorie der Hilberträume entwickelte sich aus dem Studium von Integralgleichungen heraus.Damit wurde die moderne Ära der Analysis eröffnet. Die Spektraltheorie der quadratischen Formenin einem Hilbertraum ist der tiefliegendste Beitrag D. Hilberts in der Analysis.Beispiel 8.27Das euklidische Skalarprodukt < ·, · > 2 auf IR n (siehe Definition 6.11) ist auch im Sinnevon Definition 8.23 ein Skalarprodukt.Das natürliche Skalarprodukt auf ′C n ist gegeben durchn∑ 2 := σ(x, y):= x i y i ,x,y∈ ′C n .i=1Ein Skalarprodukt σ auf dem unendlichdiensionalen Raum C[a, b] liegt inC[a, b] × C[a, b] ∋ (f,g) ↦−→∫ baf(t)g(t)dt ∈ IRvor. Die Definitheit folgt aus der Tatsache, daß eine stetige Funktion genau dann nichtverschwindet, wenn sie in einem Teilintervall nicht verschwindet. Die davon induzierteNorm ‖·‖ σ istC[a, b] ∋ f ↦−→∫ba|f(t)| 2 dt ∈ IR .Analog zu Beispiel 8.14 schließt man, daß (X, σ) kein Hilbertraum ist. 2


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 204Definition 8.28(a) Ein Paar (X, σ) heißt ein euklidischer Vektorraum, wenn X ein Vektorraumüber IR <strong>und</strong> σ ein Skalarprodukt auf X ist.(b) Ein Paar (X, σ) heißt ein unitärer Vektorraum, wenn X ein Vektorraumüber ′C <strong>und</strong>σ ein Skalarprodukt auf X ist.2Ist (X, σ) ein euklidischer (unitärer) Vektorraum <strong>und</strong> ist U ein linearer Teilraum, dannist auch (U, σ) wieder ein euklidischer (unitärer) Vektorraum.Sei X := ′C n <strong>und</strong> A ∈ ′C n,n . Wann wird durchX × X ∋ (x, y) ↦−→ 2 ∈ ′Cwieder ein Skalarprodukt erklärt? Sicher benötigen wir A = A t , wobei A die konjugiertkomplexen Einträge von A hat. Dies sichert uns ∈ IR für alle x ∈ ′C n . Für dieDefinitheit benötigen wir auch nochDies führt uns zuDefinition 8.29Sei A ∈ IK n,n . Aheißt 2 > 0 für alle x ≠ θ.(a) symmetrisch (hermitesch) ⇐⇒ A ∈ IR n,n ,A t = A (A ∈ ′C n,n , A t = A).(b) positiv definit ⇐⇒ A hermitesch, 2 > 0 ,x∈ IK \{θ} .(c) positiv semidefinit ⇐⇒ A hermitesch, 2 ≥ 0 ,x∈ IK \{θ} .(d) negativ definit ⇐⇒ A hermitesch, 2 < 0 ,x∈ IK \{θ} .(e) negativ semidefinit ⇐⇒ A hermitesch, 2 ≤ 0 ,x∈ IK \{θ} .(f) indefinit ⇐⇒ Es gibt x, y ∈ IK n mit 2 < 0 , 2 > 0 . 2Folgerung 8.30Ist A ∈ IK n,n positiv definit, dann gibt es C 1 > 0,C 2 > 0 mitC 1 ‖x‖ 2 2 ≤ 2 ≤ C 2 ‖x‖ 2 2 ,x∈ IK n .Beweis:Da für x = θ die Ungleichung sicher richtig ist, haben wir sie nur für x ≠ θ zu zeigen. Wirzeigen dazu die Existenz von C 1 > 0,C 2 > 0mitC 1 ≤ 2 ≤ C 2 ,x∈ IK n , ‖x‖ 2 =1.


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 205Die Menge S := {x ∈ IK n |‖x‖ 2 =1} ist kompakt <strong>und</strong> die Abbildungist stetig. Dies folgt ausf : IK n ∋ x ↦−→ ∈ IR|f(x) − f(y)| = | − |≤ | | + | |≤ ‖x − y‖ 2 ‖Ax‖ 2 + ‖y‖ 2 ‖A(x − y)‖ 2≤ K‖x − y‖ 2wobei sich K aus der Stetigkeit der linearen AbbildungIK n ∋ x ↦−→ Ax ∈ IK 1,nergibt (siehe Satz 8.16 <strong>und</strong> Satz 8.17). Also erhält man C 1 ,C 2 als Minimum bzw. Maximumvon f auf S.Beispiel 8.31Sei X := ′C n,n . Wir definieren ein Skalarprodukt auf X durchσ : X × X ∋ (A, B) ↦−→ spur(A t B) ∈ ′C ,wobei mit spur(C) dieSpur einer Matrix C ∈ ′C n,n bezeichnet wird:spur : ′C n,n ∋ C =(c ij ) i=1(1)n , j =1(1)n↦−→n∑c ii ∈ ′C .i=1Als die von σ induzierte Norm ‖·‖ σ erhalten wir für A =(a ij ) i=1(1)n , j =1(1)nn∑ n∑‖A‖ σ =( |a ij | 2 ) 1 2 .j=1 i=1Sie entspricht der euklidischen Norm, wenn man A spaltenweise als Vektor in ′C n2 schreibt.2Als Anwendung unserer bisherigen Überlegungen können wir nun das Vektorprodukt vonIR 3 auf IR n erweitern.Sei X := IR n <strong>und</strong> sei σ das euklidische Skalarprodukt in IR n . Zu u 1 ,...,u n−1 ∈ IR n <strong>und</strong>x ∈ IR n betrachte det(u 1 | ...|u n−1 |x). Dies definiert uns eine Linearform λ ∈ X ′ durchAlso gibt es nach Satz 8.19 ein z ∈ X mitλ : X ∋↦−→ det(u 1 | ...|u n−1 |x) ∈ IR .=det(u 1 ,...,u n−1 ,x)= 2 ,x∈ IR .Man nennt z das äußere Produkt von u 1 ,...,u n−1 <strong>und</strong> schreibtz = u 1 ∧ ...∧ u n−1 ,


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 206alsodet(u 1 | ...|u n−1 |x) = 2 .Aus den Regeln für Determinanten entnimmt man u 1 ∧ ...∧ u n−1 = θ genau dann, wennu 1 ,...,u n−1 linear abhängig sind. Man vergewissert sich nun, daß für n = 3 das uns schonaus Abschnitt 7.5 bekannte Vektorprodukt entsteht.Definition 8.32Sei (X, σ) ein euklidischer (unitärer) Vektorraum. Zwei Vektoren x, y ∈ X heißenorthogonal, wenn σ(x, y) =0gilt.Zwei Mengen U ⊂ X, V ⊂ X heißen orthogonal, falls σ(u, v) =0für alle u ∈U, v ∈ V gilt.2Sei (X, σ) ein euklidischer Vektorraum. Aus der Cauchy-Schwarzschen Ungleichung (sieheLemma 8.24) folgt für x ≠ θ, y ≠ θγ x,y :=σ(x, y)‖x‖ σ ‖y‖ σ∈ [−1, 1] .Also gibt es genau einen Winkel γ(x, y) ∈ [0,π]mit<strong>und</strong> man erhält offenbar:(R1) x, y orthogonal ⇐⇒ γ(x, y)= π 2 .σ(x, y)=‖x‖ σ ‖y‖ σ cos(γ(x, y))(R2) x, y linear abhängig ⇐⇒ γ(x, y) =0oderγ(x, y) =π.(R3) ‖x − y‖ 2 σ = ‖x‖2 σ + ‖y‖2 σ − 2‖x‖ σ‖y‖ σ cos(γ(x, y))(R4) ‖x + y‖ 2 σ = ‖x‖ 2 σ + ‖y‖ 2 σ, falls σ(x, y) = 0 ist.(R5) ‖x − y‖ 2 σ + ‖x + y‖ 2 σ =2‖x‖ 2 σ +2‖y‖ 2 σ(Kosinussatz)(Satz von Pythagoras)(Parallelogramm–Identität)Beispiel 8.33Betrachte den ′C – VektorraumX := {f :[−π,π] −→ ′C | f stetig} ,versehen mit dem Skalarproduktσ(f,g):=∫ π−πf(t)g(t)dt .


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 207Dann ist die Familie (e k ) k∈IN 0mitpaarweise orthogonal, genauer:Dies liest man für k ≠ l aus der Identität∫π−πe k (t) := 1 √2πe ikt ,t∈ [−π,π] ,σ(e k ,e l )=δ kl ,k,l∈ IN 0 .e −ikt e ilt dt =1i(l − k) ei(l−k)t | t=πt=−πab; der Fall k = l ist trivial. 2Definition 8.34Sei (X, σ) ein euklidischer (unitärer) Vektorraum <strong>und</strong> sei U ein linearer Teilraumvon X. DannheißtU ⊥ := {y ∈ X|σ(x, y)=0für alle x ∈ U}das orthogonale Komplement von U.2Offenbar ist U ⊥ stets wieder ein linearer Teilraum von X <strong>und</strong> es gilt {θ} ⊥ = X, X ⊥ = {θ}.Die Bezeichnung ”Komplement“ wird einsichtig durchFolgerung 8.35Sei (X, σ) endlichdimensionaler euklidischer (unitärer) Vektorraum <strong>und</strong> sei U einlinearer Teilraum von X. Dann giltX = U ⊕ U ⊥ , dim X =dimU +dimU ⊥ .Beweis:Wähle ein Komplement W von U, d.h.X = U ⊕ W. Sei u 1 ,...,u n eine Basis von U.Sei x ∈ X, x = u + w,u∈ U, w ∈ W. Wir zeigen, daß es ein y ∈ U gibt mit w − y ∈ U ⊥ .Ansatz:n∑y = a j u jj=1Offenbar ist w − y in U ⊥ genau dann, wenn σ(w − y, u i )=0, 1 ≤ i ≤ n, gilt. Also genügtes zu zeigen, daß das Gleichungssystemn∑a j σ(u j ,u i )=σ(w, u i ) , 1 ≤ i ≤ n,j=1


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 208eine Lösung besitzt. Dazu genügt es zu zeigen, daß das zugehörige homogene System nurtrivial lösbar ist.Sei alson∑b j σ(u j ,u i )=0, 1 ≤ i ≤ n.∑Mit z := n b j u j folgt darausj=1j=1n∑ n∑σ(z,z) = b i b j σ(u j ,u i )=0,j=1 i=1also z = θ <strong>und</strong> somit b 1 = ... = b n =0, da u 1 ,...,u n eine Basis von U ist. Also giltX = U + U ⊥ . Die Tatsache U ∩ U ⊥ = {θ} ist trivial.Die Hyperebenen durch θ sind gerade die (n − 1)− dimensionalen Teilräume von X. IstH eine Hyperebene durch θ, soistH ⊥ nach dem obigen Korollar eindimensional, alsoH ⊥ = L({x 0 })mitx 0 ∈ X\{θ}; x 0 ist dadurch bis auf einen von Null verschiedenenFaktor eindeutig bestimmt. Wir sehen damit, daß die Hyperebenen durch θ gerade dieMengenH x o = {x ∈ X|σ(x 0 ,x)=0} ,x 0 ≠ θ,sind. Eine beliebige Hyperebene (affiner Teilraum der affinen Dimension n − 1) hat danndie FormH x 0 ,a = {x ∈ X|σ(x 0 ,x)=a} ,x 0 ≠ θ, a ∈ IR .In anderer Darstellung (Hessesche Normalform) habenwir1H x 0 ,a = {x ∈ X| (σ(x 0 ,x) − a) =0}.‖x 0 ‖ σDer Abstand dist(z,H x 0 ,a) eines Punktes z ∈ X von der Hyperebene H x 0 ,a ist definiertdurchdist(z,H x 0 ,a) :=inf{‖z − x‖ σ |x ∈ H x 0 ,a} .Aus der Hesseschen Normalform liest man abdist(z,H x 0 ,a) = 1‖x 0 ‖ σ(σ(x 0 ,z) − a),denn mit dem Lot z 0 := z −‖x 0 ‖ −2σ (σ(x 0 ,z) − a)x 0 von z auf H x 0 ,a gilt:z 0 ∈ H x 0 ,a,z 0 − z ∈L({x 0 }),σ(x − z 0 ,x 0 )=0für alle x ∈ H x 0 ,a,‖x − z‖ 2 σ = ‖x − z 0 ‖ 2 σ + ‖z 0 − z‖ 2 ≥‖z 0 − z‖ 2 für alle x ∈ H x 0 ,a.Damit ist die Berechnung des Abstands eines Punktes von einer Hyperebene formelmäßigbekannt.


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 209Definition 8.36Sei (X, σ) ein endlichdimensionaler euklidischer (unitärer) Vektorraum. Dann heißteine Basis x 1 ,...,x n von X mitσ(x i ,x j )=δ ij , 1 ≤ i, j ≤ n,eine Orthonormalbasis.2Satz 8.37Sei (X, σ) ein endlichdimensionaler euklidischer (unitärer) Vektorraum. Dann besitztX eine Orthonormalbasis.Beweis:Sei n := dim X <strong>und</strong> sei u 1 ,...,u n eine Basis von X. Wir konstruieren eine Orthonormalbasisx 1 ,...,x n induktiv:n =1:x 1 := u 1 ‖u 1 ‖ −1σ . Dann ist σ(x 1 ,x 1 ) = 1 <strong>und</strong> L({u 1 })=L({x 1 }).Seien x 1 ,...,x n−1 definiert mitfür k =1,...,n− 1.SetzeDann gilt σ(z k+1 ,x i )=0sind. Mitσ(x i ,x j )=δ ij , 1 ≤ i, j ≤ k,L({x 1 ,...,x k })=L({u 1 ,...,u k }) (8.4)gilt dann (8.4) für k := k +1.n∑z k+1 := u k+1 − σ(u k+1 ,x i )x ii=1, 1 ≤ i ≤ k, u k+1 ≠ θ, da x 1 ,...,x k ,z k+1 linear unabhängigx k+1 := z k+1 ‖z k+1 ‖ −1σDas Kontruktionsverfahren aus dem Beweis zu Satz 8.37 nennt man Schmidtsches Orthonormalisierungsverfahren.Orthogonalisierung <strong>und</strong> Orthonormalbasen tauchen erstmals bei der Untersuchung von schwingendenSaiten <strong>und</strong> beim Studium der Newtonschen Anziehung von Massen auf. A.M. Legendre(1752 – 1833) fand bei der Entwicklung des Newtonschen Potentials eine Schar von Polynomen,die paarweise orthogonal war. Diese Polynome werden heutzutage als Legendre–Polynome bezeichnet.Eingang als Theorieelement fand der Begriff der Orthonormalbasis durch E. Schmidt (1876 –1959) bei der Beschreibung von Hilberträumen.Im Abschnitt über Bilinearformen haben wir in Satz 8.20 jedem Endomorphismus L :X −→ X einen adjungierten Homomorphismus L ∗ : X −→ X gemäßσ(x, L(y)) = σ(L ∗ (x),y)für alle x, y ∈ Xzugeordnet. Dies ist allerdings dort nur für den Fall, daß (X, σ) ein euklidischer endlichdimensionalerVektorraum ist, gezeigt. Dies ist auch richtig im Fall, daß (X, σ) ein


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 210unitärere endlichdimensionaler Vektorraum ist; der Beweis verläuft analog. Ebenso istdamit auch in diesem Fall der Begriff selbstadjungiert dadurch erklärt, daß L = L ∗gefordert wird. Man spricht nun statt von “Selbstadjungiertheit“ von Symmetrie, fallsder Fall des euklidischen Vektorraums vorliegt.Definition 8.38(a) Sei (X, σ) ein euklidischer Vektorraum. Wir setzenO(X, σ) :={L ∈ Hom(X, X)|σ(L(x),L(y)) = σ(x, y),x,y∈ X}<strong>und</strong> nennen O(X, σ) die Gruppe der orthogonalen Abbildungen.(a) Sei (X, σ) ein unitärer Vektorraum. Wir setzenU(X, σ) :={L ∈ Hom(X, X)|σ(L(x),L(y)) = σ(x, y),x,y∈ X}<strong>und</strong> nennen U(X, σ) die Gruppe der unitären Abbildungen.2Es ist klar, daß jede orthogonale Abbildung in einem euklidischen Vektorraum eine Isometrieist. Umgekehrt ist auch jede lineare Isometrie eine orthogonale Abbildung (sieheAbschnitt 6.1 <strong>und</strong> Satz 6.14).Folgerung 8.39Sei (X, σ) ein endlichdimensionaler euklidischer (unitärer) Vektorraum. Dann istO(X, σ) (U(X, σ)) eine Untergruppe von GL(X).Beweis:Wir betrachten nur den euklidischen Fall, der Beweis für den unitären Fall läuft analog.Der Beweis, daß O(X, σ) eine Teilmenge von GL(X) ist, folgt wie im Beweis zu Satz 6.14.Die Aussagen id X ∈O(X, σ),f ◦ g ∈O(X, σ), falls f,g ∈O(X, σ) sind trivial.Sei nun f ∈O(X, σ). Sei f(x) =θ. Dann folgt 0 = σ(f(x),f(x)) = σ(x, x), also x = θ.Also ist f injektiv.Dies zeigt, daß jedes f ∈O(X, σ) linear <strong>und</strong> sogar bijektiv ist, also zu GL(X) gehört.Für f ∈O(X, σ) gilt nun mit x, y ∈ XAlso ist auch f −1 in O(X, σ).σ(f −1 (x),f −1 (y)) = σ(f(f −1 (x)),f(f −1 (y))) = σ(x, y).


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 211Folgerung 8.40Sei (X, σ) ein endlichdimensionaler euklidischer (unitärer) Vektorraum <strong>und</strong> sei L ∈O(X, σ) bzw. L ∈U(X, σ). Dann giltL ∗ ◦ L = L ◦ L ∗ = id X , | det(L)| =1,<strong>und</strong> ist A L eine Matrixdarstellung von L bezüglich der Orthonormalbasis zu L, danngiltA t A = AA t = E.Beweis:Folgt unmittelbar aus der Definition von L ∗ .Sei (X, σ) ein endlichdimensionaler euklidischer Raum. Zu z ∈ X\{θ} definieren wir dieAbbildungsp z : X ∋ x ↦−→ x − 2 σ(z,x)σ(z,z) z ∈ X.Wir haben sp z ∈O(X, σ) , dennσ(sp z (x),sp z (y)) = σ(x − 2 σ(z,x) x, y − 2σ(z,y)σ(z,z) σ(z,z) y)=σ(x, z)z)z)σ(y, z)σ(x, y) − 2 σ(y, z) − 2σ(y, σ(x, z)+4σ(x,σ(z,z) σ(z,z) σ(z,z)σ(z,z) σ(z,z)= σ(x, y).Ferner gilt sp z ◦ sp z = id X <strong>und</strong> sp az = sp z ,a≠0.Ist nun H z = {x ∈ X|σ(x, z) =0}, dann haben wir<strong>und</strong> für x = az + u ∈L({z}) ⊕ H z folgtX = L({z}) ⊕ H zsp z (x) =sp z (az + u) =−az + u.Also stellt sp z eine Spiegelung des Raumes X an der Hyperebene H z dar.Satz 8.41Sei (X, σ) ein euklidischer Vektorraum mit dim X = n. Ist L ∈O(X, σ), so gibt esSpiegelungen S 1 ,...,S k ,k ≤ n, mit L = S k ◦···◦S 1 .Beweis:Wir beweisen die Aussage induktiv. Der Fall n = 1 ist trivial. Sei n>1. O.E. kann L ≠ idangenommen werden. Also gibt es x ∈ X mit L(x) − x =: z ≠ θ. Sei S := sp z (sieheoben). Dann istS(L(x) − x) =Sz = −z = −(L(x) − x)<strong>und</strong>S(L(x)+x) =L(x)+x,


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 212da wegen L ∈O(X, σ) σ(z,L(x)+x) =σ(L(x)−x),L(x)+x) =σ(L(x),L(x))−σ(x, x)=0. Dies zeigt S ◦ L(x) =x. Daraus folgt nun S ◦ L(L({x}) ⊥ )=L({x}) ⊥ so:Sei u ∈L({x}) ⊥ ) <strong>und</strong> S ◦ L(u) =ax + v,a ∈ IK ,v ∈L({x}) ⊥ ). Es folgt mit Folgerung8.40u =(S ◦ L) ∗ ◦ (S ◦ L)(u)<strong>und</strong> daher0 = σ(u, x)= σ((S ◦ L) ∗ ◦ (S ◦ L)(u),x)= σ((S ◦ L)(ax + v), (S ◦ L)(x))= σ(ax + v,x)= aσ(x, x)+σ(v,x)= aσ(x, x) .Da offenbar S ◦ L auch injektiv ist, ist S ◦ L sogar bijektiv.Mit der Induktionsvoraussetzung folgt die Existenz von Spiegelungen S ′ 1 ,...,S′ k−1 ,k−1 ≤n − 1, mit S ◦ L| L({x}) ⊥ = S ′ k−1 ◦···◦S′ 1 . Seien S′ i Spiegelungen an z i, 1 ≤ i ≤ k − 1. SeienS i := sp zi , 1 ≤ i ≤ k − 1, die zugehörigen Spiegelungen im Raum X. Es folgtS ◦ L(x) =x = S k−1 ◦···◦S 1 (x),da z i ∈L({x}) ⊥ , 1 ≤ i ≤ k − 1. Daraus folgt S ◦ L = S k−1 ◦···◦S 1 . Wegen S ◦ S = idfolgt nunL = S ◦ S k−1 ◦···◦S 1 .Beispiel 8.42Als ein Beispiel für Satz 8.41 betrachten wir etwa die lineare Isometrie A ∈SO(2), dieeine Drehung um den Winkel π/2 bewirkt:( )0 −1A =1 0Der Satz 8.41 besagt, daß es Spiegelungen S 1 ,S 2 gibt, die hintereinanderausgeführt dieselbeWirkung haben.Eine Analyse des Beweises zu Satz 8.41 zeigt, daß etwa mit z := Ax−x, x := e 1 , eine ersteSpiegelungsachse gef<strong>und</strong>en ist (Spiegelung an der Geraden {u ∈ IR 2 | 2 =0}). Eineweitere Spiegelungsachse ist die Koordinatenachse zu e 2 , da sie gerade L({x}) ⊥ darstellt.2Damithabenwirnunallelängentreuen Transformationen kennengelernt:Translation, Drehung, Spiegelung


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 213Der Bequemlichkeit halber definiert man üblicherweise noch als vierte längentreue Transformationdie Gleitspiegelung. Sie ist das Ergebnis einer Achsenspiegelung bei gleichzeitigerTranslation entlang dieser Achse (Fußspuren im Sand sind ein Beispiel dafür). Beiunendlichen Bandornamenten kann man diese Transformationen als Symmetrieoperationenerkennen. Betrachte etwa das Bandornament...... HHHHH......Es bleibt invariant unter drei Spiegelungen, während das Bandornament...... EEEEE......invariant unter einer Translation <strong>und</strong> einer Spiegelung bleibt. (Es gibt übrigens siebensolche Symmetrieoperationen bei unendlichen Bandornamenten.)Wenn man statt der eindimensionalen Bandornaments die zweidimensionale “Ornamentebene“betrachtet, so nimmt die Anzahl der möglichen Symmetrien zu; wir haben ja etwa schon zweiunabhängige Translationen. Vom russischen Kristallographen E.S. Fedorov (1853 – 1919) wurde1891 gezeigt, daß es genau 17 verschiedene Symmetrietypen gibt. (Man hat zu unterscheiden zwischendiesen 17 Symmetrietypen <strong>und</strong> der unendlichen Vielfalt der möglichen Ornamente mit derman die Ebene überdecken kann.) Beispiele für jeden Ornamenttyp sind in der Ornamentkunst desAltertums vertreten.Folgerung 8.43Sei (X, σ) ein euklidischer Vektorraum mit dim X = n <strong>und</strong> sei L ∈O(X, σ).(a) Ist det(L) =1<strong>und</strong> ist n ungerade, dann hat L einen Eigenwert 1.(b) Ist det(L) =−1 <strong>und</strong> ist n gerade, dann hat L einen Eigenwert 1.Beweis:Sei L = S k ◦···◦S 1 ,k ≤ n, gemäß Satz 8.41. Da det(S i )=−1, 1 ≤ i ≤ k, ist, haben wirdet(L) =(−1) k <strong>und</strong> daher k0gilt, folgt L({w 1 ,...,w k }) ⊥ ≠ {θ}.Definition 8.44Sei (X, σ) ein euklidischer (unitärer) Vektorraum <strong>und</strong> seien x 1 ,...,x n ∈ X. DieMatrix(σ(x i ,x j )) i=1(1)n , j =1(1)nheißt Gramsche Matrix zu x 1 ,...,x n ; wir schreiben dafür Γ(x 1 ,...,x n ) .2


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 214Satz 8.45Sei (X, σ) ein euklidischer (unitärer) Vektorraum <strong>und</strong> seien x 1 ,...,x n ∈ X. Dannsind x 1 ,...,x n linear unabhängig genau dann, wenn det Γ(x 1 ,...,x n ) ≠0ist.Beweis:Seien x 1 ,...,x n n∑∈ X linear abhängig. Sei a i x i ∑= θ, n |a i | 2 ≠0. Dann gilt mit demi=1i=1Vektor⎛a :=⎜⎝⎞a 1⎟. ⎠a n∈ IKn,1Γ(x 1 ,...,x n )a = θ <strong>und</strong> daher det Γ(x 1 ,...,x n )=0.Sei det Γ(x 1 ,...,x n )=0. Dann sind die Spalten von Γ(x 1 ,...,x n ) linear abhängig, etwaDer Vektor x := x n − n−1 ∑j=1σ(x j ,x n )=n−1 ∑i=1b i σ(x j ,x i ) , 1 ≤ j ≤ n.b j x j ist orthogonal zu jedem der Vektoren x 1 ,...,x n <strong>und</strong> folglichzu jedem Vektor aus L({x 1 ,...,x n }), also auch zu x ∈L({x 1 ,...,x n }). Dies zeigt x = θ,d.h. x n = n−1 ∑b j x j .j=18.4 Symmetrische EndomorphismenDefinition 8.46Sei (X, σ) euklidischer Vektorraum <strong>und</strong> sei L : X −→ X linear. Der AusdruckR L (x) :=σ(x, L(x))σ(x, x)heißt Raleigh–Quotient von x ∈ X\{θ}.2Die Bedeutung ist sehr schnell einzusehen. Für einen Eigenwert λ ∈ IR mit Eigenvektorx gilt nämlich R L (x) =λ.Wir wollen den Spieß umdrehen <strong>und</strong> Eigenwerte <strong>und</strong> Eigenvektoren mit Hilfe von R Lkonstruieren.Wir benötigen dazu hier, daß der zugr<strong>und</strong>eliegende euklidische Raum endlichdimensionalist in zweifacher Hinsicht: Die Menge S(X) :={x ∈ X|‖x‖ σ =1} ist dann kompakt <strong>und</strong>L ist stetig.


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 215Definition 8.47Sei (X, σ) euklidischer Vektorraum <strong>und</strong> sei L : X −→ X linear. L heißt symmetrisch(bezüglich der Bilinearform σ), falls σ(T (x),y)=σ(x, T (y)) für alle x, y ∈ Xgilt.2Satz 8.48Sei (X, σ) ein endlichdimensionaler euklidischer Vektorraum. Sei L : X −→ Xlinear <strong>und</strong> symmetrisch (bezüglich der Bilinearform σ). Dann gilt:(a) Es gibt x + ,x − ∈ X mit ‖x + ‖ σ = ‖x − ‖ σ =1<strong>und</strong>λ + := R L (x + )= max R L(x) ,λ − = R L (x − )= min R L(x).x∈X\{θ} x∈X\{θ}(b) L(x + )=λ + x + ,L(x − )=λ − x −(c) Für jeden Eigenwert λ ∈ IR von L gilt λ + ≤ λ ≤ λ −Beweis:Zu (a) :Wir zeigen, daß R L auf S(X) :={x ∈ X|‖x‖ σ =1} stetig ist. Seien u, v ∈ S(X).|R L (u) − R L (v)| = |σ(u, L(u)) − σ(v,L(v))|≤ |σ(u, L(u)) − σ(u, L(v))| + |σ(u, L(v)) − σ(v,L(v))|≤ ‖u‖ σ ‖L(u − v)‖ σ + ‖u − v‖ σ ‖L(v)‖ σ≤ 2c‖u − v‖ σ .Dabei ist c so gewählt, daß ‖L(x)‖ σ ≤ c‖x‖ σ für alle x ∈ X gilt (siehe Satz 8.16). Alsofolgt nun die Existenz der Extrema von R L wie in (a) behauptet.Zu (b) :Betrachte zu x ∈ X die Funktion f(t) :=R L (x + + tx),t∈ IR . Dagilt, gibt es t 0 > 0mit‖x + + tx‖ σ ≥‖x + ‖ σ −|t|‖x‖ σ =1− t‖x‖ σ‖x + + tx‖ σ > 0 ,t∈ (−t 0 ,t 0 ).Also ist f auf (−t 0 ,t 0 ) definiert, ja sogar differenzierbar, da f eine rationale Funktion ist.Nach Konstruktion von x + hat f in t = 0 ein lokales Maximum. Also gilt f ′ (0) = 0.Dies bedeutetDa x ∈ X beliebig war, folgt0 = σ(L(x + ),x) − σ(x + ,L(x + ))σ(x + ,x)= σ(L(x + ) − σ(x + ,L(x + ))x + ,x).L(x + )=σ(x + ,L(x + ))x + .


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 216Die Aussage L(x − )=λ − x − folgt analog.(c) istklar.Wir haben hier nun ziemlich viel Analysis benutzt. Man kann hier auch einen rein algebraischenBeweis führen. Dazu hat man allerdings nach ′C auszuweichen <strong>und</strong> den F<strong>und</strong>amentalsatzder <strong>Algebra</strong> zu benutzen. Da es sich bei euklidischen Vektorräumen ja umeine metrische Struktur handelt, ist die Zuhilfenahme von Analysis wohl gerechtfertigt,ja vielleicht sogar angebracht. (Übrigens, auch in den Beweisen des F<strong>und</strong>amentalsatzessteckt meist Analysis.)Satz 8.49Sei (X, σ) ein n – dimensionaler euklidischer Vektorraum <strong>und</strong> sei L : X −→X linear <strong>und</strong> symmetrisch. Dann gibt es eine Orthonormalbasis x 1 ,...,x n in X,bezüglich der L die MatrixdarstellungA L = diag(λ 1 ,...,λ n )hat, wobei λ 1 ,...,λ n ∈ IR die zu x 1 ,...,x n gehörenden Eigenwerte sind.Beweis:Wir beweisen induktiv nach der Dimension n von X.n = 1 : Klar, ein Endomorphismus ist Vielfaches der Identität.n>1:Nach Satz 8.48 gibt es x n ∈ X <strong>und</strong> λ n ∈ IR mitL(x n )=λ n x ,‖x n ‖ σ =1.Setze U := L({x n }). Dann ist X = U ⊕ U ⊥ . Offenbar ist L(U) ⊂ U. Es gilt aber auchL(U ⊥ ) ⊂ U ⊥ , denn: Sei x ∈ U ⊥ , d.h. σ(x, u) =0für alle u ∈ U. Dann gilt: σ(L(x),u)=σ(x, L(u)) = 0 für alle u ∈ U, d.h. L(x) ∈ U ⊥ .Betrachte nun L 1 := L| U ⊥.Offenbar ist L 1 : U ⊥ −→ U ⊥ wieder linear <strong>und</strong> symmetrisch <strong>und</strong> (U ⊥ ,σ) ein euklidischerVektorraum. Die Induktionsvoraussetzung, angewendet auf L 1 liefert x 1 ,...,x n−1 ∈ U ⊥<strong>und</strong> λ 1 ,...,λ n−1 ∈ IR mitL(x i )=λ i x i , 1 ≤ i ≤ n − 1.Damit ist der Beweis erbracht, wenn man noch beachtet, daß x 1 ,...,x n−1 ,x n linear unabhängigsind, da x n ∈ U gilt <strong>und</strong> x 1 ,...,x n−1 ∈ U ⊥ nach Induktionsvoraussetzung linearunabhängig sind.


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 217Folgerung 8.50Sei (X, σ) ein n–dimensionaler euklidischer Vektorraum <strong>und</strong> sei T : X × X −→ IReine symmetrische Bilinearform. Dann gibt es eine Orthonormalbasis x 1 , ..., x n in X,bezüglich der die Bilinearform σ <strong>und</strong> T Matrixdarstellungen B σ ,B T der folgendenGestalt besitzen:B σ = diag(1,...,1) ,B T = diag(λ 1 ,...,λ n ).Dabei sind λ 1 ,...,λ n die Eigenwerte des Endomorphismus L mitT (x, y)=σ(x, L(y))für alle x, y ∈ X.Beweis:Wir wissen aus Satz 8.22, daß es genau ein L ∈ Hom(X, X) gibt mitT (x, y)=σ(x, L(y)) für alle x, y ∈ X.Dieses L ist sogar symmetrisch, da T eine symmetrische Bilinearform ist. Wähle nun nachSatz 8.49 eine Orthonormalbasis x 1 ,...,x n in X. Damit verifiziert man die Aussagen desSatzes.Der Sachverhalt in obiger Folgerung wird als simultane Diagonalisierbarkeit zweier Bilinearformenbezeichnet. Man nennt die Aussage auch Satz über die Hauptachsentransformation.Das Ergebnis aus Satz 8.49 ist die Tatsache, daß symmetrische Matrizendiagonalisierbar sind (mit Hilfe orthogonaler Matrizen).Bemerkung 8.51Auf dem Raleigh-Quotienten baut ein Verfahren zur Berechnung des größten Eigenwertesvon L auf. Man kann zeigen, daßσ(x, L k (x))λ + = limk→∞ σ(x, L k−1 (x)) ,x L k x+ = limk→∞ ‖L k x‖ σgilt, wenn x nicht orthogonal zu x + ist (Verfahren von Mises). 2Beispiel 8.52Ist L eine lineare Isometrie in einem euklidischen Vektorraum der Dimension 2, dannist L ◦ L ∗ = L ∗ ◦ L = id <strong>und</strong> det(L) =1oderdet(L) =−1. Daraus folgt, daß L eineMatrixdarstellung der Form( )cos γ − sin γA L =sin γ cos γhat, falls det(L) =1ist. 2


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 218Satz 8.53Sei (X, σ) ein n - dimensionaler euklidischer Vektorraum <strong>und</strong> sei L : X −→ X einelineare Isometrie. Dann exisitiert eine Orthonormalbais x 1 ,...,x n in X, bezüglichder die Matrixdarstellung von L die FormA L = diag(D(γ 1 ),...,D(γ r ), 1,...,1, −1,...,−1)mit γ 1 ,...,γ r ∈ IR hat. Hierbei ist( )cos γi − sin γD(γ i )=i∈ IR 2,2 , 1 ≤ i ≤ r.sin γ i cos γ iBeweis:Vollständige Induktion nach n.n =1:HieristL = id X oder L = −id X <strong>und</strong> nichts ist mehr zu beweisen.n>1:Setze H := L + L ∗ = L + L −1 .Hist symmetrisch. Also gibt es λ ∈ IR ,x ∈ X\{θ} mitH(x) =λx. Es folgtL(x)+L −1 (x) =λx, L 2 (x) =−x + λL(x).Setze U := L({x, L(x)}). Es gilt offenbar 1 ≤ dim U ≤ 2,L| U : U −→ U Isometrie <strong>und</strong>L(U) =U, da L bijektiv ist. Daraus folgt:dim U ⊥ ≤ n − 1,L(U ⊥ )=U ⊥ ,L| U ⊥ : U ⊥−→ U ⊥ ist Isometrie.Also hat nun L| U eine Orthonormalbasis der behaupteten Form. Bei dim U = 1 folgt diesaus der Betrachtung ( von n ) =1, bei dim U = 2 ist die Vorüberlegung in Beispiel 8.520 −1anwendbar, da det= 1 gilt.1 λAnwendung der Induktionsvoraussetzung auf L| U ⊥ liefert eine Orthonormalbasis in U ⊥der gewünschten Form.Die Matrix A L aus Satz 8.53 heißt Normalform der zugehörigen Drehung L.8.5 QuadrikenWir beschäftigen uns hier nochmals mit Bilinearformen auf reellen Vektoräumen. JedesSkalarprodukt kann als Beispiel dienen.Sei T ∈T 2 (X),XIR – Vektorraum. Aus der Zerlegung2T (x, y) =(T (x, y)+T (y, x)) + (T (x, y) − T (y, x))liest man ab, daß man jede Bilinearform als Summe einer symmetrischen Bilinearform <strong>und</strong>einer antisymmetrischen Bilinearform schreiben kann. (Würde man hier einen allgemeinenSkalarkörper IK verwenden, müßte man auf char(IK ) ≠ 2 achten.) Wir wollen uns imfolgenden nun auf symmetrische Bilinearformen beschränken.


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 219Definition 8.54Sei X ein IR −Vektorraum <strong>und</strong> sei q : X −→ IR eine Abbildung. Wir nennen qeine quadratische Form auf X, falls es eine symmetrische Bilinearform T auf Xgibt, sodaßq(x) =T (x, x) ,x∈ X,gilt.2In der Definition 8.54 bestimmt T die quadratische Form q. Man kann aber T auch aus qzurückgewinnen:2T (x, y) =q(x + y) − q(x) − q(y),x,y∈ X.Für eine quadratische Form giltq(θ) =0,q(−x) =q(x),q(ax)=a 2 q(x),a∈ IR,x∈ X,<strong>und</strong>q(x + y)+q(x − y) =2q(x)+2q(y),x,y ∈ X.Definition 8.55Sei q eine quadratische Form auf dem IR – Vektorraum X <strong>und</strong> sei M ⊂ X. Wirnennen q(a) positiv definit auf M : ⇐⇒ q(x) > 0,x∈ M\{θ}.(b) positiv semidefinit auf M : ⇐⇒ q(x) ≥ 0,x∈ M.(c) negativ definit auf M : ⇐⇒ q(x) < 0,x∈ M\{θ}.(d) negativ semidefinit auf M : ⇐⇒ q(x) ≤ 0,x∈ M.(c) semidefinit auf M : ⇐⇒ q ist positiv semidefinit oder q ist negativ semidefinitauf M.2Definition 8.56Sei T eine Bilinearform auf dem IR −Vektorraum X <strong>und</strong> sei x 1 ,...,x n ∈ X eineBasis in X. Wir nennen x 1 ,...,x n eine Orthogonalbasis, fallsT (x i ,x j )=0, für i ≠ j,gilt.2


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 220Satz 8.57Sei X IR – Vektorraum mit dimX = n. Sei T eine symmetrische Bilinearform aufX <strong>und</strong> sei q die zugehörige quadratische Form. Dann gilt:(a) Es gibt eine Orthogonalbasis x 1 ,...x r ,x r+1 ,...,x r+t ,...,x n , sodaß gilt:1. Kern (T )=L({x 1 ,...,x r }).2. q ist auf L({x r+1 ,...,x r+t }) positiv definit <strong>und</strong> auf L({x r+t+1 ,...,x n })negativ definit.(b) Man kann die Basis in (a) so festlegen, daß giltn∑q(x) = ɛ i a 2 i , wobei x = ∑ n a i x i ,i=1i=1mit ɛ i =0, 1 ≤ i ≤ r, ɛ i =1,r+1≤ i ≤ r + t, ɛ i = −1,r+ t +1≤ i ≤ n.Die Zahlen t <strong>und</strong> n − r hängen nur von T ab.Beweis:Sei w 1 ,...,w n eine Basis von X. Wir beweisen mit vollständiger Induktion nach n <strong>und</strong>können dann dazu q ≠ θ annehmen.Ist dim X =1, so ist die Aussage des Satzes klar.Sei also nun dim X>1.Betrachte zunächst den Fall, daß T (w k ,w k )=0, 1 ≤ k ≤ n, gilt. Da q nicht verschwindet,gibt es ein Paar (i, k) mitT (w i ,w k ) ≠0. Ersetze nun in der Basis w i durch ˜w i := w i + w k<strong>und</strong> w k durch ˜w k := w i − w k . Dies liefertT (˜w i , ˜w i )=2T (w i ,w k ) ≠0.Also können wir nun nach Umnummerierung T (w 1 ,w 1 )=:µ 1 ≠ 0 annehmen. Ersetze nunin der Basis w k ,k≥ 2, durch˜w k := w k − T (w 1 ,w 1 ) −1 T (w 1 ,w k )w 1 .Dies liefert T (w 1 , ˜w k )=0,k ≥ 2. Also können wir∑annehmen. Sei nun x = n a i w i . Es gilti=1T (w 1 ,w k )=0,k ≥ 2,q(x) =µ 1 a 2 1 +∑ n n∑a i a k T (w i ,w k )=µ 1 a 2 1 + q 1(˜x) mit˜x = a i w i .i,k=2i=2Hierbei ist q 1 die quadratische Form auf X 1 := L({w 2 ,...,w n }), die zu T | X1 ×X 1gehört.Mit der Induktionsannahme gelten in X 1 die Aussagen (a) <strong>und</strong> (b) des Satzes. Also istbezüglich einer geeigneten Basis x 1 := w 1 ,x 2 ,...,x n .n∑n∑q(x) = µ i a 2 i mit µ i = T (x i ,x i ) <strong>und</strong> x = a i x i .i=1i=1


3. r =0,t=2: q(a 1 x 1 + a 2 x 2 )=a 2 1 + a2 2 . 2Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 221Um (a) zu erreichen, müssen wir eventuell nur noch die Reihenfolge in der Basis ändern.Für (b) ersetze x i durch µ −2i x i , falls µ i ≠ 0 ist. Damit sind (a) <strong>und</strong> (b) bewiesen, es bleibtnur noch der Zusatz über die Unabhängigkeit von t <strong>und</strong> n − r von der gewählten Basiszu zeigen. Sei v 1 ,...,v ρ ,...,v ρ+τ ,...,v n eine zweite Basis, die (a) <strong>und</strong> (b) erfüllt.Setze:U + := L({x r+1 ,...,x r+t }),U − := L({x r+t+1 ,...,x n }),V + := L({v ρ+1 ,...,v ρ+τ }),V − := L({v ρ+t+1 ,...,x n }).Dann ist U + ∩ V − = {θ}, da T auf U + positiv definit <strong>und</strong> auf V − negativ definit ist.Genauso gilt U − ∩ V + = {θ}. Also dim V + ≤ dim U + , dim U + ≤ dim V + , d.h. r = ρ, t = τ.Der obige Satz heißt Trägheitssatz von Sylvester. DieimSatzdefiniertenZahlent<strong>und</strong> n − r nennen wir den Trägheitsindex bzw. den Rang der Bilinearform.Etwa um 1850 bewiesen C.G.J. Jakobi (1804 – 1851) <strong>und</strong> J.J. Sylvester (1814 – 1897) unabhängigvoneinander die Existenz der Trägheitsindizes als Invarianten gegenüber linearen Transformationen.Damit nahm das Problem der Klassifikation von Quadriken eine beträchtliche Entwicklung.Die Klassifikation von quadratischen Formen illustrieren wir am einfachsten Fall:Beispiel 8.58Sei X IR −Vektorraum der Dimension 2. Der Trägheitssatz liefert folgende Fälle.1. r =1,t=1: q(a 1 x 1 + a 2 x 2 )=a 2 1.2. r =0,t=1: q(a 1 x 1 + a 2 x 2 )=a 2 1 − a 2 2.Bemerkung 8.59Ist (X, σ) ein euklidischer Raum, dann definiert jede symmetrische Matrix A ∈ IR n,ndurch T (x, x) :=σ(x, Ax) ,x∈ X, eine symmetrische Bilinearform; davon gilt auch dieUmkehrung (siehe Satz 8.20. Also kann man daher den Satz 8.57 auch als Resultat überdie Normalform einer symmetrischen Matrix verstehen: Ist A ∈ IR n,n eine symmetrischeMatrix,dann gibt es eine orthogonale Matrix M ∈ IR n,n mit M t AM = diag(Θ,E,−E).Damit wird auf dem raum der symmetrischen Matrizen eine Äquivalenzrelation erzeugt.Rang <strong>und</strong> Trägheitsindex (der zugehörigen quadratischen Form) bestimmen die Äquivalenzklassen.Ein entsprechendes Ergebnis gilt auch im Fall eines unitären Raumes. 2Der Vollständigkeit halber führen wir noch an:


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 222Satz 8.60Sei q eine semidefinite quadratische Form auf X mit Bilinearfrom T . Dann giltT (x, y) ≤ q(x)q(y),x,y∈ X.Beweis:Siehe Beweis zur Cauchy-Schwarzschen Ungleichung.Beachte, daß der Zusatz über die Gleichheit hier fehlt, da ja die Definitheit im allgemeinennicht gegeben ist.Definition 8.61Sei X IK −Vektorraum. Eine Teilmenge Q ≠ X von X heißt Quadrik, wenn eseine symmetrische Bilinearform T ∈T 2 (X)\{θ},λ∈ X ′ <strong>und</strong> c ∈ IK gibt mitQ = {x ∈ X|T (x, x)+ +c =0} .Die Abbildung X ∋ x ↦−→ T (x, x)+ +c ∈ IK heißt Quadrikform <strong>und</strong>die Forderung T (x, x)+ +c =0 heißt Quadrikgleichung.2Die Forderung Q ≠ X schließt lediglich gewisse lästige Sonderfälle von der Betrachtungaus.Beispiel 8.62Wir betrachten IR 2 <strong>und</strong> wählen die Standardbasis in IR 2 . Dann können wir die Koordinatenformeiner Quadrikgleichung so hinschreiben:a 11 x 2 +2a 12 xy + a 22 y 2 +2b 1 x +2b 2 y + c =0Darin sind nun u.a. die aus der Elementarmathematik bekannten Standardgleichungender Kegelschnitte enthalten (vergleiche mit Beispiel 8.58):Ellipse : x 2a 2 + y2b 2 − 1=0.Parabel : y 2 − 2px =0.Hyperbel : x 2a 2 − y2b 2 − 1=0.Sich schneidendes Geradenpaar : x 2a 2 − y2b 2 =0Paar paralleler Geraden : x 2 − a 2 =0Mit Ausnahme der Parabel sind alle Quadriken Mittelpunktsquadriken. (Ein Punkt x ∈ Xheißt Mittelpunkt von Q ⊂ X genau dann, wenn aus x + q ∈ Q, q ∈ Q, stets x − q ∈ Qfolgt. 2


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 223Von A. Dürer (1471 – 1528) gibt es Aufzeichnungen über eine “Unterweisung“ über den Umgangmit Zirkel <strong>und</strong> Lineal zur Konstruktion von Figuren, die für Steinmetze,. . . von einigem Interessesein könnten. Dabei beschreibt er u.a. auch die Konstruktion der Kegelschnitte. Dabei stößt er auchauf das Problem der Quadratur des Kreises <strong>und</strong> gibt ein Verfahren an, das dies näherungsweiseleistet; die Näherung 3 1 8für π, die schon den Babyloniern bekannt war, wird dabei benutzt.Obwohl P. Fermat (1602 – 1665) noch keine analytische <strong>Geometrie</strong> zur Verfügung stand, gelingtes ihm doch, die Kegelschnitte als geometrische Örter durch Gleichungen zu beschreiben. Diegeometrischen Gr<strong>und</strong>tatsachen tauchen bei ihm als definierende Eigenschaften auf, während sie inder Antike als Konsequenz der Konstruktion abgelesen werden konnten.Abschließend bemerken wir noch, daß quadratische Formen in IR 2 zur Klassifikation vonpartiellen Differentialoperatoren (zweiter Ordnung) herangezogen werden. Den Typen entsprechendgibt es elliptische Differentialgleichungen (r =0,t = 1/ Laplacegleichung),hyperbolische Differentialgleichungen (r =0,t = 1/ Wellengleichung) <strong>und</strong> parabolischeDifferentialgleichungen (r =1,t=1/Wärmeleitungsgleichung).


Kapitel 9Konvexität <strong>und</strong> lineare OptimierungKonvexe Mengen tauchen ganz natürlich auf in der <strong>Geometrie</strong>, spielen eine f<strong>und</strong>amentaleRolle in der Analysis <strong>und</strong> gestatten es, Probleme in Anwendungen zu beschreiben <strong>und</strong>zu klassifizieren. Wir stellen die Ergebnisse bereit, die uns helfen, lineare Ungleichungssystemezu studieren <strong>und</strong> zu lösen. Einen großen Raum nimmt das Simplexverfahren ein.9.1 KonvexitätDefinition 9.1Sei X ein IR −Vektorraum, sei M ⊂ X, x, y ∈ X.(a) Jeder Vektor z ∈ X mit z = y + a(x − y) =ax +(1− a)y, a ∈ [0, 1], heißtKonvexkombination von x, y.(b) M heißt konvex, falls für alle x, y ∈ M <strong>und</strong> a ∈ [0, 1] ax +(1− a)y ∈ Mgilt.2Klar, jeder lineare Teilraum <strong>und</strong> jeder affine Unterraum eines IR – Vektorraums ist konvex.Beispiel 9.2Sei (X, ‖·‖) normierter IR – Vektorraum. Die offenen Kugeln<strong>und</strong> die abgeschlossenen KugelnB 0 r (x 0 ):={x ∈ X|‖x − x 0 ‖


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 225Dies zeigt: ax +(1− a)y ∈ B r (x 0 ). 2Lemma 9.3Seien X, Y IR – Vektorräume, sei L : X −→ Y linear, seien K 1 ,K 2 ⊂ X, K 3 ⊂ Ykonvex <strong>und</strong> seien a, b ∈ IR . Dann giltBeweis:Trivial(a) K 1 ∩ K 2 ist konvex.(b) K 1 × L(K 2 ):={(u, v) ∈ X × Y |u ∈ K 1 ,v ∈ L(K 1 )} ist konvex (in X × Y ).(c) L −1 (K 3 ):={u ∈ X|L(x) ∈ K 3 } ist konvex.(d) aK 1 + bK 2 := {au + bv|u ∈ K 1 ,v ∈ K 2 } ist konvex.Beispiel 9.4Sei X IR – Vektorraum mit Dualraum X ′ . Sei λ ∈ X ′ ,α∈ IR . Dann sindH + λ,α := {x ∈ X| ≥ α} ,H− λ,α := {x ∈ X| ≥ α} ,H λ,α := {x ∈ X| = α} ,H + λ,α \H λ,α,H − λ,α \H λ,αkonvex. Dies folgt im wesentlichen aus der Linearität von < ·, · > im 2. Argument.Die MengenH + λ,α ,H− λ.α bzw. H+ λ,α \H λ,α,H − λ,α \H λ,αwerden Halbräume bzw. offene Halbräume genannt. Bekanntlich ist H λ,α eine Hyperebene,falls λ ≠ θ <strong>und</strong> H λ,α ≠ ∅ ist. 2Definition 9.5Sei (X, σ) ein euklidischer Raum <strong>und</strong> sei P ⊂ X, P ≠ ∅.(a) P heißt Polyhedron, genau dann, wenn es HalbräumeH i := {x ∈ X|σ(z i ,x) ≤ a i } (z i ∈ X, a i ∈ IR ) , 1 ≤ i ≤ k,gibt mitk⋂P = H i .i=1(b) P heißt Polytop, genau dann, wenn P ein beschränktes Polyhedron ist. 2


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 226Es ist unmittelbar klar, daß jedes Polyeder <strong>und</strong> jedes Polytop konvex ist.Beispiel 9.6Sei X IR −Vektorraum <strong>und</strong> sei A ⊂ X. SetzeA ′ := {λ ∈ X ′ | ≤ 1für alle u ∈ A}.Dann ist A ′ eine konvexe Teilmenge von X ′ .A ′ heißt die zu A polare Menge. 2Lemma 9.7Sei (X, ‖·‖) normierter IR – Vektorraum <strong>und</strong> sei K ⊂ X konvex. Dann ist auchK(ɛ) :=K + B ɛ (θ) :={u ∈ X|∃x ∈ K(‖u − x‖ ≤ɛ} ,Abschluß von K <strong>und</strong> das Innere von K konvex.Beweis:TrivialIst eine Teilmenge A eines IR – Vektorraumes X nicht konvex, so kann man versuchen,eine ”kleinste“ (im Sinne der Inklusion) konvexe Menge K zu finden, die A enthält. Dader Raum X sicherlich konvex ist, macht dies Sinn.Definition 9.8Sei X ein IR – Vektorraum <strong>und</strong> sei A ⊂ X. Die MengeK := ⋂ {C | C ⊃ A, C konvex}heißt konvexe Hülle von A. Wir schreibenK = co(A).2Eine naheliegende Verallgemeinerung der Regel (a) aus Lemma 9.3 für beliebige Durchschnittebelegt, daß co(A) stets konvex ist.Folgerung 9.9Sei X IR – Vektorraum, A ⊂ X. Dann giltn∑n∑co(A) ={x ∈ X|x = a i u i ,u 1 ,...,u n ∈ A, a 1 ,...,a n ∈ [0, 1], a i =1,n∈ IN }i=1i=1Beweis:∑Sei K := {x ∈ X|x = n a i u i ,u 1 ,...,u n ∑∈ A, a 1 ,...,a n ∈ [0, 1], n a i =1,n∈ IN } .i=1i=1K ist offenbar konvex <strong>und</strong> A ist in K enthalten. Daraus folgt sofort co(A) ⊂ K. Ist x ∈ K,dann ist offenbar x ∈ co(A). Also gilt co(A) =K.


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 227Folgerung 9.10Sei X IR – Vektorraum <strong>und</strong> seien A 1 ⊂ A 2 ⊂ X. Dann gilt co(A 1 ) ⊂ co(A 2 ) .Beweis:Trivial mit Folgerung 9.9.Beispiel 9.11Wir betrachten die Menge S := {(e σ(1) | ...|e σ(n) ) ∈ IR n,n |σ ∈S n }Wir wissen #S = n! . SetzeD := co(S).Man rechnet nach, daß für eine Matrix D =(d ij ) ∈Dgilt:n∑ n∑d kj = d ik =1,d ij ≥ 0 , 1 ≤ i, j ≤ n.k=1 k=1Die Matrizen in D nennt man doppeltstochastische Matrizen. 2Satz 9.12Sei X ein n−dimensionaler IR – Vektorraum, sei A ⊂ X, A ≠ ∅. Dann gilt{co(A) = x =m∑a i x i |i=1}m∑a i =1,x i ∈ A, a i ∈ [0, 1], 1 ≤ i ≤ m, m≤ n +1i=1Beweis:O.E. sei X = IR n .∑Sei K := {x = m a i x i |x i ∑∈ A, a i ∈ [0, 1], 1 ≤ i ≤ m, m a i =1,m≤ n +1}.i=1∑Sei x ∈ co(A), d. h. x = k a i x i ,x i ∑∈ A, a i ∈ A, a i ∈ [0, 1], 1 ≤ i ≤ k, <strong>und</strong> k a i =1. Isti=1k ≤ n +1, ist x ∈ K <strong>und</strong> nichts ist mehr zu zeigen. Sei ( also nun k>n+1. Da dim X = nx1... x<strong>und</strong> k>n+ 1 ist, ist rg(M) ≤ n +1, wobei M :=k )∈ IR n+1,k ist. Also1 ... 1gibt es b 1 ,...,b k ∈ IR miti=1i=1k∑b i x i = θ,i=1k∑b i =0,i=1k∑b 2 i ≠0.i=1SetzeQ := {q ∈ IR |qb i + a i ≥ 0, 1 ≤ i ≤ k}Q ist abgeschlossen, nichtleer, da 0 ∈ Q, <strong>und</strong> verschieden von IR, da nicht alle b i verschwinden.Sei q ∈ Q, sodaß qb j +a j =0für mindestens ein j ∈{1,...,k} ist. Ein solchesq existiert, da Q ≠ IR <strong>und</strong> Q abgeschlossen ist. Dann istk∑k∑k∑x = a i x i + q b i x i = i + qb i )xi=1i=1 i=1(a i = ∑ (a i + qb i )x ii≠j


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 228<strong>und</strong> wir haben eine Darstellung von x als Konvexkombination durch k − 1 Vektoren, da∑(a i + qb i ) = 1 <strong>und</strong> daher a i + qb i ∈ [0, 1], 1 ≤ i ≤ k, gilt.i≠jDer obige Satz 9.12 wird Satz von Carathéodory genannt. An einem Dreieck in derEbene kann man ihn sich gut veranschaulichen. Etwa erhält man den Schwerpunkt x einesDreiecks mit den EndpunktenP 1 : a 1 ,P 2 : a 2 ,P 3 : a 3(Koordinaten a i bzgl. der Standardbasis) alsx = 1 3 a1 + 1 3 a2 + 1 3 a3(Je nach Betrachtungsweise, kann man dies auch als definierende Gleichung für denSchwerpunkt ansehen.)Aus dem Satz von Carathéodory schließt man sehr einfach, daß co(A) beschränkt (kompakt)ist, falls A beschränkt (kompakt) ist.Jede konvexe MengeK = co({x 1 ,...,x k })in einem IR – Vektorraum X wird ein konvexes Vielflach in X genannt.Beispiel 9.13D aus Beispiel 9.11 ist ein konvexes Vielflach.Definition 9.14Sei X ein IR – Vektorraum <strong>und</strong> seien x 0 ,...,x k ∈ X affin linear unabhängig. Dannnennen wir das VielflachΣ(x 0 ,...,x k ):=co({x 0 ,...,x k })einen k –Simplex.2Ist K eine Teilmenge des IR – Vektorraums X, dann gibt es einen kleinsten affinen TeilraumA (bzgl. der Inklusion) mit K ⊂ A; man nennt dieses A affine Hülle von K. AlsDimension können wir dann K dieaffineDimensionderaffinenHülle von K zuweisen.


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 229Lemma 9.15Sei (X, ‖·‖) normierter IR – Vektorraum, sei dim X < ∞, <strong>und</strong> sei K ≠ ∅ einekonvexe Teilmenge von X. Dann sind äquivalent:(a) dim K =dimX(b) K hat innere Punkte.Beweis:a) =⇒ b)Seien x 1 ,...,x n+1 ∈ K affin linear unabhängig. Dann ist1n +1 (x1 + ...+ x n )ein innerer Punkt von K.b) =⇒ a)Sei x 0 ∈ K innerer Punkt von K; seiB r (x 0 ) ⊂ K, r > 0. Sei x 1 ,...,x n eine Basis von X.O.E. ‖x i ‖


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 230Satz 9.17Sei (X, σ) reeller Hilbertraum <strong>und</strong> sei C ⊂ X konvex, abgeschlossen, ≠ ∅, <strong>und</strong> seix ∈ X\C. Dann gibt es genau ein x 0 ∈ C mit<strong>und</strong>esgiltdist(x, C) :=inf{‖u − x‖ σ | u ∈ C} = ‖x 0 − x‖ σσ(x 0 − x, u − x 0 ) ≥ 0 , sup σ(u, x 0 − x) >σ(x, x 0 − x) .u∈CBeweis:Sei a := inf{‖u − x‖ σ |u ∈ C}. Da C abgeschlossen ist, ist a>0. Dazu gibt es eine Folge(u n ) n∈IN mit u n ∈ C, n ∈ IN , <strong>und</strong> lim ‖u n − x‖ σ = a. Sei ɛ>0. Aus der Identitätn∈IN‖u n − u m ‖ 2 σ =2‖u n − x‖ 2 σ +2‖u m − x‖ 2 σ − 4‖ 1 2 (un + u m ) − x‖ 2 σ<strong>und</strong> 1 2 (un + u m ) ∈ C für alle n, m ∈ IN folgt die Existenz von N ∈ IN mit‖u n − u m ‖ 2 σ ≤ 2(a 2 + ɛ)+2(a 2 + ɛ) − 4a 2 ,n,m≥ N.Dies zeigt, daß (u n ) n∈IN eine Cauchyfolge in (X, ‖·‖ σ ) ist. Also gibt es x 0 ∈ X mitx 0 = lim u n . Da C abgeschlossen ist, gilt x 0 ∈ C. Aus der Stetigkeit der Normabbildungn∈INfolgta = lim ‖u n − x‖ σ = ‖x 0 − x‖ σ .n∈INZur Eindeutigkeit von x 0 . Sei x 1 ∈ C mitDann folgtdist(x, C) =‖x 0 − x‖ σ = ‖x 1 − x‖ σ = a.‖x 0 − x 1 ‖ 2 σ =2‖x0 − x‖ 2 σ +2‖x0 − x‖ 2 σ − 4‖1 2 (x0 + x 1 ) − x‖ 2 σ ≤ 2a2 +2a 2 − 4a 2 =0.Dies zeigt x 0 = x 1 .Sei u ∈ C. Für t ∈ (0, 1] betrachte x 0 + t(u − x 0 )=tu +(1− t)x 0 ∈ C. Damit gilt‖x 0 + t(u − x 0 ) − x‖ 2 σ ≥‖x 0 − x‖ 2 σ ,t∈ (0, 1],oder2σ(x 0 − x, u − x 0 )+t‖u − x 0 ‖ 2 σ ≥ 0,t∈ (0, 1] .Grenzübergang t → 0 liefert die Behauptung σ(x 0 − x, u − x 0 ) ≥ 0für alle u ∈ C.DerRestderAussagefolgtausσ(u, x 0 − x) ≥ σ(x 0 − x, x 0 )= σ(x 0 − x, x 0 − x)+σ(x 0 − x, x)= a 2 + σ(x 0 − x, x).


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 231Folgerung 9.18Sei (X, σ) reeller Hilbertraum <strong>und</strong> sei C ⊂ X konvex, abgeschlossen, ≠ ∅. Dann gibtes zu jedem x ∈ X\C ein z 0 ∈ X mitsup σ(z 0 ,u) 0 ∃ y ∈ A (‖x − y‖


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 232Folgerung 9.20Sei (X, σ) reeller Hilbertraum <strong>und</strong> sei dimX < ∞. Sei A ⊂ X offen <strong>und</strong> konvex,x/∈ A. Dann gibt es z 0 ∈ X mitBeweis.Wähle eine Folge (y n ) n∈INFolgerung 9.18 eine Folge (z n ) n∈IN mit:sup σ(z 0 ,u) ≤ (z 0 ,x).u∈Ain X mit limn∈INy n = x, y n ∈ X\A, n ∈ IN . Dazu gibt es nachsup σ(z n ,u)


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 233Sei < ·, · > 2 das euklidische Skalarprodukt <strong>und</strong> sei ‖·‖ 2 die euklidische Norm in IR n bzw.IR m .Definition 9.22Ein x 0 ∈ IR n,1 heißt Pseudolösung (Ausgleichslösung) von (9.1), falls gilt:‖Ax 0 − y‖ 2 =inf{‖Ax − y‖ 2 |x ∈ IR n,1 }.2Satz 9.23(a) Eine Pseudolösung von (9.1) existiert.(b) x 0 ∈ IR n,1 ist Pseudolösung genau dann, wenngilt.Beweis:Da für eine Pseudolösung x 0A t Ax 0 = A t ydist(y,Bild(A)) = inf{‖Ax − y‖ 2 |x ∈ IR n } = ‖Ax 0 − y‖ 2 ,gilt, folgt die Aussage aus Satz 9.17 <strong>und</strong> Folgerung 9.19.Die GleichungA t Ax 0 = A t y (9.2)nennt man Normalgleichung zu Gleichung (9.1). Die Eindeutigkeit einer Pseudolösungist im allgemeinen nicht gegeben, da die Normalgleichung nur dann eindeutig lösbar ist,wenn det(A t A) ≠ 0 gilt.Ein allgemeines Problem experimenteller Arbeit besteht darin, eine mathematische Beziehungy = f(x) zwischen zwei Variablen x <strong>und</strong> y zu bestimmen, die die in unterschiedlichen,in Versuchen ermittelten Wertepaare(t 1 ,y 1 ),...,(t n ,y n )möglichst gut beschreibt. Setzt man f etwa als Polynom zweiten Grades an, so hat mandrei Konstanten (a, b, c) zu bestimmen. Dazu kann man die Ausgleichslösung der Gleichungf(a, b, c; t i )=y i , 1 ≤ i ≤ n,heranziehen. Man nennt das so skizzierte Vorgehen Ausgleichsrechnung oder Methodeder kleinsten Quadrate.


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 234Die Methode der kleinsten Quadrate wurde erstmals von C.F. Gauß (1777 – 1855) im Rahmenseiner Studien in der Geodäsie dargelegt (1821). Nicht nur der Reichtum der Ideen, sondern auchsein außergewöhnlicher Fleiß in der Durchführung von endlosen Zahlenrechnungen sind in diesemZusammenhang beeindruckend. In der mathematischen Statistik wird gezeigt, daß die Ausgleichslösungbesonders einfache statistische Eigenschaften besitzt.Definition 9.24Eine Pseudollösung ˆx von Gleichung (9.1) heißt normal, falls gilt:‖ˆx‖ 2 =inf{‖x 0 ‖ 2 |x 0 Pseudolösung von (9.1)}.2Da die Menge der Pseudolösungen von (9.1) konvex <strong>und</strong> abgeschlossen ist – dies schließtman aus Folgerung 9.23 – , ist nach Satz 9.17 die normale Pseudolösung eindeutig bestimmt.Man kann sie finden als die Pseudolösung, die in Kern(A t ) ⊥ liegt. Verfahren wiedas QR-Verfahren – A wird dargestellt als QR mit einer orthogonalen Matrix Q <strong>und</strong> eineroberen Dreiecksmatrix R – sind in der Lage diese normale Lösung zu finden.9.3 Der Satz von Hahn – Banach *Wir kehren nun zum Abschnitt über normierte Räume zurück.Ist X ein IK – Vektorraum, dann wissen wir aus Abschnitt 4.6, daßX ′ := {λ : X −→ IK |λ linear}wieder ein IK −Vektorraum ist; wir hatten ihn als algebraischen Dualraum bezeichnet. Istnun X sogar ein normierter Vektorraum, so werden wir unter Einbeziehung der zusätzlichenStruktur (Normierung/Stetigkeit) zuX ∗ := {λ : X −→ IR |λ ∈ X ′ ,λ stetig}geführt. Klar, auch X ∗ ist wieder ein IR −Vektorraum; wir nennnen ihn den stetigenDualraum von X <strong>und</strong> jedes λ ∈ X ∗ nennen wir eine stetige Linearform. X ∗ ist sogarwieder ein normierter Vektorraum, da offenbar‖·‖ ∗ : X ∗ ∋ λ ↦−→sup | |∈IR‖x‖≤1dank Satz 8.16 eine Norm auf X ∗ ist. Die Reichhaltigkeit von X ′ haben wir im Folgerung4.54 gezeigt. Hier wollen wir dies für X ∗ tun. Allerdings ist festzuhalten, daß wir schonwissen, daß X ′ = X ∗ ist, wenn dim X


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 235Definition 9.25Sei X ein IR −Vektorraum. Ein sublineares Funktional ist eine Abbildungp : X −→ IR mit folgenden Eigenschaften:1. p(ax) =ap(x) ,a∈ [0, ∞], x∈ X.2. p(x + y) ≤ p(x)+p(y) ,x,y ∈ X.2Offenbar ist jede Norm ein sublineares Funktional.Lemma 9.26Sei X ein IR −Vektorraum, p : X −→ IR sublineares Funktional, U ⊂ X linearerTeilraum <strong>und</strong> λ 1 : U −→ IR linear. Es gelteIst dann z ∈ X\U, so gibt es≤ p(u) ∀u ∈ U.λ : W −→ IR ,W := L({z}∪U)mitBeweis:Für alle u, v ∈ U gilt:λ| U = λ 1 ,λ linear ,≤ p(w) ∀w ∈ W.+ = ≤ p(u + v)= p((u + z)+(v − z))≤ p(u + z)+p(v − z),alsoHieraus folgt−p(v − z) ≤ p(u + z)− .m := sup(< λ 1 ,v >−p(v − z)) ≤ inf (p(u + z)− )=:Mv∈Uu∈UWir wählen a ∈ [m, M] <strong>und</strong> definieren für x ∈ U <strong>und</strong> b ∈ IR := +ba.Dann ist λ : Wvon a−→ IR linear <strong>und</strong> λ| U = λ 1 . Für b>0 <strong>und</strong> x ∈ U folgt mit der Wahl ≤ +bM≤ +b(p(b −1 x + z)− )= p(x + bz).


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 236Entsprechend gilt für b−p(−b −1 x − z))= p(x + bz)Folglich gilt≤ p(w) für alle w ∈ W.Satz 9.27Sei X IR – Vektorraum <strong>und</strong> sei p ein sublineares Funktional auf X. Sei U ⊂ X einlinearer Teilraum <strong>und</strong> sei µ : U −→ IR linear. Es gelteDann gibt es λ ∈ X ′ mit≤ p(u) für alle u ∈ U.λ| U = µ, < λ, x > ≤ p(x) für alle x ∈ X.Beweis:Wir sagen, daß (W, ν) zur Menge Z gehört, wenn gilt:W ist linearer Teilraum von X mit U ⊂ W,ν : W −→ IR ist linear <strong>und</strong> ν| U = µ, < ν,w >≤ p(w) ∀w ∈ W.Wir erklären auf der so definierten Menge Z eine Halbordnung durch(W, ν) < (W ′ ,ν ′ ):⇐⇒ W ⊂ W ′ ,ν ′ | W = ν.Ist (W i ,ν i ) i∈I eine Kette, d.h. je zwei Elemente der Familie (W i ,ν i ) i∈I sind mit “, falls x ∈ W i .Aus der Ketteneigenschaft erhalten wir, daß W ein linearer Teilraum von X ist <strong>und</strong> daßµ eine wohldefinierte lineare Abbildung auf W ist. Offensichtlich ist also (W,µ) ∈ Z eineobere Schranke der Kette, d.h.(W i ,µ i ) < (W,µ) für alle i ∈ I.Nach dem Zornschen Lemma hat Z ein maximales Element, d.h. es gibt (Ŵ,λ) ∈ Z mit(W, µ) ∈ Z, (Ŵ,λ) < (W, µ) =⇒ Ŵ = W, λ = µ.Daraus folgt mit Lemma 9.26 W = X.Das lineare Funktional λ hat also die gewünschte Eigenschaft.


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 237Satz 9.28Sei X ein normierter IR −Vektorraum, sei U ⊂ X ein linearer Teilraum <strong>und</strong> seiµ : U −→ IR linear <strong>und</strong> stetig. Dann gibt es λ ∈ X ∗ mitλ| U = µ, ‖λ‖ ∗ =sup{| |u ∈ U}.Beweis:Sei α := sup{| ||u ∈ U}. Setze p(x) :=α‖x‖,x ∈ X. Nach Satz 9.27 gibt esλ ∈ X ′ mitλ| U = µ, < λ, x > ≤ p(x) ∀x ∈ X.Es gilt− =< λ,−x >≤ p(−x) =p(x) ,x∈ X.Also haben wir| |≤α‖x‖ ,x∈ X.Dies zeigt zusammen mit Satz 8.16 die Stetigkeit von λ <strong>und</strong> schließlich auch‖λ‖ ∗ = α.Folgerung 9.29Sei X normierter Vektorraum <strong>und</strong> sei x 0 ∈ X\{θ}. Dann gibt es λ ∈ X ∗ mit≠0.Beweis:U := L({x 0 }),µ: U ∋ αx 0 ↦−→ α ∈ IR . Wende nun Satz 9.28 an.Eine geometrische Version des Satzes von Hahn-Banach istSatz 9.30Sei X ein normierter IR −Vektorraum, seien A, K ⊂ X konvex <strong>und</strong> sei K ◦ ≠ ∅.Dann gibt es λ ∈ X ∗ \{θ} <strong>und</strong> α ∈ IR mitsup ≤ α ≤ inf u∈Kv∈ABeweis:Sei x 0 ∈ K ◦ <strong>und</strong> sei B r (x 0 ) ⊂ K. Sei u 0 ∈ A beliebig. SetzeZ := u 0 + K − A.Klar, Z ist konvex, u 0 /∈ Z, <strong>und</strong> B r (x 0 ) ⊂ Z. (Beachte θ ∈ U 0 − A.)Definierep(x) :=inf{t >0|t −1 x ∈ Z} ,x∈ X.Da zu beliebigem x ∈ X stets ein t>0existiertmitt −1 x ∈ B r (x 0 ) ⊂ K ⊂ Z, ist pwohldefiniert. Ferner gilt:


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 2381. p(θ) =0,p(x) ≥ 0 ∀x ∈ X;2. p(rx) =rp(x) ,r ≥ 0,x∈ X;3. p(x + y) ≤ p(x)+p(y) ∀x, y ∈ X;4. p(v) ≥ 1 ∀v ∈ X\Z, p(z) ≤ 1 ∀z ∈ Z.(1 ) <strong>und</strong> (4) sind sofort einzusehen, (2) folgt aus der Definition von p, (3) folgt so:Sei ɛ>0,s := p(x) + ɛ 2 ,t := p(y) + ɛ 2 . Da s>p(x),t > p(y) ist, gilt s−1 x, t −1 y ∈ Z.Wegen der Konvexität von Z folgt dann(s + t) −1 (x + y) =(s + t) −1 (s(s −1 x)+t(t −1 y)) ∈ Z,also, dank p((s + t) −1 (x + y)) ≤ 1, schließlichp(x + y) = (s + t)(p((s + t) −1 (x + y)))≤ (s + t) =p(x)+p(y)+ɛ.Da ɛ>0 beliebig war, folgt die Aussage (4).Also ist p ein sublineares Funktional. Definiere auf U := L({u 0 }) das lineare FunktionalWir erhalten für a ∈ IRAlso gibt es nach Satz 9.27 ein λ ∈ X ′ mitDaraus folgt für z ∈ Z :µ : U ∋ αu 0 ↦−→ αp(u 0 ) ∈ IR . ≤ max(0,ap(u 0 )) ≤ p(au 0 ).λ| U = µ, < λ, x > ≤ p(x) ∀x ∈ X.≤ p(z) ≤ 1 ≤ p(u 0 )= = .Damit ist insbesondere λ ≠ θ <strong>und</strong> für u ∈ K, v ∈ A folgt≤ 1, d.h ≤ .Insbesondere haben wir≤ α := inf v∈Afür u ∈ B r (x 0 ). Dies zeigt λ ∈ X ∗ .Bemerkung 9.31Das im Beweis von Satz 9.30 aufgeführte Funktionalp(x) :=inf{t >0|t −1 x ∈ Z} ,x∈ Xheißt das Minkowskifunktional (der Menge Z). 2


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 2399.4 <strong>Lineare</strong> Ungleichungen *Wir betrachten hier lineare Ungleichungen in IR n .Dazubenötigen wirBezeichnungen :IR n + := {x ∈ IR n | x i ≥ 0, 1 ≤ i ≤ n},IR n > := {x ∈ IR n | x i > 0, 1 ≤ i ≤ n}.Orthogonale Komplemente sind stets bezüglich des euklidischen Skalarprodukts < ·, · >:= 2 gebildet. Beachte auch, daß der algebraische (stetige) Dualraum von IR n vermögedes euklidischen Skalarprodukts mit IR n identifiziert werden kann.Lemma 9.32Sei U ein linearer Teilraum von IR n mit U ∩ IR n + = {θ}. Dann gilt U ⊥ ∩ IR n > ≠ ∅.Beweis:Annahme: U ⊥ ∩ IR n > = ∅.Da U ⊥ + IR n > =⋃ w + IR n > gilt, ist K := U ⊥ + IR n > offen. Offenbar ist K auch konvex.w∈U ⊥Wegen U ⊥ ∩ IR n > = ∅, ist θ/∈ K. Nach Satz 9.27 gibt es x ∈ IR n > \{θ} mitDaraus folgt0 ≤ inf{< y,x>|y ∈ U ⊥ + IR n > }. (9.3)0 ≤ inf{< y,x>|y ∈ U ⊥ }wegen der Stetigkeit von < ·, · >.Wegen −U ⊥ = U ⊥ <strong>und</strong> θ ∈ U ⊥ folgtsup{| ||y ∈ U ⊥ } =sup{< y,y>|y ∈ U ⊥ } = − inf{< −y, x > |y ∈ U ⊥ }≤0.Dies zeigt x ∈ (U ⊥ ) ⊥ = U. Nun folgt aus (9.3) auch<strong>und</strong> aus Stetigkeitsgründen0 ≤ inf{< u,x>|u ∈ IR n >}0 ≤ ,1 ≤ i ≤ n,also x ∈ IR n + . Dies steht im Widerspruch zur Voraussetzung, da x ∈ U ∩ IR n + \{θ}.Satz 9.33Sei A ∈ IR m,n . Dann sind äquivalent:(a) Es gibt x ∈ IR n >mit Ax = θ.(b) Es gibt kein y ∈ IR nBeweis:(a) =⇒ (b)Es folgt aus y ∈ IR nmit A t y ∈ IR n + \{θ}.mit A t y ≥ θ stets = =0. Da x ∈ IR n > ist, ist


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 240A t y = θ.(b) =⇒ (a)Setze U := Bild(A t ). Dann wissen wir U ∩ IR n +von x ∈ U ⊥ ∩ IR n > . Damit folgt= {θ}. Aus Satz 9.32 folgt die Existenz= = 0 für alle y ∈ IR n ,<strong>und</strong> daher Ax = θ.Nun können wir einen Existenzsatz für Ungleichungen beweisen.Satz 9.34Sei A ∈ IR m,n . Dann gibt es x ∈ IR n ,y ∈ IR m mitx + A t y ∈ IR n + ,Ax= θ, x ∈ IR n + ,At y ∈ IR n + .Beweis:Sei A =(a 1 | ...|a n ) <strong>und</strong> Y := {y ∈ IR m |A t y ∈ IR n +}.Betrachtef : Y ∋ y ′↦−→ {i ∈{1,...n}|(A t y ′ ) i > 0} ∈POT({1,...,n})Dann gibt es offenbar y ∈ Y, sodaß f(y) maximal bezüglich der Inklusion ist;k := #f(y). Definiere Matrizen B =(b 1 | ...|b n ) ∈ IR m,n <strong>und</strong> C =(c 1 | ...|c n ) ∈ IR m,ndurch{ab i i,i∈ f(y):=θ , sonst{θ ,i ∈ f(y)c i :=a i , sonstOffenbar ist A = B + C,C t y = θ. Für s ∈ IR <strong>und</strong> z ∈ IR n giltA t (sy + z) =sB t y + B t z + C t z.Annahme: Es gibt j <strong>und</strong> z ∈ IR n mit > 0.Dann ist j/∈ f(y) <strong>und</strong> wegen= + folgt:i ∈ f(y) =⇒ >0für s genügend groß,i = j/∈ f(y) =⇒ = > 0.Also haben wir einen Widerspruch zur Konstruktion von f(y).Dies zeigt, daß die Bedingung (b) in Satz 9.33 mit C anstelle von A erfüllt ist. Also gibtes w ∈ IR n > mit Cw = θ. Definiere x ∈ IR n + durch{0 ,i∈ f(y)x i :=,i /∈ f(y)w i


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 241Es gilt dann Cx = θ <strong>und</strong> Bx = θ, also Ax = θ. Schließlich ist auch x + A t y ∈ IR n + nachKonstruktion von y <strong>und</strong> Definition von x.Als Folgerung erhalten wir das sogenannte Lemma von Farkas.Lemma 9.35Sei A ∈ IR m,n ,b∈ IR m . Dann sind äquivalent:(a) Ax = b hat eine Lösung x ∈ IR n + .(b) A t y ∈ IR n + impliziert ≥ 0.Beweis:(a) =⇒ (b)Sei A t y ∈ IR n + . Es folgt = = ≥ 0.(b) =⇒ (a)Sei B := (A|b). Nach Satz 9.34 gibt es x ′ ∈ IR n+1+ ,y ∈ IR m mitx ′ + B t y ∈ IR n > ,Bx′ = θ, B t y = θ.Da A t y = θ ist, folgt aufgr<strong>und</strong> von (b) ± ≥ 0, also = 0. Damit istx ′ n+1 > 0 <strong>und</strong> o.E. können wir x ′ n+1 = 1 annehmen. Also ist x ′ =(x, 1) <strong>und</strong> wir habenAx − b = Bx ′ = θ.Das obige Lemma geht zurück auf eine Arbeit von J. Farkas zur “Theorie der einfachen Ungleichungen“(1902). Allerdings war es in Gr<strong>und</strong>züugen schon in einer Arbeit (1836) von J.B. Fourier(1768 – 1830) vorhanden.Kommen wir nun zu Aufgabenstellungen, wo lineare Ungleichungenen wesentlich Eingangfinden. Es ist dies die lineare Optimierung. Hier haben wir es mit einer Optimierungsaufgabezu tun, in der eine lineare Funktion (Zielfunktion) über einem Polyeder(zulässiger Bereich) zu minimieren/maximieren ist. Es handelt sich hier um eine Aufgabe,bei der sowohl die Zielfunktion als auch der zulässige Bereich konvex ist.Da nämlich die Einrichtung der ganzen Welt die vorzüglichste ist <strong>und</strong> da sie von dem weisestenSchöpfer herstammt, wird nichts in der Welt angetroffen, woraus nicht irgendeine Maximum– oderMinimumeigenschaft hervorleuchtet. Deshalb kann kein Zweifel bestehen, daß alle Wirkungen derWelt ebenso durch die Methode der Maxima oder Minima wie aus den wirkenden Ursachen selbstabgeleitet werden können.L. Euler (Frei übersetzt aus “Commentationes Mechanicae“).Betrachten wir ein Problem der optimalen Produktionsplanung.Ein Unternehmer produziert n Produkte A 1 ,...,A n , zu deren Herstellung m verschiedeneRohstoffe B 1 ,...,B m benötigt werden. Das Produkt A k enthalte a lk Anteile des RohstoffesB l <strong>und</strong> möge beim Verkauf pro Einheit einen Reingewinn von c k Zahlungseinheiten


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 242erbringen. Vom Rohstoff B l sei die Menge b l verfügbar. Wir wollen vereinfachend annehmen,daß der Markt für die Produkte A 1 ,...,A n unbegrenzt aufnahmefähig ist <strong>und</strong> daßdie Höhe des Angebots keine Rückwirkung auf die Preise hat. Die Produktionsmenge x kder Ware A k soll nun so festgelegt werden, daß der Gewinn maximal wird. Diese Aufgabeläßt sich mathematisch als Bestimmung eines Maximums der Zielfunktionunter den Nebenbedingungenn∑f(x 1 ,...,x n ):= c k x kk=1n∑a lk x k ≤ b l , 1 ≤ l ≤ m, x k ≥ 0 , 1 ≤ k ≤ n,k=1formulieren. In Matrixschreibweise erhalten wir mitA := (a lk ) 1≤l≤m,1≤k≤n ,c:= (c 1 ,...,c n ) ,b:= (b 1 ,...,b m )unter Verwendung des euklidischen Skalarprodukts < ·, · > die OptimierungsaufgabeMinimiere unter den Nebenbedingungen Ax ≤ b, x≥ θ.Dabei verstehen wir die Symbole “≤ “ <strong>und</strong> “≥“ bei Vektoren komponentweise (sieheAbschnitt 9.4). Die Aufgabe heißt linear, da sowohl die Zielfunktion als auch die Nebenbedingungendurch lineare Abbildungen beschrieben werden. Klar, die zulässige MengeZ ad := {x ∈ IR n |Ax ≤ b, x ≥ θ}ist ein (konvexes) Polyeder.Die obige Optimierungsaufgabe läßt sich geometrisch interpretieren. Betrachte dazu folgendeskonkreteBeispiel 9.36Sei m := 3,n := 2 <strong>und</strong> seien A, b, c gegeben durch⎛⎞10 5⎜A := ⎝ −2 −1−200 −400⎟⎠ ,b:=⎛⎜⎝50−6−1000⎞⎟⎠ ,c:= ( −10, −20 ) .Das Polyeder der zulässigen Menge wird im 1. Quadranten IR 2 + begrenzt durch die Geraden10x +5y =50, 2x + y =6, 200x + 400y = 1000Durch die Zielfunktion ist die Geradenschar−10x − 20y = amit dem Scharparameter a definiert. Diejenige Gerade dieser Schar, die für die Punkte(x, y) des zulässigen Polyeders einen minimalen Parameter a besitzt, liefert die (eine)


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 243Lösung des Optimierungsproblems. Im vorliegenden Beispiel ist die Lösung eindeutigbestimmt. Sie liegt im “Eckpunkt“ ( 7 , 4 ) des Polyeders. Der entsprechende Wert der3 3Zielfunktion beträgt f( 7, 4 )=−50. (Der negative Gewinn kann als Kosten interpretiert3 3werden.) 2Die obige Form der Optimierungsaufgabe wollen wir zu einer Standardform abwandeln.Wir behandelnMinimiere unter den Nebenbedingungen Ax = b, x≥ θ.Dabei sind alsoA ∈ IR m,n ,b∈ IR m ,c∈ IR ngegeben <strong>und</strong> wir können o.E. n > m annehmen. Anderenfalls hat nämlich das GleichungssystemAx = b im allgemeinen genau eine oder keine Lösung; in keinem Falle istdie Aufgabe dann interessant.Auf diese Standardform – wir benennen sie mit (LOP) –lassensichursprünglich andersformulierte Aufgaben, auch das eingangs formulierte lineare Optimierungsproblem,umschreiben.Beispiel 9.37Durch Einführung der “Hilfsvariablen“ y ∈ IR m wird aus der Aufgabedie AufgabeMinimiere unter den Nebenbedingungen Ax ≤ b, x≥ θMinimiere unter den Nebenbedingungen A ′ x ′ = b ′ ,x ′ ≥ θ,wobei(xA ′ := (A|E) ,b ′ := b, x ′ :=y),c ′ := (c|θ)ist. 2Die Beschäftigung mit Aufgaben vom Typ (LOP) wird unter dem Stichwort “<strong>Lineare</strong>Optimierung“ zusammengefaßt; sie ist Kern des Fachgebiets “Operations Research“. Hiersind typische Anwendungen der linearen Optimierung: Transportprobleme (Kostenminimierungbeim Transport von Gütern zu den Märkten), R<strong>und</strong>reiseprobleme (Kostenminimierungbei der Ausarbeitung einer Tour durch eine vorgegebene Anzahl vonStädten); letzteres Problem ist ein Problem der ganzzahligen Optimierung. Das imnächsten Abschnitt zur Vorstellung kommende Simplexverfahren kann so abgeändert werden,daß es auch ganzahlige Probleme löst.Für das Problem (LOP) wollen wir das Simplexverfahren beschreiben. Davor haben wirnoch einige Vorbereitungen zu treffen.


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 2449.5 ExtremalpunkteIm Beispiel der Produktionsplanung hatten wir gesehen, daß die Lösung ein “Eckpunkt“des zulässigen Polyeders ist. Dieser Sachverhalt stellt die Basis des im nächsten Abschnitzu besprechenden Simplexverfahrens dar. Hier bereiten wir die Schritte dieses Verfahrensvor. Dazu studieren wir einige Eigenschaften von Polyedern genauer.Definition 9.38Sei X IR – Vektorraum <strong>und</strong> sei M ⊂ X konvex.Ein Punkt x ∈ M heißt Extremalpunkt von M genau dann, wenn aus der Beziehungx = ay +(1− a)z,x,y ∈ M, 0


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 245Satz 9.40Es sind für x ∈ Z folgende Aussagen äquivalent:(a) x ist Ecke von Z.(b) Die Vektoren a j ,j ∈ I(x), sind linear unabhängig.Zusatz: Ist rg(A) =m, dann ist (b) auch zur Aussage(c) Es gibt µ 1 ,...,µ m ∈{1,...,n} mit rg(a µ 1|···|a µm )=m <strong>und</strong> x jj/∈{µ 1 ,...,µ m }=0füräquivalent.Beweis:(a) =⇒ (b)O.E. können wir annehmen I(x) ={1,...,r} mit r ≥ 1. Wegen x ∈ Z gilt die Beziehungr∑a ij x j = b i , 1 ≤ i ≤ m.j=1Annahme: a 1 ,...,a r sind linear abhängig. Dann gibt es also α 1 ,...,α r ∈ IR mitr∑r∑α j a j = θ, α 2 j ≠0.j=1j=1Da für j ∈{1,...,r} ja x j > 0 gilt, gibt es ɛ>0mitx j ± ɛα j > 0 , 1 ≤ j ≤ r.Setzey + := (x 1 + ɛα 1 ,...x r + ɛα r , 0,...,0),y − := (x 1 − ɛα 1 ,...,x r − ɛα r , 0,...,0).Dann haben wiry + ≥ θ, y − ≥ θ<strong>und</strong>n∑r∑r∑r∑a j y j ± = a j y j ± = a j x j ± ɛ α j a j = b.j=1j=1j=1j=1Also sind y ± ∈ Z <strong>und</strong> 1 2 (y+ + y − )=x.Da y ± ≠ x, ist dies ein Widerspruch zur Tatsache, daß x Extremalpunkt von Z ist.(b) =⇒ (a)Sei o.E. I(x)={1,...,r}. Betrachte eine Darstellungx = ay +(1− a)z,y,z ∈ Z, a ∈ (0, 1),von x. Offensichtlich gilt dann I(x) =I(y) ∪ I(z). Wegen Az = b = Ay folgt darausn∑r∑θ = a j (y j − z j )= a j (y j − z j )j=1j=1


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 246<strong>und</strong> wegen der linearen Unabhängigkeit von a 1 ,...,a r weiterhin y j = z j , 1 ≤ j ≤ r, <strong>und</strong>y j = z j =0,r+1≤ j ≤ n, wegen I(x) =I(y) ∪ I(z). Damit ist x Ecke von Z.Zum Zusatz. (c) =⇒ (b) istklar.(b) =⇒ (c) folgt so:O.E. können wir I(x) ={1,...,r} annehmen. Da offenbar r ≤ m gilt, hat man im Fallr


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 247induktiv nach r.Wiederum können wir also o.E. annehmen: I(x) ={1,...,r}. Sind a 1 ,...,a r linear unabhängig,so ist x Ecke <strong>und</strong> wir haben nichts mehr zu zeigen. Seien also a 1 ,...,a r linearabhängig. Dann gibt es α 1 ,...,α r ∈ IR mitr∑r∑α j a j = θ, α 2 j ≠0.j=1j=1Setze für ɛ ∈ IRx(ɛ) :=(x 1 + ɛα 1 ,...,x r + ɛα r , 0,...,0).Da Z konvex abgeschlossen <strong>und</strong> beschränkt ist, gibt es ɛ 1 < 0,ɛ 2 > 0mit:x(ɛ) ∈ Z für ɛ ∈ [ɛ 1 ,ɛ 2 ],x(ɛ) /∈ Z für ɛ/∈ [ɛ 1 ,ɛ 2 ],x(ɛ 1 ) j = x(ɛ 2 ) j =0,r+1≤ j ≤ n.Dazu gibt es auch l, k ∈{1,...,r} mitx(ɛ 1 ) l = x(ɛ 2 ) k =0.Also gilt #I(x(ɛ 1 )) |z ∈ Z}.Nach Satz 9.42 gibt es α 1 ,...,α l ∈ [0, 1] <strong>und</strong> Ecken x 1 ,...,x l von Z mitWegenl∑ l∑u = α k x k , α k =1.k=1 k=1min{< c,z>|z ∈ Z} = =l∑α k ≥ min{< c,x k > |1 ≤ k ≤ l}k=1


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 248muß es k 0 ∈{1,...,l} geben mit= .Also leistet x := x k 0das Gewünschte.Nun können wir das Prinzip des im nächsten Abschnitt zu beschreibenden Simplexverfahrenschon skizzieren: Da das Minimum in einer Ecke angenommen wird, sucht man dasMinimum in einer Ecke. Satz 9.40 liefert uns nun eine obere Schranke für die Anzahl derEcken x von Z, daeshöchstens nur ( ( )nm)Ecken geben kann. Danm sehr schnell großwird, wenn etwa realistischerweise n ∼ 2m gilt, ist das Verfahren, die Zielfunktion in denEcken auszuwerten <strong>und</strong> ihre Werte zu vergleichen, kein effizientes Vorgehen. Es ist derVorteil der im nächsten Abschnitt zu besprechenden Methode, daß im allgemeinen sehrviel weniger als ( )nm Ecken berechnet werden müssen, ehe eine Lösung gef<strong>und</strong>en ist.9.6 SimplexverfahrenSatz 9.40 entnimmt man, daß eine Ecke x von Z höchstens m positive Einträge x j habenkann, wenn rg(A) =m gilt.Generelle Annahme: rg(A) =mDefinition 9.44Ein z ∈ Z heißt Basispunkt mit Basisvariablen µ 1 ,...,µ m , falls gilt:a µ 1,...,a µm sind linear unabhängig, z j =0, falls j/∈{µ 1 ,...,µ m }.Die Variablen {j|j /∈{µ 1 ,...,µ m } heißen Nichtbasisvariablen.2Lemma 9.45Es sind äquivalent für z ∈ Z :(a) z ist Ecke.(b) z ist Basispunkt.Beweis:Siehe Satz 9.40.Bei der Definition von Basisvariablen fällt auf, daß nicht behauptet wird, daß Komponentenz j , die zu Basisvariablen gehören, positiv sind. Dies kann man im allgemeinen auchnicht erwarten.Definition 9.46Eine Ecke z ∈ Z heißt entartet , wenn es eine Basisvariable j gibt mit z j =0.2


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 249Beispiel 9.47Betrachte das MinimierungsproblemMinimiere unter den Nebenbedingungen Ax = b, x≥ θfür m := 3,n:= 5 <strong>und</strong>⎛A :=⎜⎝1 1 1 0 02 1 0 0 11 0 0 1 0⎞⎟⎠ ,b:=⎛⎜⎝231⎞⎟⎠ ,c:= ( −3, −1 ) .Dann ist x =(1, 1, 0, 0, 0) eine entartete Ecke mit Basisvariablen 1, 2, 3bzw.1, 2, 4bzw.1, 1, 5. Die Ecke bestimmt also die Basisvariablen nicht in eindeutiger Weise. 2Kommen wir nun zur Beschreibung des Simplexverfahrens; entartete Ecken erforderndabei eine Sonderbehandlung. In seiner Durchführung unterscheidet man zwei Schritte:Phase I Bestimmung einer Startecke von Z.Phase II Übergang von einer nichtoptimalen Ecke zu einer benachbarten“ Ecke, in”der der Wert der Zielfunktion zumindest nicht anwächst (Eckenaustausch) <strong>und</strong>Entscheidung, ob ein weiterer Eckenaustausch die Zielfunktion verkleinert odernicht (Optimalitätstest).Da der Eckenaustausch mit benachbarten“ Ecken erfolgt, kann man diesen Schritt als”Schritt von einer Ecke entlang einer Kante“ zu einer anderen Ecke verstehen. Man”berücksichtigt also sehr wesentlich, daß der zulässige Bereich die Form“ eines Simplex”hat; daher die Bezeichnungsweise.Das Simplexverfahren wurde 1947/48 von G.B. Danzig eingeführt. Es war lange Zeit konkurrenzloswas Effektivität <strong>und</strong> Praktikabilität betrifft. Erst 1980 <strong>und</strong> 1985 wurden andersartige Verfahren(Ellipsoid-Verfahren, Innere-Punkte-Verfahren) vorgeschlagen, die im Vergleich zum Simplexverfahrenetwas mehr beweisbare Effektivität besitzen. In der Praxis ist das Simplexverfahren aberwohl immer noch konkurrenzlos.Kommen wir nun zur schrittweisen Darstellung des Verfahrens. Dazu stellen wir zunächstein Ergebnis zum Optimalitätstest bereit. SeiZ ∗ := {y ∈ IR m,1 | A t y ≤ c} .Im nächsten Abschnitt wird klar werden, daß Z ∗ als zulässige Menge eines zu (LOP)“dualen“ Problems (LOP) ∗ auftritt.Lemma 9.48Sei x ∈ Z, y ∈ Z ∗ <strong>und</strong> es gelte = .Dann ist x eine Lösung von(LOP).Beweis:Sei u ∈ Z. Offenbar gelten wegen x ≥ θ, u ≥ θ die folgenden Ungleichungen:≥ = = = .


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 250Also ist=inf{< c,u>|u ∈ Z}.Wir führen mit Indizes µ 1 ,...,µ m ∈{1,...,n} folgende Bezeichnungen ein:A(µ 1 |···|µ m ):=(a µ 1|···|a µm ) ∈ IR m,m ,C(µ 1 |···|µ m ) t := (c µ1 ,...,c µm ) ∈ IR 1,m .Ausgangspunkt für das Simplexverfahren ist nun eine Ecke x ∈ Z mit Basisvariablenµ 1 ,...,µ m . Setze β := {µ 1 ,...,µ m }.Schritt 1 Sei ˜x ∈ IR m,1 definiert durch ˜x i := x µi , 1 ≤ i ≤ m.Da x nach Voraussetzung Ecke ist, giltA(µ 1 |···|µ m )˜x = b ,˜x ≥ θ. (9.4)Schritt 2 Berechne die eindeutige Lösung y vonA(µ 1 |···|µ m ) t y = c(µ 1 |···|µ m ) (9.5)<strong>und</strong> setze∆:=A t y − c.(∆ heißt Schlupf.)Beachte, daß rg(A(µ 1 |···|µ m ) t = m gilt, da a µ 1,...,a µm linear unabhängig sind. Wirsehen nun, daß mit Lemma 9.48 auf die Optimalität von x geschlossen werden kann, falls∆ ≥ θ ist. Wir halten dies fest inSchritt 3 Ist ∆ ≥ θ, so ist x eine Lösung von (LOP).STOPIst der Optimalitätstest in Schritt 3 negativ, so versuchen wir eine neue Ecke zu konstruieren.Deren Basisvariablen sollen sich nur in einem Element unterscheiden (Übergang zueiner ”benachbarten“ Ecke/Einzelaustausch).Schritt 4 Bestimme ein r ∈{1,...,n} mit ∆ r < 0.Wegen (9.5) gilt r/∈{µ 1 ,...,µ m } = β.


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 251Schritt 5 Berechne die eindeutige Lösung d vonA(µ 1 |···|µ m )d = a r (9.6)Der Vektor d enthält die Koordinaten der Darstellung von a r durch die Basis a µ 1,...,a µm .Wir diskutieren die Bedeutung von d für das weitere Vorgehen. Definiere dazu für ɛ ∈ IRden Vektor x(ɛ) ∈ IR n,1 durch⎧⎪⎨ ˜x i − ɛd i , falls j = µ ix(ɛ) j := ɛ ,falls j = r .⎪⎩0 , sonstDamit gilt also für ɛ ∈ IR :<strong>und</strong>m∑m∑Ax(ɛ) = (˜x i − ɛd i )a µ i+ ɛa r = ˜x i a µ i= bi=1i=1 =m∑(˜x i − ɛd i )c µi + ɛc ri=1= −ɛ(< c(µ 1 |···|µ m ),d>−c r )= −ɛ(< y,A(µ 1 |···|µ m )d>−c r )= − ɛ∆ rLemma 9.49Ist d gemäß (9.6) berechnet <strong>und</strong> gilt d ≤ θ, dann ist das Problem (LOP ) unlösbar.Beweis:Es gilt offenbar x(ɛ) ∈ Z für alle ɛ ≥ 0. Dies zeigtinf = −∞.ɛ≥0Schritt 6 Ist d ≤ θ, so ist das Problem (LOP )nichtlösbar.STOPSchritt 6 nennen wir den Lösbarkeitstest. Fällt er negativ aus, d.h. tritt d ≤ θ nichtein, fahren wir so fort:ɛ ′ := min{ ˜x i d −1i |d i > 0, 1 ≤ i ≤ m}.Damit giltx(ɛ ′ ) ∈ Z, x(ɛ ′ ) l =0für ein l ∈{µ 1 ,...,µ m }.(Beachte: ɛ ′ ist das größtmögliche ɛ ≥ 0, für das x(ɛ) zulässig bleibt.)


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 252Schritt 7 Wähle s ∈{1,...,m} mitɛ ′ = x µs d −1s ,d s > 0,<strong>und</strong> setzeβ ′ := β\{µ s }∪{r} ,x ′ := x(ɛ ′ ).Lemma 9.50Wird β ′ <strong>und</strong> x ′ gemäß Schritt 7 bestimmt, so ist x ′ Ecke mit Basisvariablen β ′ .Beweis:O.E. s =1, d.h. β ′ = {r, µ 2 ,...,µ m }. Offensichtlich gilt I(x ′ ) ⊂ β ′ . Wir überprüfen dielineare Unabhängigkeit von a r ,a µ 2,...,a µm . Sei dazum∑αa r + α i a µ i= θ.i=2Ist α =0, so folgt aus der Tatsache, daß a m 1,...,a µm linear unabhängig sind, α 2 = ···=α m =0. Ist α ≠0, so können wir o.E. α = −1 annehmen. Dann gilt<strong>und</strong> ein Vergleich mit (9.6) zeigtm∑α i a µ i= a ri=2d 1 =0,d i = α i , 2 ≤ i ≤ m.Nach Wahl von r gilt aber d 1 > 0. Widerspruch !Nach Lemma 9.50 können wir nun, vorausgesetzt wir sind nicht in Schritt 3 oder Schritt 6ausgestiegen, mit x := x ′ ,β := β ′ bei Schritt 1 fortsetzen. Einige mit Schritt 4 <strong>und</strong> Schritt7 zusammenhängende Fragen klären wir später.Wir wollen nun die Schritte 1 bis 7 in einem Rechenschema zusammenführen, dem sogenanntenSimplextableau.In Schritt 1 <strong>und</strong> Schritt 5 werden Darstellungen von b <strong>und</strong> a r durch die Basis a µ 1,...,a µmerforderlich. Wir formulieren allgemein:m∑m∑a j = α k,j a µ k, 1 ≤ j ≤ n, b = α k,0 a µ k.k=1Offenbar giltα k,µl = δ kl , 1 ≤ k, l ≤ m.Die Koeffizienten α k,l sind zu interpretieren als Lösungskomponenten einer Gleichungk=1A(µ 1 |···|µ m )ˆx = ˆb (ˆb = a j oder ˆb = b).


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 253Diese kann man auch ablesen, nachdem die geränderte Matrix (A(µ 1 |···|µ m )|ˆb) durchelementare Umformungen auf eine Form gebracht wurde, in der in den Spalten µ 1 ,...,µ meine Einheitsmatrix steht.Wir fassen zusammen (1. Form des Tableaus):1 ··· nµ 1 α 1,1 ··· α 1,n α 1,0. . . .µ m α m,1 ··· α m,n α m,0Beispiel 9.51Minimiere unter den Nebenbedingungen Ax = b, x ≥ θwobeic =(1, 3, 0, 0) ,A=(2 0 2 01 1 0 1) ( 4,b=3)ist.Eine Ecke liegt für die Basisvariablen µ 1 =1,µ 2 = 2 vor. Wir erhalten so aus der gerändertenMatrix (2 0 2 0 ‖)41 1 0 1 ‖ 3durch Umformung schließlich als 1. Form des Tableaus1 2 3 41 1 0 1 0 22 0 1 −1 1 1Daraus lesen wir nun in der letzten Spalte auch die Koordinaten der Ecke ab:x =(2, 1, 0, 0) mit I(x) ={1, 2}Es liegt eine nichtentartete Ecke vor 2Der Wert der Zielfunktion in der Ecke x stellt sich folgendermaßen dar:∆ 0 :=< c,x>=m∑α k,0 c µk =k=1m∑α k,0 c µk − 0. (9.7)k=1


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 254In Schritt 2 werden die Größen ∆ j benötigt.∆ j = (A t y) j − c j (9.8)= −c j (9.9)=m∑< α k,j a µ k,x>−c j (9.10)==k=1m∑k=1m∑k=1α k,j −c j (9.11)α k,j c µk − c j (9.12)(9.7) <strong>und</strong> (9.8) lassen sich folgendermaßen lesen:Man erhält (∆|∆ 0 )aus(−c|0) durch elementare Zeilenumformungen unterZuhilfenahme der Zeilen des Tableaus mit dem Ziel∆ µ1 = ···=∆ µm =0.Wir fügen der bisherigen Form des Tableaus die Zeile (−c|0) an <strong>und</strong> führen die elementarenZeilenumformungen durch.Beispiel 9.52Aus dem Tableauerhalten wir1 2 3 41 1 0 1 0 22 0 1 -1 1 1-1 -3 0 0 01 2 3 41 1 0 1 0 22 0 1 -1 1 10 0 - 2 3 5Der Wert der Zielfunktion in der aktuellen Ecke ist also ∆ 0 =5, der Schlupf ∆ 3 ist −2,der Schlupf ∆ 4 =3. 2Das nun so entwickelte Tableau1 ··· nµ 1 α 1,1 ··· α 1,n α 1,0. . . .µ m α m,1 ··· α m,n α m,0∆ 1 ··· ∆ n ∆ 0


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 255enthält alle Größen, die in Schritt 1 bis 7 benötigt werden; Schritt 2 ist als Zwischenschrittfür Schritt 3 nicht nötig, da der Schlupf durch elementare Umformungen berechnet werdenkann (siehe oben).Beispiel 9.53Als Starttableau (β = {1, 2}) habenwirnun1 2 3 41 1 0 1 0 22 0 1 −1 1 10 0 −2 3 5Schritt 1: ˜x =(2, 1) ,x=(2, 1, 0, 0).Schritt 3: Keine Optimalität, da ∆ 4 > 0 .Schritt 4: r =4.Schritt 5: d =(0, 1) .Schritt 6: Lösbarkeit kann nicht ausgeschlossen werden.Schritt 7: d 2 > 0; also s =2, da ˜x 2d 2= 1 1 .Gehe mit β ′ := {1, 4} zu Schritt 1. 2Um Schritt 7 einfacher auswerten zu können, ist es sinnvoll dem Tableau eine weitereSpalte anzuhängen. Sie wird in Schritt 7 ausgefüllt <strong>und</strong> enthält die Größenu i = α i,0, 1 ≤ i ≤ m,α i,rwobei wir u i = ∞ für α i,r ≤ 0 vereinbaren. Damit können wir dann ein s leicht ermitteln.Wir haben nun noch zu überlegen, wie wir aus dem Simplextableau zur Basis β dasSimplextableau zur Basis β ′ erhalten. Dies entspricht einem Basiswechsel, der allerdingsnur in einem Vektor vollzogen wird.Wir wissen aus Schritt 7:α s,r > 0 ,a µ 1,...,a µs ,...,a µn ist Basis von IR m .Es gilta r = ∑ k≠sα k,r a µ k+ α s,r a µs ,a µs = − 1 ( ∑ α k,r a µ k+ a r ).α s,r k≠sDamit erhalten wir für 1 ≤ j ≤ na j = ∑ k≠sα k,j a µ k+ α s,j a µs ,d.h.a j = ∑ (α k,j − α s,jα k,r )a µ k+ α s,ja r .αk≠ss,r α s,r


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 256Fernerb = ∑ (α k,0 − α s,0α k,0 )a µ k+ α s,0a r .αk≠ss,r α s,rDies bedeutet: Zu β ′ gehört das Tableau mit den Größen (0 ≤ j ≤ n, 1 ≤ k ≤ m)⎧⎨ αα ′ k,j − α s,jαk,j :=s,rα k,r ,k ≠ s⎩ α s,jα s,r,k = sMan erhält also das neue Tableau durch elementare Zeilenumformungen mit dem Ziel, daßin der r-ten Spalte der s-te Einheitsvektor entsteht. Die Berechnung von (∆|∆ 0 ) erfolgtdann wie oben beschrieben: Elementare Zeilenumformungen mit dem Ziel ∆ r =0.Beispiel 9.54Wir starten mit β = {1, 2} <strong>und</strong> erreichen in Schritt 7 das TableauEs wird die Variable µ 2Tableau1 2 3 41 1 0 1 0 22 0 1 -1 1 10 0 - 2 3 5= 2 gegen r = 4 ausgetauscht. Also ergibt sich als nächstes1 2 3 41 1 0 1 0 2 24 0 1 -1 1 1 ∞0 -3 1 0 2Es liegt noch keine Optimalität vor <strong>und</strong> es wird die Variable µ 1 = 1 gegen r =3ausgetauscht.Als Tableau ergibt sich1 2 3 43 1 0 1 0 24 1 1 0 1 3-1 -3 0 0 0Da ∆ 1 ≤ 0, ∆ 2 ≤ 0 ist, liegt Optimalität vor. Die optimale Ecke istx =(0, 0, 2, 3)<strong>und</strong> der zugehörige Wert der Zielfunktion ist 0. 2Der obigen Darstellung entnimmt man, daß die Zielfunktion von Tableau zu Tableau striktabnimmt, wenn die Ecken nicht entartet sind. Dies bedeutet, daß wir mit endlich vielenAustauschritten zum Ziel kommen. Besitzt das Problem (LOP) jedoch auch entarteteEcken, so kann nicht ausgeschlossen werden, daß man zu einer entarteten Ecke gelangt.Da dann die Zielfunktion eventuell beim Austausch nicht abnimmt, kann nicht gesichertwerden, daß man zu einer schon betrachteten Ecke nicht wieder zurückkehrt: Das Simplexverfahrenkann zyklisch werden. Beeinflußt wird dies durch die Wahl von r <strong>und</strong> s,die ja im allgemeinen nicht eindeutig bestimmt ist. Naheliegend sind folgende Regeln:


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 257In Schritt 4 :Wähle kleinstes r mit ∆ r =min{∆ r ′|∆ r ′ > 0}In Schritt 7 :Wähle kleinstes s mit ˜x sd s=min{ ˜x id i|d i > 0, 1 ≤ i ≤ m}.Zyklen werden durch eine solche Festlegung im allgemeinen immer noch nicht vermieden.Man kann diesem Problem aber beikommen durch eine Ordnung der Ecken (sieheSpezialliteratur).Das Simplexverfahren benötigt beim Start eine Ecke (Phase I). Enthält die Matrix eineEinheitsmatrix, so ist eine Startecke sofort ablesbar, wenn b ≥ θ gilt. Bei großen Problemenist dies meist, selbst wenn dies der Fall sein sollte, nicht so einfach zu sehen. Hiergibt es einen ”Trick“ : Betrachte das HilfsproblemMinimiere unter den Nebenbedingungen Ax + w = b, x ≥ θ, w ≥ θ,wobei e =(1,...,1) ist. Eine Lösung dieses Hilfsproblems kann man mit dem Simplexverfahrenberechnen, denn hier ist nun eine Startecke bekannt, nämlich (θ, b)(o.E. kann b ≥ θangenommen werden.) Ist nun (x ∗ ,w ∗ )eineLösung dieses Hilfsproblem <strong>und</strong> ist w ∗ ≠ θ,dann enthält das Ausgangsproblem (LOP) keinen zulässigen Vektor, also Z = ∅; istdagegenw ∗ = θ, dann kann man aus x ∗ leicht eine Startecke von (LOP) ableiten.Es existieren Zeit <strong>und</strong> Speicher sparende Versionen des Simplexverfahrens. Allerdings istauch ein Beispiel bekannt, bei dem alle Ecken durchlaufen werden. In diesem Fall ist dieAnzahl der Rechenschritte exponentiell in der Anzahl der Variablen. Aus der Praxis hatman die Beobachtung, daß das Verfahren im allgemeinen mit einer Zahl von Rechenschrittenauskommt, die polynomial in der Anzahl der Variablen/Gleichungen ist. DieseBeobachtung wird gestützt durch die Tatsache, daß unter Annahme an die Verteilung derDaten, im Mittel die Anzahl der Rechenschritte polynomial beschränkt ist. Diese Effizienzkonnte für zwei Verfahren, die lineare Polygramme lösen, erst neulich bewiesen werden:1980 für die Ellipsoid-Methode von Kachian <strong>und</strong> 1984 für den Karmarkov-Algorithmus.Sie arbeiten auch mit dem Inneren der zulässigen Menge.9.7 Dualität *Ein wesentlicher Zug der linearen Programmierung ist, daß einem linearen Programmstets ein duales lineares Programm zugeordnet werden kann, das eine sehr tiefe Einsichtüber das Ausgangsprogramm liefert. In unserem Fall ist das duale Programm (LOP)* zu(LOP) gegeben durchMaximiere unter den Nebenbedingungen A t y ≤ c.Die zulässige MengeZ ∗ := {y ∈ IR m |A t y ≤ c}


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 258hatten wir bereits benutzt (siehe Lemma 9.48).Setzeα := inf{< c,x>|z ∈ Z},α∗ := sup{< b,y>|y ∈ Z ∗ },wobei wir α = ∞ <strong>und</strong> α ∗ = −∞ vereinbaren, falls Z = ∅ bzw. Z ∗ = ∅ gilt.Lemma 9.55Seien x ∈ Z, y ∈ Z ∗ . Dann gilt ≥ .Beweis:Mit Hilfe von A t y ≤ c, x ≥ θ folgt≥ = = .Das obige Ergebnis bezeichnet man als schwachen Dualitätssatz. Ein stärkeres Ergebnisist der folgende sogenannte starke DualitätssatzSatz 9.56Es gilt:(a) Ist Z ≠ ∅,Z ∗ ≠ ∅, so sind (LOP) <strong>und</strong> (LOP)* lösbar <strong>und</strong> es gilt:−∞ ≥ α ≥ α ∗ ≥ > −∞.Wir zeigen die Existenz einer Lösung von (LOP) <strong>und</strong> α = α ∗ . Die Existenz einer Lösungvon (LOP)* folgt dann aus Symmetriegründen (siehe unten).Annahme: Es gibt kein x ∈ IR n mit = α ∗ ,Ax= b, x ≥ θ. Das Lemma von Farkas(siehe 9.35) liefert u ∈ IR m ,x∈ IR mitWähle v ∈ Z. Damit folgtA t u + γc ≥ θ, < b, u > +γα ∗ < 0.0 ≤ = +γ


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 259d.h. (mit α ≥ α ∗ )γ(< c,v>−α ∗ ) > 0 ,γ>0.Setze y := − 1 γ u. Dann gilt: A t y = − 1 γ At u ≤ c, < b, y > > α ∗ .Dies ist ein Widerspruch zur Definition von α ∗ . Also gibt es x ∈ Z mitd.h. x ist Lösung von (LOP).Zu (c)Sei y ∈ Z ∗ . Da Z = ∅ gilt, hat das Systemα ∗ ≤ α ≤ = α ∗ ,Ax = b, x ≥ θkeine Lösung. Mit dem Lemma von Farkas (siehe 9.35) folgt die Existenz von u ∈ IR mmitA t u ≥ θ, < b, u > < 0.Also folgt für y(ɛ) :=y − ɛu , ɛ ≥ 0:supɛ≥0Zu (b)Folgt aus Symmetriegründen (siehe unten).A t y(ɛ) =A t y − ɛA t u ≤ A t y ≤ c,ɛ≥ 0, = +sup−ɛ = ∞.ɛ≥0Wir haben oben zweimal mit einer Symmetrie argumentiert. Dies soll heißen, daß dasduale Problem von (LOP)* wieder (LOP) ist. Um dies zu verifizieren, ist zunächst aber(LOP)* selbst als ein Problem in Standardform zu verstehen. Dies geht so:(LOP)* ist äquivalent mitMinimiere < −b, u − v>unter den Nebenbedingungen A t u − A t v + w = c, u ≥ θ, v ≥ θ, w ≥ θ.Das dazu duale Problem istMaximiere unter den Nebenbedingungen Ax ′ ≤−b, −Ax ′ ≤ b, x ′ ≤ θ.Daraus liest man durch Ersetzen von x ′ durch −x ab, daß das Problem (LOP) entstandenist.Das duale Problem (LOP)*, genauer die dualen Variablen, haben im allgemeinen einephysikalische“ Interpretation, wenn die primalen Variablen, d.h. die Variablen von”(LOP), eine physikalische“ Interpretation haben.”


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996 260Bemerkung 9.57Hat man mit dem Simplexverfahren das Problem (LOP) gelöst <strong>und</strong> liegt das optimaleTableau mit Basisvariablen µ 1 ,...,µ m vor, dann kann man auch die Lösung y des dualenProblems (LOP)* ablesen, denn es gilt ja∆ µi =−c µi = y i − c µi , 1 ≤ i ≤ m.d.h.y i =∆ µi + c µi , 1 ≤ i ≤ m.2Beispiel 9.58Das optimale Tableau unseres Illustrationsbeispiels war1 2 3 43 1 0 1 0 24 1 1 0 1 3-1 -3 0 0 0Also löst y := (0, 0) das duale ProblemMaximiere 4y 1 +3y 2unter den Nebenbedingungen 2y 1 + y 2 ≤ 1,y 2 ≤ 3, 2y 1 ≤ 0,y 2 ≤ 0.2


Literaturverzeichnis[1] AITKEN, A.,C.: Determinanten <strong>und</strong> Matrizen, Bibliographisches Institut, Mannheim,1969[2] ANTON, H.: <strong>Lineare</strong> <strong>Algebra</strong>, Spektrum–Verlag, Heidelberg, 1994[3] ARTIN, E.: Geometric <strong>Algebra</strong>, Wiley-Interscience, Chichester, 1966[4] BEHR, H.: <strong>Lineare</strong> <strong>Algebra</strong> <strong>und</strong> analytische <strong>Geometrie</strong>, Vorlesungsskript, UniversitätFrankfurt/Main, 1977/78[5] BEIGLBÖCK, W.: <strong>Lineare</strong> <strong>Algebra</strong>, Springer, New York, 1983[6] BEUTELBACHER, A.: <strong>Lineare</strong> <strong>Algebra</strong>, Vieweg, Braunschweig, 1993[7] BOURBAKI, N.: Algebre linéaire, Hermann, Paris, 1962[8] BRIESKORN, E.: <strong>Lineare</strong> <strong>Algebra</strong> <strong>und</strong> <strong>Analytische</strong> <strong>Geometrie</strong> I <strong>und</strong> II, Vieweg,Braunschweig, 1983 (I), 1985 (II)[9] BUNSE, W., BUNSE-GERSTNER, A.: Numerische lineare <strong>Algebra</strong>, Teubner, Stuttgart,1985[10] BURDE, G.: Vorlesung über <strong>Analytische</strong> <strong>Geometrie</strong> <strong>und</strong> <strong>Lineare</strong> <strong>Algebra</strong>, Vorlesungsskript,Universität Frankfurt/Main, 1973/74[11] CIGLER, J.: Einführung in die lineare <strong>Algebra</strong> <strong>und</strong> <strong>Geometrie</strong> (2 Teile), Manz-Verlag,Wien, 1977[12] COLLATZ, L., WETTERLING, W.: Optimierungsaufgaben, Springer, New York,1971[13] EBBINGHAUS, H.D., u.a.: Zahlen, Springer, New York, 1988[14] DIEDONNE, J.: Geschichte der Mathematik 1700 – 1900, Vieweg, Braunschweig,19851[15] FISCHER, G.: <strong>Lineare</strong> <strong>Algebra</strong>, Vieweg, Braunschweig, 1991[16] FISCHER, G.: <strong>Analytische</strong> <strong>Geometrie</strong>, Vieweg, Braunschweig, 1991[17] FORSTER, O.: Analysis 1 <strong>und</strong> 2, Vieweg, Braunschweig, 1976 (Teil 1) <strong>und</strong> 1979 (Teil2)i


[18] GABRIEL, P.: Matrizen, <strong>Geometrie</strong>, <strong>Lineare</strong> <strong>Algebra</strong>, Birkhäuser, Basel, 1996[19] GAWRONSKI, W.: MGr<strong>und</strong>lagen der <strong>Lineare</strong>n <strong>Algebra</strong>, Aula–Verlag Wiesbaden,1996[20] GERICKE, H.: Mathematik in Antike <strong>und</strong> Orient, Fourier, Wiesbaden, 1992[21] GOLUB, G.H., VAN LOAN, C.F.: Matrix Computations, North Oxford Academic,Oxford, 1983[22] GREUB, W.H.: <strong>Lineare</strong> <strong>Algebra</strong>, Springer, New York, 1967[23] GREUB, W.H.: Multilinear <strong>Algebra</strong>, Springer, New York, 1978[24] HALMOS, P.R.: Finite-dimensional Vector Spaces, D. van Nortstrand, Princeton,1958[25] HOFFMANN, K., KUNZE, R.: Linear <strong>Algebra</strong>, Prentice Hall, New Jersey, 1961[26] JÄNICH, K.: <strong>Lineare</strong> <strong>Algebra</strong>, Springer, New York, 1991[27] KADISON, L., KROMAN, M.T.: Projektive <strong>Geometrie</strong> and modern <strong>Algebra</strong>,Birkhäuser, Basel, 1996[28] KARLOFF, H.: Linear programming, Birkhäuser, Basel, 1991[29] KLINGENBERG, W.: <strong>Lineare</strong> <strong>Algebra</strong> <strong>und</strong> <strong>Geometrie</strong>, de Gruyter, Berlin, 1990[30] KOCHENDÖRFER, R.: Determinanten <strong>und</strong> Matrizen, Springer, New York, 1957[31] KOECHER, M.: <strong>Lineare</strong> <strong>Algebra</strong> <strong>und</strong> analytische <strong>Geometrie</strong>, Springer, New York,1985[32] KOWALSKY, H.-J., Michler, G.O.: <strong>Lineare</strong> <strong>Algebra</strong>, de Gruyter, Berlin, 1995[33] LANG, S.: Linear <strong>Algebra</strong>, Addison-Wesley, New York, 1971[34] LENZ, H.: Vorlesungen über projektive <strong>Geometrie</strong>, Akademische Verlagsgesellschaft,Leipzig, 1965[35] LINGENBERG, R.: <strong>Lineare</strong> <strong>Algebra</strong>, Bibliographisches Institut, Mannheim, 1969[36] LIPSCHUTZ, S.: <strong>Lineare</strong> <strong>Algebra</strong> – Theorie <strong>und</strong> Anwendungen, Mc Graw Hill, NewYork, 1977[37] LORENZ, F.: <strong>Lineare</strong> <strong>Algebra</strong> I <strong>und</strong> II, B.-I. Wissenschaftsverlag, Mannheim, 1989[38] NEF, W.: Lehrbuch der linearen <strong>Algebra</strong>, Birkhäuser, Basel, 1966[39] NIEMEYER, H., WERMUTH, E.: <strong>Lineare</strong> <strong>Algebra</strong> – <strong>Analytische</strong> <strong>und</strong> numerischeBehandlung, Vieweg, Braunschweig, 1987[40] OELJEKLAUS, E., REMMERT, R.: <strong>Lineare</strong> <strong>Algebra</strong> I, Springer, New York, 1974ii


Baumeister: <strong>Lineare</strong> <strong>Algebra</strong> II / Stand: August 1996iii[41] PICKERT, G.: <strong>Analytische</strong> <strong>Geometrie</strong>, Akademische Verlagsgesellschaft, Leipzig,1953[42] PRASOLOV, V,V.: Problems and Theorems in Linear <strong>Algebra</strong>, Translations of MathematicalMonographs, Vol. 134, AMS, Providence, 1991[43] SCHAAL, H.: <strong>Lineare</strong> <strong>Algebra</strong> <strong>und</strong> analytische <strong>Geometrie</strong> (2 Teile), Vieweg, Braunschweig,1976[44] SCHIKIN, J.: <strong>Lineare</strong> Räume <strong>und</strong> Abbildungen, Akademischer Verlag, Berlin, 1994[45] SCHRIJVER, A.: Theory of linear and integer programming, Wiley-Interscience,Chichester, 1986[46] STAMMBACH, U.: <strong>Lineare</strong> <strong>Algebra</strong>, Teubner, Stuttgart, 1988[47] STROTH, G.: <strong>Lineare</strong> <strong>Algebra</strong>, Heldermann, Lemgo, 1995[48] STRANG, G.: Linear <strong>Algebra</strong> and its Applications, Academic Press, 1976[49] STRUIK, D.J.: Abriß der Geschichte der Mathematik, VEB Deutscher Verlag derWissenschaften, Berlin, 1980[50] VAN DER WAERDEN, B.L.: <strong>Algebra</strong>, Springer, New York, 1959[51] WALTER, R.: Einführung in die lineare <strong>Algebra</strong>, Vieweg, Braunschweig, 1982[52] WALTER, R.: <strong>Lineare</strong> <strong>Algebra</strong> <strong>und</strong> analytische <strong>Geometrie</strong>, Vieweg, Braunschweig,1993[53] WALTER, W.: Analysis I <strong>und</strong> II, Springer, New York, 1990 (Teil I), 1993 (Teil II)[54] ZURMÜHL, R., FALK, S.: Matrizen <strong>und</strong> ihre Anwendungen (2 Teile), Springer, NewYork, 1984 (Teil 1), 1986 (Teil 2)

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!