13.07.2015 Views

Appunti

Appunti

Appunti

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

Note per le esercitazioni di Geometria 1a.a. 2011/12A. LottaVersione del 9/1/20121. Metodi per il calcolo del rango di una matriceSia A ∈ M m,n (K). Denoteremo con A (i) la riga i-ma di A, i ∈ {1, . . . , m} e con A (j) laj-ma colonna, j ∈ {1, . . . , n}. Ciascuna A (i) è identificabile con un vettore di K n , mentreA (j) è identificabile con un vettore di K m . Possiamo quindi rappresentare A in modocompatto come segue: ⎛ ⎞A (1)⎜ ⎟A = ⎝ . ⎠ = (A (1) · · · A (n) ).A (m)Ricordiamo che il rango di A coincide con la dimensione del sottospazio di K n generatodalle righe, ovvero con la dimensione del sottospazio di K m generato dalle colonne. Insimboli:rg(A) = dim K L(A (1) , . . . , A (m) ) = dim K L(A (1) , . . . , A (m) ).Metodo di riduzione per righe di Gauss-JordanSia V uno spazio vettoriale sul campo K e siav 1 , . . . , v muna sequenza di vettori di V . Definiamo operazioni elementari effettuabili sulla sequenza(*) le seguenti:(I) Scambio di posto di due vettori della sequenza;(II) Sostituzione di un vettore v j conαv j + βv i con α ≠ 0, i ≠ j.Osserviamo che ciascuna delle operazioni (I) e (II) non altera lo spazio L(v 1 , . . . , v n )generato dai vettori in considerazione, e quindi in particolare la dimensione di tale spazio.Inoltre se v 1 , . . . , v n sono linearmente indipendenti, tali sono i vettori v ′ 1 , . . . , v′ n ottenutieffettuando una operazione di tipo (I) oppure (II).Esempio 1.1. Mostriamo che, dato uno spazio vettoriale V di dimensione n ≥ 2 ed unsottospazio W ⊂ V diverso da V , esiste sempre una base {v 1 , . . . , v n } tale che v i ∉ W perogni i = 1, . . . , n.Possiamo supporre k := dim(W ) > 0; allora per il teorema di completamento esiste unabase {v 1 , . . . , v n } tale che {v 1 , . . . , v k } è base di W . In particolare, si ha v i ∉ W per ognii ≥ k + 1. Ora, anche i vettoriv 1 + v n , v 2 + v n , . . . , v k + v n , v k+1 , · · · , v n1(∗)


2sono linearmente indipendenti, in quanto tale sequenza è ottenuta da v 1 , . . . , v n applicandok operazioni elementari di tipo (II). Tali vettori costituiscono pertanto una base di V ; essasoddisfa la condizione richiesta: infatti, essendo W un sottospazio, è sempre vero che sew ∈ W e v ∉ W , allora w + v ∉ W .Esempio 1.2. Dato uno spazio vettoriale V di dimensione n ≥ 1, e dato un vettore nonnullo u ∈ V , esiste una base {v 1 , . . . , v n } di V tale cheu = v 1 + · · · + v n .Infatti, consideriamo una base del tipo {u, u 2 , . . . , u n } (esiste per il teorema di completamento).Allora ancheu − (u 2 + · · · + u n ), u 2 , . . . , u nè una base, ottenuta dalla precedente applicando n − 1 operazioni elementari di tipo (II).Essa soddisfa la condizione richiesta.Esempio 1.3. Consideriamo lo spazio M 2 (R) delle matrici quadrate di ordine 2. Mostriamoche esso non ammette alcuna base del tipo{A, t A, B, t B}con A, B ∈ M 2 (R). Infatti, se una tale base esistesse, anche i vettoriA − t A, t A, B − t B, t Bsarebbero linearmente indipendenti, ed in particolare tali sarebbero le matrici antisimmetricheA − t A e B − t B, il che è impossibile in quanto il sottospazio di M 2 (R) costituitodalle matrici antisimmetriche ha dimensione uno.Definizione: Siano A, S ∈ M m,n (K); diremo che S è ottenuta da A mediante operazionielementari sulle righe se S è la matrice che si ottiene da A effettuando sulla sequenzaA (1) , . . . , A (m) una o più operazioni elementari di tipo (I) oppure una sola operazioneelementare di tipo (II) applicata ad una o più righe distinte di A. In tal caso scriveremoIn base a quanto osservato sopraA → S.A → S ⇒ rg(A) = rg(S).Notiamo inoltre che se A → S, allora lo spazio vettoriale generato dalle righe di Acoincide con quello generato dalle righe di S; lo stesso non può dirsi per quel che concernele colonne.Definizione: Un elemento a i jdi A si dice un pivot di A sea i j ≠ 0 e a s j = 0 per ogni s > i.Tale condizione significa che tutti gli elementi “sottostanti” a i j sono nulli.A si dice ridotta per righe se ogni riga non nulla contiene un pivot.


Le matrici ridotte per righe sono interessanti perchè per esse il calcolo del rango èimmediato. Allo scopo di giustificare ciò, proviamo un risultato di carattere generale.Fissato n ≥ 1, denoteremo le componenti di un vettore v ∈ K n condi modo chex 1 (v), . . . , x n (v)v = (x 1 (v), . . . , x n (v)).Per come sono definite le operazioni di somma e prodotto per uno scalare nello spazio K nabbiamo, per ogni fissato j ∈ {1, . . . , n}:x j (v + w) = x j (v) + x j (w),x j (λv) = λx j (v)per ogni j e per ogni v, w ∈ K n e λ ∈ K. In altri termini, le applicazioni x j : K n → K sonotutte K-lineari.3Proposizione 1.4. Sia v 1 , . . . , v r una sequenza di vettori di K n . Si supponga che per ognii ∈ {1, . . . , r} esista j ∈ {1, . . . , n} (dipendente da i), tale chex j (v i ) ≠ 0, x j (v s ) = 0 per ogni s > i.Allora i vettori v 1 , . . . , v r sono linearmente indipendenti.Dimostrazione:Consideriamo una combinazione lineare nulla(1) λ 1 v 1 + · · · + λ r v r = 0.Per l’ipotesi applicata al primo vettore v 1 della sequenza, esiste j ∈ {1, . . . , n} tale chex j (v 1 ) ≠ 0, x j (v s ) = 0 per ogni s > 1.Calcolando allora la coordinata j-ma di ambo i membri di (1) si ottieneλ 1 x j (v 1 ) = 0da cui λ 1 = 0. Sostituendo nella (1) si perviene quindi aλ 2 v 2 + · · · + λ r v r = 0.Applicando ancora l’ipotesi al vettore v 2 e ragionando allo stesso modo si ricava che λ 2 = 0e l’argomento si itera giungendo alla conclusione che λ 1 = λ 2 = · · · = λ r = 0. ✷Esempio 1.5. I vettori(3, 5, − 1 2 , 2), (3, 5, 0, −7), (0, 5, 0, 2), (0, 1 , 0, 0)3sono indipendenti e quindi costituiscono una base di R 4 .Teorema 1.6. Il rango di una matrice ridotta per righe coincide con il numero r dellesue righe non nulle. Siano inoltre A (i 1) , . . . , A (ir) le righe non nulle di una matrice ridottaA, i 1 < · · · < i r . Scelto su ciascuna riga A (i k) un pivot occupante la colonna j k , risultache le colonne corrispondenti A (j1 ), . . . , A (jr) sono indipendenti e costituiscono una basedi L(A (1) , . . . , A (n) ).


4Dimostrazione:Per definizione di pivot, per ogni k = 1, . . . , r abbiamoa i kjk ≠ 0,a isj k= 0 per s > i. (∗)Considerata allora la sequenzaA (i 1) , . . . , A (ir)di vettori di K n , la (*) garantisce che ad essa può applicarsi la Proposizione precedente,in quanto per ogni i ∈ {1, . . . , m} e j ∈ {1, . . . , n} si haa i j = x j (A (i) ).Lo stesso può dirsi per la sequenza dei vettori di K m :A (jr), . . . , A (j1 )avendosi anchea i j = x i (A (j) ).✷Teorema 1.7. Ogni matrice A si può trasformare, mediante una sequenza finita di operazionielementari, in una matrice ridotta per righe. Più precisamente, esiste una sequenzafinita di matrici S 1 , . . . , S k in M m,n (K) tale chee S k è ridotta per righe.A → S 1 → S 2 → · · · → S kDimostrazione: Descriviamo un algoritmo per ottenere la sequenza S 1 , . . . , S k . SiaA (i1) la prima riga non nulla di A (se non esiste, A = 0 e quindi A è già ridotta); siscelga un elemento a i 1j1non nullo di A (i1) . Effettuando su ciascuna riga successiva A (s)l’operazione elementareA (s) → a i 1j1A (s) − a s j 1A (i 1)si ottiene una nuova matrice S 1 = (b i j ) tale che bs j 1= 0 per ogni s > i 1 . Dunque A → S 1 .Ora, se tutte le righe di S 1 successive alla i 1 -ma sono nulle, S 1 è ridotta per righe con pivotb i 1j1= a i 1j1sulla riga i 1 -ma e colonna j 1 -ma. In caso contario, si opera su S 1 prendendo inconsiderazione la prima riga non nulla di indice maggiore di i 1 , scegliendo un elementonon nullo di tale riga e ripetendo quanto fatto in precedenza. Si procede finchè vi sonorighe non nulle con cui operare.✷Esempio 1.8. Applicando l’algoritmo descritto nella dimostrazione precedente alla matriceA ∈ M 4,5 (R) indicata di seguito si ottiene:


5⎛⎜⎝⎛⎜⎝○1 0 2 1 21 3 0 2 10 3 1 1 21 9 2 4 5⎞⎟⎠ →A○1 0 2 1 20 3 −2 ○1 −10 0 ○3 0 30 0 6 0 6S 2⎞⎛⎜⎝⎟⎠ →○1 0 2 1 20 3 −2 ○1 −10 3 1 1 20 9 0 3 3⎛⎜⎝S 1⎞⎟⎠ →○1 0 2 1 20 3 −2 ○1 −10 0 ○3 0 30 0 0 0 0Abbiamo cerchiato gli elementi che ad ogni passo vengono scelti per “divenire” pivots.Dunque rg(A) = rg(S 3 ) = 3.S 3⎞⎟⎠Notiamo che, utilizzando il risultato precedente, determinando la matrice ridotta S k siottiene non solo il rango di A, ma anche una base dello spazio R(A) generato dalle righe:una tale base è costituita dalle righe non nulle di S k .Il procedimento di riduzione altera invece lo spazio C(A) generato dalle colonne. Dimostreremoperò che lo stesso procedimento permette facilmente di determinare una basedi C(A), estraendo da {A (1) , . . . , A (n) } una base {A (j1 ), . . . , A (jr)} : gli indici colonnaj 1 , . . . , j r da scegliersi sono quelli delle colonne occupate dai pivots di S k . Allo scopo diprovare quest’affermazione, premettiamo qualche ulteriore osservazione sulle operazionielementari.Notiamo che l’operazione elementareequivale ad effettuare il prodottodove Z ∈ M m (K) è la matriceA (j) → αA (j) + βA (i) ,ZA⎛ ⎞e 1· · ·e j−1Z =αe j + βe i.⎜ e j+1⎟⎝ · · · ⎠e mα ≠ 0, j ≠ iTale matrice è quella che si ⎛ottiene ⎞ effettuando la corrispondente operazione elementaree 1⎜ ⎟sulla matrice identica I m = ⎝ . ⎠. In particolare, rg(Z) = rg(I m ) = m e pertanto Z èe minvertibile.Una giustificazione di ciò può darsi rapidamente ricordando le seguenti proprietà fondamentalidel prodotto righe per colonne tra matrici; se A ∈ M m,n e B ∈ M n,q sono due


6matrici moltiplicabili, alloraInoltreAB =⎛ ⎞A (1) B⎜⎝.A (m) Be i A = A (i) ,per ogni i = 1, . . . , m, e per ogni j = 1, . . . , n.⎟⎠ = (AB (1) · · · AB (q) ).Ae j = A (j)Anche per quel che concerne lo scambio di due righe vale un principio analogo. Da questeconsiderazioni segue subito, essendo il prodotto di matrici invertibili anch’esso invertibile,che se A → S, allora esiste una matrice invertibile Z ∈ GL(m, K) tale che S = ZA.Proposizione 1.9. Siano A ∈ M m,n (K), Z ∈ M m (K) e si pongaS = ZA.Se S (j1 ), . . . , S (jp) sono colonne di S indipendenti, tali sono le colonne corrispondentiA (j1 ), . . . , A (jp) di A.Dimostrazione:Supponiamo S (j1 ), . . . , S (jp) indipendenti e assumiamo chep∑λ k A (jk ) = 0.k=1Moltiplicando per Z ambo i membri si ottienep∑λ k ZA (jk ) = 0,che possiamo riscrivereovverok=1p∑λ k (ZA) (jk ) = 0,k=1p∑λ k S (jk ) = 0.k=1Pertanto λ k = 0 per ogni k per l’ipotesi.Corollario 1.10. Sia A ∈ M m,n (K) e sia assegnata una sequenza di matrici S 1 , . . . , S ktali cheA → S 1 → S 2 → · · · → S ke S := S k è ridotta per righe.Si scelga su ciascuna riga non nulla di S un pivot; dette j 1 , . . . , j r le colonne occupateda tali pivots, si ha che le colonne corrispondenti A (j1 ), . . . , A (jr) di A sono linearmenteindipendenti.✷


Dimostrazione: Sappiamo che da A → S 1 segue che S 1 = Z 1 A per un’opportunaZ 1 ∈ GL(m, K). Analogamente, S i = Z i S i−1 per i > 1. DunqueS = (Z k · · · Z 1 )A.L’asserto segue applicando la proposizione precedente, perchè le colonne S (j1 ), . . . , S (jr)sono indipendenti.✷Esempio 1.11. Facendo riferimento all’Esempio 1.8 otteniamo che una base dello spaziogenerato dalle colonne di A è costituita da A (1) , A (3) , A (4) . Un’altra base è {A (1) , A (2) , A (3) }.7Il metodo degli orlati di KroneckerÈ noto che il rango di una matrice A coincide anche con il massimo degli ordini deiminori non nulli di A. Discuteremo un risultato che permette di ridurre il più possibile ilnumero di minori da calcolare per determinare il rango utilizzando tale caratterizzazione.Sia A ∈ M m,n (K); dati due sottoinsiemiI = {i 1 , . . . , i r } ⊂ {1, . . . , m},J = {j 1 , . . . , j q } ⊂ {1, . . . , n},denoteremo con A I Jla corrispondente sottomatrice di A, avente r righe e q colonne. Nelcaso |J| = n (risp. |I| = m) , scriveremo semplicemente A I (risp. A J ). OvviamenteCosì, ad esempio, sealloraA I J = (A I ) J = (A J ) I .⎛⎞1 0 2 4 5A = ⎜0 0 0 1 0⎟⎝0 1 1 0 0⎠0 0 0 0 0⎛A {1,3,4} = A {4,1,3} = ⎝ 1 0 2 4 5⎞0 1 1 0 0⎠ .0 0 0 0 0⎛A {1,3,4}{2,5}= (A {1,3,4} ) {2,5} = ⎝ 2 5⎞1 0⎠ .0 0Ricordiamo che un minore di A di ordine k ≥ 1 è uno scalare del tipo |A I J | dove AI J èuna sottomatrice quadrata di A di ordine k.Sia ρ = |A I J| un minore non nullo di ordine k. Allora le righe di A corripondenti sonolinearmente indipendenti e le colonne di A corrispondenti sono linearmente indipendenti.Infatti, le sottomatrici A I e A J hanno entrambe rango k, essendo ρ anche un minore diesse.Definizione 1.12. Sia ρ = |A I J | un minore di ordine k ≥ 1 della matrice A ∈ M m,n(K).Si dice orlato di ρ ogni minore di ordine k + 1 del tipo |A I′J ′ | dove I ⊂ I ′ e J ⊂ J ′ .


8Teorema 1.13. (Principio degli orlati di Kronecker)Sia A ∈ M m,n (K) e sia ρ un minore non nullo di A di ordine r. Allora, se tutti gliorlati di ρ sono nulli, rg(A) = r.Dimostrazione: Posto I = {i 1 , . . . , i r } e J = {j 1 , . . . , j r }, supponiamo che tutti gliorlati di ρ = |A I J| siano nulli, e per assurdo ammettiamo che rg(A) > r. Allora, poichè lerighe A (i1) , . . . , A (ir) sono linearmente indipendenti, deve esistere una riga A (i) di A taleche A (i1) , . . . , A (ir) , A (i) sono ancora indipendenti (si applichi il Teorema di completamentoallo spazio vettoriale generato dalle righe di A). Posto I ′ = {i 1 , . . . , i r , i}, la sottomatriceA I′ ha pertanto rango r + 1. Poichè ρ è anche un minore non nullo di A I′ , abbiamo chele colonne A(j I′1 ) , . . . , AI′ (j di r) AI′ sono indipendenti. Ancora dal fatto che rg(A I′ ) = r + 1,segue che esiste una colonna A I′(j) di AI′ tale che A I′(j 1 ) , . . . , AI′ (j , r) AI′ (j)sono indipendenti.Posto J ′ = {j 1 , . . . , j r , j}, consideriamo allora la sottomatrice (A I′ ) J ′ = A I′J; essa ha rango′r +1 perchè le sue colonne sono indipendenti e pertanto |A I′J| ≠ 0, e resta così determinato′un minore non nullo di ordine r + 1, che per costruzione è un orlato di ρ. Ciò è control’ipotesi.✷Questo risultato fornisce il seguente algoritmo per calcolare il rango di A: si individuaun elemento non nullo di A e si esaminano tutti i minori orlati di tale elemento: se sonotutti nulli il rango è 1; in caso contrario, scelto un minore di ordine due ρ 2 non nullo,si calcolano gli orlati di ρ 2 . Se questi sono tutti nulli, il rango è 2, altrimenti si procedescegliendo un orlato non nullo ρ 3 e si itera il procedimento calcolando gli orlati di ρ 3 . Sitermina quando si individua un minore non nullo ρ r di ordine r i cui orlati (se esistono)sono tutti nulli, ricavando che rg(A) = r.2. Metodi per la risoluzione di un sistema lineareSi consideri un sistema lineare di m equazioni nelle n incognite x 1 , . . . , x n :(2) Ax = bdove A ∈ M m,n (K) e b ∈ K m . Denotiamo con C = (A b) la matrice completa del sistema.Si ricordi che (2) è compatibile se e solo se rg(A) = rg(C) (Teorema di Kronecker-Rouché-Capelli).Il sistema in questione può anche riscriversi utilizzando solo la matrice C come segue:⎛ ⎞(3) C ⎜ .⎟⎝ ⎠ = 0.La i-ma equazione può a sua volta riscriversi( )C (i) x= 0.−1x 1x r−1


Notiamo che, se (2) è compatibile, fissata una base A (i 1) , . . . , A (ir) dello spazio generatodalle righe di A, allora (2) risulta equivalente al sistema che si ottiene scartando le equazioninon coinvolgenti le righe i 1 , . . . , i r di C, ovvero(4) A ′ x = b ′⎛ ⎞ ⎛ ⎞A (i 1)b i1dove A ′ ⎜ ⎟= ⎝ . ⎠ e b ′ ⎜ ⎟= ⎝ . ⎠ .A (ir) b irCiò segue dal fatto che, essendo rg(C) = rg(A) = r, ogni riga di C è combinazionelineare delle righe C (i 1) , . . . C (ir) .9Nei paragrafi seguenti descriviamo due metodi per discutere e risolvere un sistema.Metodo di riduzione ad un sistema di CramerUtilizzando il metodo degli orlati, si calcolano il rango r di A e di C e si stabilisce se ilsistema è risolubile. Posto r := rg(A), si fissi una sottomatrice non singolareM = A {i 1,...,i r}{j 1 ,...,j r}di A di ordine r, corrispondente alle righe di indici i 1 < · · · < i r ed alle colonne j 1 < · · ·


10Ciò premesso, affermiamo che un vettore x = x ′ + x ′′ ∈ K n è soluzione di (2) se e solose z = (x j1 , . . . , x jr ) è soluzione del sistema di Cramer⎛ ⎞λ 1(6) Mz = ξ, ξ := b ′ ⎜ ⎟− Z ⎝ . ⎠λ kdi ordine r nelle incognite x j1 , . . . , x jr .Si osservi che, assumendo n > r, le altre incognite x p1 , . . . x pk sono confluite nei termininoti del sistema (6). Nel caso in cui n = r, allora M = A {i 1,...,i n} e (6) è un sistema diCramer coinvolgente tutte le incognite x 1 , . . . , x n .Tornando all’esempio di cui sopra, il sistema (6) è{2x + 6z = 16 − 4λ1 − 8λ 22x + 5z = 7 − 4λ 1.Per giustificare l’affermazione di cui sopra, basta ricordare che il nostro sistema è equivalentea (4); ora, x ∈ K n è soluzione se e solo seovveroche può riscriversiA ′ x = b ′A ′ x ′ = b ′ − A ′ x ′′⎛ ⎞λ 1Mz = b ′ ⎜ ⎟− Z ⎝ . ⎠ .λ kDunque per ogni valore (λ 1 , . . . , λ n−r ) attribuito alle incognite x p1 , . . . , x pk si ottieneun’unica soluzione z del sistema (6) e quindi una ben determinata soluzione di (2) data dax = x ′ + x ′′ in accordo con la (5), che può calcolarsi con la formula di Cramer. Viceversa,ogni soluzione x di (2) è ottenuta in questo modo in corrispondenza della scelta di un’unicak-pla (λ 1 , . . . , λ k ).Nell’esempio già esaminato, si ottiene che la generica soluzione del sistema èal variare di λ 1 , λ 2 ∈ R.(−2λ 1 + 20λ 2 − 19, λ 1 , 9 − 8λ 2 , λ 2 ),In altri termini, denotato con S ⊂ K n l’insieme di tutte le soluzioni del sistema (2),assumendo n > r vi è una bigezionedata dadovex ′ = x j1 e j1 + · · · + x jr e jr ,Ψ : K n−r → SΨ(λ 1 , . . . , λ n−r ) := x ′ + x ′′essendo (x j1 , . . . , x jr ) l’unica soluzione di (6).x ′′ = λ 1 e p1 + · · · + λ k e pk


Diremo quindi che il sistema ammette ∞ n−r soluzioni, descritte al variare dei parametriliberi λ 1 , . . . , λ n−r .Notiamo anche che il sistema ammette un’unica soluzione se e solo se r = n; formalmente,si conviene di far rientrare anche questo caso nella simbologia ∞ n−r . Nellenotazioni precedenti, ciò corrisponde a porre K 0 = {0} e x ′′ = 0.Il lettore osservi infine che, nel caso in cui il sistema in esame è omogeneo, allora S èun sottospazio vettoriale di R n ed inoltre Ψ è lineare. Dunque Ψ è un isomorfismo e ladimensione di S è n − r.11Riduzione di un sistema per righePer stabilire se il sistema (2) ovvero (3) è risolubile, si può procedere col seguentealgoritmo: se C contiene almeno una riga del tipo (0 . . . 0 α) con α ≠ 0, allora il sistemanon ha soluzioni. Altrimenti si considera la prima riga non nulla di C e si procede allariduzione per righe di C scegliendo ad ogni passo un pivot non appartenente all’ultimacolonna. Ogni trasformazione effettuata trasforma il sistema (3) in uno equivalente. Se adun certo passo non è possibile scegliere un pivot sulle prime n − 1 colonne, il sistema nonè compatibile perchè equivalente ad un sistema contenente un’equazione del tipo 0 = αcon α ≠ 0.Terminata, se possibile, la procedura di riduzione per righe, si perviene ad una matriceridotta C ′ e quindi ad un sistema equivalente(7) A ′ x = b ′in cui sia A ′ che C ′ = (A ′ b ′ ) sono ridotte per righe e dello stesso rango. Questo sistemaè pertanto compatibile e tale è il sistema iniziale (2).Detti j 1 , . . . , j r gli indici delle colonne occupate dai pivots di C ′ , il sistema (7) si risolveagevolmente nelle incognite x j1 , . . . , x jr cominciando dall’ultima equazione non banale(cioè non della forma 0 = 0) ricavando l’incognita x jr (l’unica che compare tra lex j1 , . . . , x jr ) in funzione di tutte le altre; si procede quindi a ritroso risolvendo tutte lealtre equazioni rispetto alle incognite rimanenti. Le n − r incognite diverse da x j1 , . . . , x jrsvolgono quindi il ruolo di parametri liberi al variare dei quali si ottengono ∞ n−r soluzioni.

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!