Her finner du korte rapporter fra forelesningene.
Mandag 17. august
Brukte mesteparten av tiden til ? repetere hovedresultatene fra MAT1110 — forh?pentligvis drepende kjedelig for dem som tok MAT1110 i v?r, men kanskje nyttig likevel? Avsluttet med ? g? gjennom seksjon 2.4 som ikke er dekket fra f?r. P? onsdag begynner jeg p? kapittel 4.
Onsdag 19. august
Startet p? kapittel 4 og gikk gjennom seksjon 4.1 og f?rste halvpart av 4.2. La vekt p? ? forklare hvorfor vi har bruk for den abstrakte teorien om vektorrom. Avslutte med ? se p? nullrommet til en matrise og spennet til en (endelig) mengde vektorer, men vil se n?rmere p? disse begrepene neste gang.
Mandag 24. august
Definerte f?rst line?ravbildninger og viste at derivasjon av polynomer er en line?ravbildninger. Definerte deretter kjerne og rekkevidde til en line?ravbildning T:V->W, og viste at ker(T) er et underrom av V, og at ran(T) er et underrom av W. Viste deretter hvordan man kan finne kjernen og rekkevidden til en line?ravbildning T:R^n->R^m. Begynte s? p? seksjon 4.3 der jeg definerte line?r uavhengighet og beviste Theorem 4. Til slutt definerte jeg basiser. P? onsdag avslutter jeg seksjon 4.3 og fortsetter p? seksjon 4.4 og notat 1.
Onsdag 26. august
Etter ? ha repetert begrepene "line?r uavhengighet" og "basis" beviste jeg Theorem 5 i seksjon 4.3. Deretter viste jeg hvordan man kan bruke radreduksjoner til ? redusere en mengde vektorer til en line?r uavhengig delmengde med det samme spennet (dette er en versjon av teorem 6) Jeg gikk s? over til seksjon 4.4 der jeg f?rst beviste Theorem 7, innf?rte koordinatavbildningen og beviste Theorem 8. Regnet til slutt et eksempel av samme type som eksempel 6. Neste gang snakker jeg f?rst litt om koordinater i R^n (side 249-250) og fortsetter s? p? seksjon 4.5.
Mandag 31. august
Snakket f?rst litt om koordinatvektorer i R^n, og gikk s? gjennom seksjon 4.5 omtrent som i boken. Neste gang begynner jeg p? seksjon 4.6.
Onsdag 2. september
Gikk f?rst gjennom seksjon 4.6 omtrent som i boken (nevnte ikke avsnittet "Rank and the invertible matrix theorem", men det er verdt ? f? med seg). Begynte deretter p? seksjon 4.7 der jeg fikk gjennomg?tt Theorem 15 med bevis.
Mandag 7. september
Gikk f?rst gjennom et eksempel av samme type som Example 2 i seksjon 4.7 og formulerte deretter den generelle prosedyren (nederst p? side 274). Begynte s? p? seksjon 4.8 som jeg behandlet litt annerledes enn boken siden de fleste er kjent med differensligninger fra MAT-INF1100. Gitt en annenordens homogen differensligning viste jeg at det for enhver vektor v=(v0,v1) finnes n?yaktig l?sning slik at x0=v0, x1=v1 (vi kaller v "startvektoren" og x den "genererte l?sningen"). Viste deretter at dersom v, u er to line?rt uavhengige startvektorer, s? er de genererte l?sningene ogs? line?rt uavhengige og utspenner hele l?sningsrommet. Det medf?rer at l?sningsrommet har dimensjon 2. Tilsvarende kan man vise at l?sningsrommet til en k-te ordens homogen differensligning er k-dimensjonalt. Neste gang begynner jeg p? seksjon 4.9
Onsdag 9, september
Gikk gjennom seksjon 4.9 p? en litt mer teoretisk m?te enn boken — viste f.eks. at enhver (s?yle)stokastisk matrise har 1 som egenverdi. Repeterte raskt stoffet i 5.1 og 5.2, slik at jeg er nesten klar til ? begynne p? 5.3 neste gang (m? plukke opp det lille avsnittet om similaritet fra 5.2)
Mandag 14. september
Definerte f?rst simil?re matriser og beviste Theorem 4 (med et lite tillegg: Dersom u er en egenvektor for A med egenverdi lambda, er P^(-1)u en egenvektor for B med egenverdi lambda). Definerte deretter diagonaliserbare matriser og beviste Theorem 5 (med Theorem 6 som korollar). Gikk deretter gjennom et eksempel av samme type som Example 3 i seksjon 5.3.
Onsdag 16. september
Gikk gjennom seksjon 5.4. Hovedpoenget her er ? vise at to matriser er simil?re hvis og bare hvis de representerer den samme line?ravbildningen med hensyn p? to forskjellige basiser.
Mandag 21. september
Gikk f?rst gjennom eksemplet om polynominterpolasjon fra notat 2 . Etter pausen snakket jeg om komplekse egenverdier og egenvektorer. Neste gang fortsetter vi med 5.6 og 5.7. Siden hovedpoenget i 5.6 er godt kjent fra MAT1110 kommer hovedvekten til ? ligge p? 5.7,
Onsdag 23. september
Gikk gjennom seksjon 5.6 og 5.7. Siden vi har arbeidet mye med stoffet i 5.6 i MAT1110, skisserte jeg bare hovedideene f?r jeg gikk videre til 5.7. Her la jeg vekt p? regnemetodene man bruker for ? finne l?sningen. Eksemplet jeg tok utgangspunkt i, er eksempel 2 i seksjon 4.11 i "Flervariabel analyse med line?r algebra" (MAT1110-kompendiet). Du kan laste ned kapittel 4 her
Neste gang g?r jeg gjennon seksjon 5.8 og begynner p? kapittel 6.
Mandag 28. september
Gikk f?rst gjennom seksjon 5.8, og begynte deretter p? 6.1. Mye av stoffet her er kjent fra f?r av, og jeg konsentrerte meg derfor om ortogonale komplementer. Viste at det ortogonale elementet til enhver mengde er et underrom, og avsluttet med ? bevise Theorem 3. Neste gang begynner vi seksjon 6.2. Vi rekker nok ogs? en del av 6.3. Det betyr at vi ligger litt foran forelesningsplanen.
Onsdag 30. september
Gikk gjennom seksjon 6.2 med s?rlig vekt p? Theorem 5, 6 og 7. Begynte derettter p? seksjon 6.3 der jeg rakk Theorem 8 og 9.
Mandag 12. oktober
Erik Bedos stilte som vikar p? kort varsel. Her er hans rapport:Gjennomgikk avsnitt 6.3 : repeterte Teoremene 8 og 9 (som var blitt bevist p? slutten av forrige time) og tok et par eksempler; deretter gjennomgikk jeg Teorem 10 (om standardmatrisen til proj. avb.) og illustrerte det med Matlab (og poengterte at dette teoremet er tungvint ? bruke det n?r projeksjoner skal beregnes for h?nd).
Begynte p? 6.4 og rakk ? skissere ideen bak Gram Schmidt prossessen n?r underrommet W har dimensjon 2 eller 3.
Mandag 19. oktober
?yvind Ryan stilte som vikar, og gikk gjennom resten av Seksjon 6.5, samt hele Seksjon 6.6. I Seksjon 6.5 fortsatte vi rett etter beviset for Teorem 13, og regnet et par eksempler der vi l?ste normalligningene. Videre regnet vi eksempler for det spesielle tilfellet der s?ylene til A er line?rt uavhengige, og et eksempel der QR-faktoriseringen til matrisen A ble brukt. I Seksjon 6.6 regnet vi eksempler med bruk av line?r regresjon, regresjon med andregradskurver, samt regresjon med trogonometriske funksjoner. Vi brukte ogs? Matlab til ? utf?re regresjon, se Matlabkode her . Forelesningsfoiler ligger her
Onsdag 21.oktober
Gikk gjennom seksjon 6.7. Fulgte boken ganske n?ye, men tok med noen flere bevis.
Mandag 26. oktober
I f?rste time gikk jeg ganske n?ye gjennom avsnittet om Fourier-analyse i seksjon 6.8. Etter pause begynte jeg p? seksjon 7.1. Her viste jeg f?rst at hvis A er en symmetrisk matrise og x og y er to (muligens komplekse) vektorer, s? er skalarproduktene (Ax)y og x(Ay) like. Brukte dette til ? vise at for en symmetrisk matrise er alle egenverdier reelle og at egenvektorer med ulike egenverdier er ortogonale. Til slutt forklarte jeg hvordan dette kan brukes til ? vise at dersom en symmetrisk matrise har en basis med egenvektorer, s? har den ogs? en ortonormal basis av egenvektorer. Neste gang skal jeg vise spektralteoremet som sier at enhver symmetrisk matrise virkelig har en basis med egenvektorer. Beviset st?r ikke i boka, men i Notat 3 .
Onsdag 28. oktober
Brukte mesteparten av tiden p? ? g? gjennom Notat 3. Til slutt gikk jeg gjennom oppgave 7.1.23 som et eksempel p? hva som skjer n?r vi har multiple egenverdier. Tiden ble litt knapp og jeg rakk ikke alle detaljene,
Mandag 2. november
Gikk gjennom seksjon 7.2. Fulgte stort sett boken, men la litt st?rre vekt p? roterte kjeglesnitt enn det den gj?r.
Onsdag 4. november
Avsluttet f?rst seksjon 7.2 ved ? g? gjennom avsnittet om klassifikasjon av kvadratiske former. Gikk s? ganske raskt gjennom seksjon 7.3 der jeg beviste Teorem 6 og forklarte Teoremen 7 og 8. Til slutt begynte jeg p? seksjon 7.4 der jeg kom frem til (men ikke med) Teorem 9. Avslutter pensum neste gang.
Mandag 9. november
Snakket videre om seksjon 7.4. Beviste f?rst teorem 9 og 10, og gikk deretter gjennom et eksempel av samme type som Eksempel 3 — SVD-dekompisjon av en 2 ganger 3 matrise. Neste gang snakker jeg litt mer om SVD og begynner deretter p? kombinert repetisjon/eksamensoppgaveregning.
Onsdag 11. november
Avsluttet seksjon 7.4 ved ? snakke om redusert SVD og se p? anvendelser til minste kvadraters metode, Begynte s? repetisjonen ved ? se p? aksiomene for vektorrom og underrom.
Mandag 16. november
Fortsatte repetisjonen av kapittel 4. La hovedvekten p? (eksamensrelevante?) teknikker. Her er noen av temaene:
(i) Sammenheng mellom vektorer og koordinatvektorer (praktisk bruk av Theorem 8 i seksjon 4.4)
(ii) Hvordan finner vi en line?rt uavhengig mengde som utspenner det samme rommet som den opprinnelige mengden?
(iii) Hvordan utvider vi en line?rt uavhengig mengde til en basis?
(iv) Hvordan finner vi en basis for (og dimensjonen til) s?ylerom, radrom og nullrom?
Repeterte litt av teorien innimellom disse praktiske oppgavene. P? onsdag gjennomg?r jeg oppgave 1 fra eksamen H-07 (selv om den er gitt som ukeoppgave) som en siste illustrasjon p? teknikkene i kapittel 4, og fortsetter deretter med kapittel 6 (kapittel 5 tar jeg til slutt sammen med kapittel 7).
Onsdag 18. november
Regnet f?rst oppgave 1 fra eksamen H-07. Gikk s? gjennom hovedingrediensene i kapittel 6 med s?rlig vekt p?:
(i) Projeksjoner
(ii) Gram-Schmidts-metode
(iii) Minste kvadrater metode
Til slutt regnet jeg de to f?rste punktene i oppgave 3 fra eksamen H-07. Neste gang fortsetter jeg med repitisjon fra kapittel 5 og 7.
Mandag 23. november
Begynte p? repetisjon av kapittel 5 og 7. Repeterte f?rst hva egenverdier og egenvektorer er og hvordan man finner dem. Pr?vde deretter ? systematisere teorien i f?lgende punkter:
(i) Dersom en n-ganger.n-matrise A har n forskjellige egenverdier, finnes det en basis av egenvektorer (noen av dem vil v?re komplekse hvis egenverdiene er komplekse),
(ii) Hvis A er symmetrisk, er alle egenverdiene reelle, og det finnes en ortonormal basis av egenvektorer.
(iii) Generelt beh?ver ikke en matrise ? ha en basis av egenvektorer. Dersom en egenverdi har multiplisitet k, kan den ha alt fra én til k line?rt uavhengige egenvektorer. Skal vi ha en basis av egenvektorer, er vi avhengig av at hver eneste egenverdi har et maksimalt antall line?rt uavhengige egenvektorer
(iv) En matrise er diagonaliserbar hvis og bare hvis den har en basis av egenvektorer, I s? fall er A=PDP^(-1)
(v) En matrise er ortogonal diagonaliserbar hvis og bare hvis den er symmetrisk. I s? fall er A=PDP^T der s?ylene i P er en ortonormal basis av egenvektorer
Regnet oppgave 3 fra H-04 som en illustrasjon av noen av punktene ovenfor.
Etter pausen regnet jeg oppgave 2 fra H-07 som et eksempel p? koblede differensialligningssystemer, og gjennomgikk den grunnleggende teorien samtidig. Helt til slutt sa jeg noen ord om diagonalisering av kvadratiske former. Vil regne oppgave 5 fra H-06 som et eksempel neste gang. Ellers vil jeg neste gang snakke en del om singul?rverdidekomposisjon og blant annet regne en oppgave der vi finner en full SVD-dekomposisjon.
Onsdag 25. november:
SISTE FORELESNING: Gikk f?rst gjennom oppgave 5 fra H-06. Supplerte oppgaven med ? tegne kurven som ligningen fremstiller — det er en hyperbel med akser langs egenvektorene.
Gikk s? over til ? snakke om singul?rverdidekomposisjon. Gikk f?rst gjennom metoden generelt, og demonstrerte den deretter p? oppgave 7.4.10 hos Lay. Gikk deretter gjennom hovedtrekkene i Eksempel 7.4.6 — sammenhengen mellom s?ylene i U og V og underrommene assosiert med A kan v?re nyttige ? kjenne til. Hadde jeg hatt mer tid, ville jeg ha regnet oppgave 3 fra H-06.
Eksamen er uten hjelpemidler, og jeg kommer heller ikke til ? lage noen formelliste. Jeg kommer imidlertid til ? legge ut en oversikt over ting dere b?r huske, s? f?lg med p? "Beskjeder"!