Forelesninger

Referater

  • 12.1: Vi definerte begrepet reelt vektorrom og studerte en del eksempler på slike. D.v.s. Vi dekket stort sett innholdet i seksjon 5.1. Det absolutte hovedpunktet i forelesningen var definisjonen av reelle vektorrom. Det er viktig å huske at et vektorrom er satt sammen av en mengde (vektorene), valg av skalarer (I vårt tilfelle reelle tall), addisjonsoperasjonen samt skalarmultiplikasjonen, og at disse operasjonene følger visse lover (Aksiom 1- Aksiom 10).
  • 15.1: Vi så på begrepene underrom og lineærkombinasjon. Det vil si seksjon 5.2 i læreboka. Et nyttig resultat: Hvis vi lurer på om W er et underrom av V, behøver vi ikke å sjekke at alle vektorromsaksiomene holder i W. Det holder å sjekke om W er lukket under addisjon og skalarmultiplikasjon.Eksempler på underrom: {0}, linjer og plan gjennom origo, rommet selv. Et annet vesentlig resultat vi så på: Løsningsmengden til et lineært homogent ligningssystem Ax=0 av m ligninger i n ukjente er et underrom av R^n. Dette resultatet er en generalisering av det faktum at plan gjennom origo i R^3 er underrom av R^3. Tilslutt så vi hvordan mengden av reelle polynomer én variabel utgjør et vektorrom (Med de opplagte vektorromsoperasjonene.). Viktige underrom av dette rommet er rommene av polynomer av grad mindre enn eller lik et gitt naturlig tall.
  • 19.1: Temaet for forelesningen var begrepet lineær uavhengighet. Foreleser forsøkte å gi to ulike praktiske utgangspunkt for definisjonen av dette begrepet: Overflødige vektorer: Når vi spesifiserer et underrom ved hjelp av en genererende mengde (W= Span(v1,v2,…,v3)), kan det tenkes at vi har oppgitt flere vektorer enn det som er strengt tatt nødvendig. Dette er tilfellet når noen av vektorene i den genererende mengden er lineærkombinasjoner av de andre. Dette er det samme som at den genererende mengden er lineært avhengig. Hvis vi ikke har oppgitt overflødige vektorer, kalles den genererende mengden lineært uavhengig. Unik representasjon som lineærkombinasjon: Når vi har en mengde vektorer som genererer et vektorrom, er alle de andre vektorene lineærkombinasjoner av vektorer i den genererende mengden. Men, generelt sett kan en vektor være mange ulike lineærkombinasjoner av vektorene i den genererende mengden. Vi er interessert i tilfellet der denne fleksibiliteten ikke finnes, der hver vektor er én unik lineærkombinasjon av vektorer i den genererende mengden. Spesielt gjelder dette nullvektoren, som i så fall bare kan uttrykkes som lineærkombinasjonen der alle skalrene er lik 0. Denne mangelen på fleksibilitet viser seg å være det samme som lineær uavhengighet. Eksempler vi så på ulike lineært uavhengige mengder i rommet, og i rommet av polynomer av grad mindre enn eller lik n. Wronskideterminanten Vi tittet også raskt på Wronskideterminanten, siden den gir oss et meget nyttig regneverktøy når vi studerer rom av deriverbare funksjoner. (Formelt sett må vel Wronskideterminanten holdes utenfor pensum. Men, den må være med i forelesningene, for å gi oss et litt rikere tilfang av eksempler.). Kort sagt: vi så på kapittel 5.3 i læreboken.
  • 22.1: Vi innførte begrepet basis (I prinsippet så vi på begrepet endelig basis. Foreleseren kommenterte at uendelige basiser med få unntak ubrukelige.). Vi så at alle endelige basiser inneholder like mange vektorer (En direkte følge av Teorem 5.4.2). Dimensjonen til et endeligdimensjonalt vektorrom ble så definert til å være lik antallet vektorer i en basis. Deretter brukte vi en hel del tid på å bevise teorem 5.4.2. Vi så også på eksempler på endeligdimensjonale og uendeligdimensjonale vektorrom.
  • 26.1: Vi fullførte seksjon 5.4; Underrom av endeligdimensjonale rom er endeligdimensjonale. Hvis W er et underrom av V, så er dimW mindre enn eller lik dimV. Deretter gikk vi løs på de fundamentale underrommene forbundet med en matrise: Vi definerte radrommet (Row A), kolonnerommet (Col A) og nullrommet (Null A) for en matrise A. Deretter så vi på fremgangsmåter for å finne basiser for disse rommene. Det viste seg at dimRow A=dimCol A. Denne størrelsen kalte vi rangen til A, rank A. Vi definerte nulliteten til A, nullity A. Vi så av fremgangsmåtene for å finne basiser at rank A + nullity A=antall kolonner i A.
  • 29.1: Vi fullførte kapittel 5. Vi så på generelle løsninger av inhomogene system, og vi så på betingelser for at slike systemer er konsistente. Deretter studerte vi dimensjonsteoremet, og pekte på viktigheten av dette: Det moralske antallet ligninger + antallet uavhengige løsninger = antallet ukjente. Til slutt tok vi helt av med å se at begrepet lineær uavhengighet er sterkt beslektet med begrep som logisk uavhengighet og funksjonell uavhengighet.
  • 2.2: Vi begynte studiet av indreproduktrom, og definerte begreper som indreprodukt(rom), norm / lengde, distanse og vinkler. For å innføre vinkelmål i indreproduktrom, måtte vi bevise Cauchy-Schwarz' ulikhet.
  • 5.2: Vi definerte begrepene ortogonal, ortonormal mengde/basis, og så hvordan ortonormale basiser gjør det enkelt å arbeide med koordinater. F.eks at indreproduktet mellom to vektorer er det samme som skalarproduktet av koordinatvektorene i en ortonormal basis. Til slutt slo vi fast at alle endeligdimensjonale indreproduktrom har ortonormale basiser. Gram-Schmidt-algoritmen ga oss en konkret fremgangsmåte for å produsere en ortonormal basis med utgangspunkt i en gitt basis.
  • 9.2: Me gjekk gjennom kapittel 11.6: Markov-kjeder. Me definerte tilstandsvektor og overgangsmatrise for ein Markov-prosess, og såg korleis ein kan rekna ut nye tilstandsvektorar ut frå ein kjent tilstandsvektor. Me definerte regulære overgangsmatriser og såg at desse fører til at prosessen går mot ein "steady-state"-vektor når n går mot uendeleg. Som eit døme på bruk av teorien viste me at ein ikkje vert rik av å spela Craps.
  • 12.2 Me gjorde oss ferdige med Gram-Schmidt-algoritmen. Me definerte det ortogonale komplementet til eit underrom W, og såg korleis ein vektor kan dekomponerast til ein komponent som ligg i W og ein komponent som ligg i komplementet til W. Til slutt såg me på QR-dekomposisjon.
  • 16.2 Vi så på anvendelser av ortogonale projeksjoner. Særlig nyttig er dette når en ser på uendeligdimensjonale rom, der en av praktiske grunner kan være nødt til å se seg fornøyd med å arbeide i et endeligdimensjonalt underrom. Bakgrunnen for nytten av ortogonale projeksjoner er beste tilnærming-teoremet (T.6.4.1), som vi utledet. (Boka presenterer dog et mere fyndig bevis.)
    • Vi så på rommet av trigonometriske polynomer av grad mindre enn eller lik /n/ som underrom av'C[0,2\pi], rommet av kontinuerlige reelle funksjoner på intervallet [0,2\pi]. Dette eksempelet gav oss fourieranalysen, en teknikk som er meget viktig innenfor matematikk og fysikk.
    • Vi så også - Innenfor rommet av stykkevis kontinuerlige funksjoner - på et endeligdimensjonalt underrom som det kan være fonuftig å jobbe med. En ortonormal basis for dette underrommet var gitt av funksjoner som var konstant lik 0 utenom et lite intervall. På dette intervallet hadde de en konstant verdi forskjellig fra 0. (Grafen ser ut som et lite rektangulært tårn.). Den resulterende projeksjonen gave oss en stykkevis konstant funksjon. Den todimensjonale utgaven av dette (funksjoner av to variabler) gir oss en oppskrift på hvordan vi kan overføre bilder til en dataskjerm. Typisk fremgangsmåte: Gjør først billedbehandling ved hjelp av fourieranalyse (Da jobber vi i rommet av trigonometriske polynomer). For å se bildet på en dataskjerm: Lag en stykkevis kontinuerlig funksjon ved hjelp av en slik projeksjon.
    • Til slutt så vi hvordan minste kvadraters metode kan gi oss tilnærmede løsninger på ikkekonsitente lineære ligningsystemer. Denne metoden ble rettferdiggjort ved T.6.4.1, som knyttet sammen ortogonale projeksjoner og gode tilnærminger.
  • 19.2: Vi fortsatte med å se på kurvetilpasning og lineær regresjon. Noe uformelt så vi på hvor grensene gikk for kurvetilpasningsproblemer som lar seg løse ved hjelp av lineær algebra. En nødvendig og tilstrekkelig betingelse er at "modellen vår avhenger lineært av parametrene". Vi så videre på betingelser for unikhet av løsninger av minstekvadratersproblemer. Det viste seg at minstekvardratersløsningen av Ax=b er unik hvis og bare hvis A har lineørt uavhengige kolonner. Til slutt så vi litt på ortogonale matriser. D.v.s matriser Q der Q^T Q=I. Ekvivalente betingelser: QQ^T=I, Q invers = Q transponert. (Se forøvrig teorem 1.6.3)
  • 23.2: Nå innførte vi egenverdier og egenvektorer. Vi så hvordan egenverdiene er nullpunkter for (røtter i) det karakteristiske polynomet. Vi hadde også en noe forvirrende tavleregningsaffære, med flittig bruk av matlab.
  • 26.2: Vi fokuserte nå på egenvektorer. Egenvektorene for matrisen A tilhørende egenverdien l er alle ikketrivielle løsninger av (A-lI)x=0. En maksimal lineært uavhengig mengde av egenvektorer finnes ved å finne en basiser for Null(A-lI) for alle egenverdier l. v_1,…,v_n er en basis for R^n bestående av egenvektorer for matrisen A hvis og bare hvis matrisen P=[v_1|…|v_n] diagonaliserer A. P diagonaliserer A hvis P^-1AP er diagonal. Videre så vi hvordan diagonalisering hjelper oss å regne ut potenser av matriser, samt å finne løsninger av systemer av lineære differentialligninger.
  • 2.3: Vi så på anvendelse av diagonalisering på systemer av lineære homogene første ordens differentialligninger. Hvordan bruke en diagonaliserende matrise til å skifte variabler. Videre så vi på ortogonal diagonoalisering. Ortogonal diagonaliserbarhet av en nxn-matrise er det samme som eksistens av n ortonormale egenvektorer, hvilket er det samme som symmetri.
  • 5.3: Vi så på anvendelse av diagonaliseringsteori på problemer innenfor demografi. Se dette notatet. Den viktige erfaringen å ha med seg her, var at enkelte egenvektorer og egenverdier fikk en meget konkret betydning. Egenvektoren til den dominerende egenverdien representerte en stabil befolkningsfordeling. Det viste seg at befolkningen under visse betingelser ville nærme seg denne fordelingen med tiden. For befolkninger med en slik stabil befolkningsfordeling så vi at den dominerende egenverdien var lik befolkningens vekstrate.
  • 9.3: Midtsemesterprøve. Se Midtsemesterprøve.
  • 12.3: Vi studerte kvadratiske flater. Se her for en klassifikasjon av slike. Vi så hvordan vi ved hjelp av diagonalisering kan fjerne krysledd i kvadratiske ligninger og hvordan vi kan fullføre kvadrater (fjerne førstegradsledd), slik at vi får ligningene på standardform.
  • 16.3: Dagens tema var ortogonale matriser og lineære operatorer i R^2. Vi tok utgangspunkt i radreduksjon, og så hvordan dette leder til dekomposisjon av inverterbare matriser som produkt av elementærmatriser. Disse elementærmatrisene kan tolkes som skjærtransformasjoner, skaleringer eller refleksjoner. Dette ledet til at vi kunne betrakte matriser som operasjoner sammensatt av slike. I andre del av forelesningen, så vi at ortogonale matriser er eksakt de matrisene som bevarer skalarproduktet på R^n (ekvivalent: som bevarer normen). Vi så at disse matrisene, betraktet som operatorer, er eksakt de som ikke forandrer formen og størrelsen til legemer. I planet dreier dette seg om rotasjoner og refleksjoner. Vi så at QR-faktorisering gav oss fortolkninger av 2x2-matrise-operasjoner som komposisjon av skjærtransformasjoner, skaleringer, samt rotasjoner.
  • 19.3: Beregnet tomografi (CT). Målinger med røntgenstråler→ligningssystem. Systemet løste vi ved algebraisk rekonstruksjonsteknikk. Dette ble demonstrert ved hjelp av matlab.
  • 23.3: Tilbake til teorien: Vi snakket om lineæravbildninger/lineærtransformasjoner. Vi definerte lineæravbildninger mellom vektorrom, kjernen og bildet til slike, og derigjennom rang og nullitet til lineæravbildninger med endeligimensjonalt domene. For slike lineæravbildninger etablerte vi et dimensjonsteorem: rang+nullitet=dimensjonen til domenet.
  • 26.3: I dag diskuterte vi invertering av lineæravbildninger. Vi så først at en lineæroperator er 1-1 hvis og bare hvis kjernen er triviell. Deretter så vi at en slik er hvis og bare hvis bildet(rekkevidden) er hele kodomenet. Dimensjonsteoremet lærte oss først at dimensjonen til domenet og kodomenet er like for inverterbare lineæravbildninger. Deretter lærte det oss at lineæravbildninger der domenet og kodomenet har samme dimensjon er inverterbare hvis og bare hvis kjernen er triviell. I annen omgang så vi på hvordan vi kan uttrykke lineæravbildninger som matriser, dersom vi har valgt basiser for domenet og kodomenet. Dette baserte seg på at alle lineæravbildninger mellom euklidske rom (R^n,R^m) kan uttrykkes ved hjelp av sin standardmatrise. Vi jobbet en hel del med standardmatrisene, og etablerte f.eks at kompiosisjon av lineæravbildninger svarer til multiplikasjon av standardmatriser. Videre så vi at valg av basiser for vektorrom lot oss representere lineæravbildninger ved hjelp av lineæravbildninger mellom euklidske rom. Se for øvrig notat som skal dukke opp på siden Supplerende materiale
  • 30.3: I dag tok vi opp similaritetsinvarianter (determinant (det), spor (tr), rang, nullitet, egenverdier, algebraiske og geometriske multiplisisteter, det karakteristiske polynom). Vi så at ulike matriser for samme lineæroperator er similære, og at vi derfor kan definere størrelser som determinanten til en lineæroperator. Så vidt jeg husker, diskuterte vi her også diagonalisering av lineæroperatorer.
  • 2.4: Her rundet vi av kapittel 8. Vi så blant annet på hvordan vi ved å bruke bekvemmelige basiser og basisskifte kan finne standardmatiseene til lineæroperatorer på R^n. Vi så også på generelle lineære lignigner, og så på generaliseringer av lærebokas teorem 5.5.1-2.
  • 16.4: Vi innførte kompleks lineæralgebra, og kommenterte at alt som står i kapittel 5-8 er sant også når vi bruker komplekse skalarer, utenom noen små detaljer. Dette betyr at vi - når vi arbeider med kompleks lineæralgebra - stort sett kan late som ingenting, og regne med de komplekse tallene som om de er reelle. Vi har dog en operasjon på de komplekse tallene som vi ikke har for reelle tall: konjugasjon. Denne operasjonene har stor betydning når vi arbeider med komplekse indreprodukt.
  • 20.4:
2009-04-20, sydnes