==== Norges teknisk-naturvitenskapelige
universitet Fakultet for informasjonsteknologi,  matematikk og elektroteknikk Institutt for matematiske fag
Forelesninger
MA1201 Lineær algebra og geometri
Høsten 2005

Forside Forelesninger Øvinger Grupper Om kurset

Denne siden er en log for forelesningene.

21.11 Gjennomgang av gamle eksamensoppgaver: Vi fortsetter på eksamen våren 2004, deretter starter vi på eksamen høsten 2004.
16.11 Gjennomgang av gamle eksamensoppgaver: Vi løste oppgavene 1, 2, 4 og 5 fra høsten 2003 og oppgavene 1 og 2 fra våren 2004.
14.11 Kjeglesnitt, seksjon 9.6: Kjeglesnitt kan beskrives som løsningsmengdene til ligninger på formen:
ax2+2bxy+cy2+dx+ey+f=0
hvor a, b, c, d, e og f er konstanter. De ikke-degenererte kjeglesnitt er ellipser, hyperbler og parabler. Problemstillingen er å avgjøre hva slags kjeglesnitt en gitt ligning representerer og å skissere dette kjeglesnittet. Dette gjøres ved å skifte koordinater slik at ligningen forenkles. Dersom ligningen har et xy-ledd, må kjeglesnittet roteres slik at dette leddet forsvinner. Man utfører ortogonal diagonalisering på den tilhørende kvadratiske formen. I det nye koordinatsystemet vil ligningen representere et muligens forflyttet kjeglesnitt. Ved å fullføre kvadratene flytter man kjeglesnittet slik at det sentreres i origo. Da blir det lett å se hvilken type kjeglesnitt man har.
09.11 Kvadratiske former, seksjon 9.5: En kvadratisk form i to variable er et uttrykk på formen
ax2+2bxy+cy2.
Det kan også skrives på matriseform xTAx, hvor x er kolonnevektoren
x= [
x
y
]
og A er matrisen
A= [
a b
b c
].
Typiske problemer for kvadratiske former er
  • å finne maksimum og minimum for xTAx når x er en enhetsvektor og
  • å beskrive de A slik at xTAx≥0 .
Det første problemet besvares av følgende teorem:
Teorem: La A være en symmetrisk 2x2 matrise med egenverdier λ1≥λ2. Hvis x er en enhetsvektor, så er
  • λ1xTAx≥λ2 og
  • xTAx1 dersom x er en enhetsvektor tilhørende λ1 og xTAx2 dersom x er en enhetsvektor tilhørende λ2.
For det andre problemet innfører vi definisjonen positivt definitt.
Definisjon: En kvadratisk form xTAx kalles positivt definitt dersom xTAx>0 for alle x≠0, og A kalles da en positivt definitt matrise.
Vi har følgende teorem:
Teorem: En symmetrisk 2x2 matrise A er positivt definitt hvis og bare hvis egenverdiene er positive.
07.11 Avlyst på grunn av sykdom.
02.11 Ortogonal diagonalisering, fra notat: En ortogonal matrise P er en kvadratisk matrise slik at PTP=I. De ortogonale 2x2 matrisene er rotasjoner og refleksjoner. Et viktig problem er å avgjøre om en matrise A kan ortogonalt diagonaliseres. Vi sier at en kvadratisk matrise A er ortogonalt diagonaliserbar dersom det finnes en ortogonal matrise P slik at
PTAP=D
er en diagonal matrise. Følgende teorem sier at det er lett å avgjøre om en kvadratisk matrise A er ortogonalt diagonaliserbar:
Teorem: En kvadratisk matrise A er ortogonalt diagonaliserbar hvis og bare hvis A er symmetrisk.
I anvendelser er vi også interessert i å finne en ortogonal matrise P som diagonaliserer A. Vi har følgende resultat:
Teorem: La A være en symmetrisk 2x2 matrise med egenverdier λ1≠λ2. Finn tilhørende egenvektorer v1 og v2 med norm 1. Da er matrisen P=[v1 | v2] ortogonal og PTAP=D er diagonalmatrisen som har λ1 og λ2 på diagonalen.
31.10 Egenverdier, egenvektorer og diagonalisering, slutten av seksjon 4.3 og notat om egenverdier (se også kapittel 7): Vi repeterte egenverdier og egenvektorer: For lineære operatorer kan vi formulere definisjonen slik: Dersom T: Rn→Rn er en lineær operator, λ en skalar og x en vektor i Rn ulik 0 slik at
T(x) = λ x,
da kalles λ en egenverdi for T, og x kalles en egenvektor til T korresponderende til λ . Vi finner egenverdier ved å løse den karakteristiske ligningen
det(λI-[T])=0.

Egenverdier og egenvektorer brukes til å diagonalisere matriser A. Vi sier at en kvadratisk matrise A er diagonaliserbar hvis det finnes en inverterbar matrise P av samme størrelse slik at
P-1AP = D
er en diagonal matrise. Følgende teorem sier oss hvordan vi i mange tilfeller kan finne P når A er en 2x2 matrise:
Teorem: La A være en 2x2 matrise. Anta at λ1 og λ2 er to ulike egenverdier for A med tilhørende ikketrivielle egenvektorer v1 og v2. La P være matrisen som har disse egenvektorene som kolonner. Da er P inverterbar og
P-1AP = D
hvor D er diagonalmatrisen med λ1 og λ2 på diagonalen.
26.10 Egenskaper til lineære transformasjoner, seksjon 4.3: Vi definerte hva det vil si at en lineær transformasjon T: Rn→Rm er 1-1, nemlig at for hver y i bildet finnes nøyaktig en x i definisjonsmengden slik at T(x)=y. Videre kalles en lineær transformasjon T: Rn→Rm , det vi si at bildet er hele Rm, dersom for hver y i Rm finnes minst en x i definisjonsmengden slik at T(x)=y. Eksemplevis er en rotasjon i R2 både 1-1 og på, mens projeksjonene i R3 ned på xy-planet er hverken 1-1 eller på.
Teorem: Dersom T: Rn→Rn er en lineær operator så er følgende ekvivalent:
  • Standardmatrisen [T] til T er inverterbar.
  • T er 1-1.
  • Bildet til T er hele Rn, med andre ord er T på.
24.10 Lineære transformasjoner, seksjon 4.2: En lineær transformasjon T: Rn→Rm kan beskrives som å multiplisere en kolonnevektor x i Rn med en mxn matrise. Denne matrisen kalles standardmatrisen til T og vi har notasjonen [T]. Omvendt - dersom A er en matrise, så betegner vi den lineære transformasjonen å multiplisere med A ved TA.
Vi ga endel eksempler på lineære transformasjoner. Vi har:
  • nulltransformasjonen,
  • identitetsoperatoren,
  • refleksjonsoperatorer,
  • projeksjonsoperatorer,
  • rotasjonsoperatorer og
  • skaleringsoperatorer.
En kan sette sammen lineære transformasjoner. Dersom T1: Rn→Rk og T2: Rk→Rm, så kan vi definere T2∘T1 ved
T2∘T1(x) = T2(T1(x))
Merk at sammensetning tilsvarer matrisemultiplikasjon, og at sammensetningens rekkefølge er vesentlig.
19.10 Euklidske n-rommet, seksjon 4.1: Det Euklidske n-rommet Rn består av ordnede n-tupler (u1, u2, ... , un) av reelle tall. Vi kan addere slike tupler, vi har skalar multiplikasjon, Euklidsk indreprodukt og norm. Vi beviste Cauchy-Schwarz' ulikhet. Denne sier at for alle u og v i Rn, så er
|u·v| ≤ ||u|| ||v||
Trekantulikheten er en konsekvens av Cauchy-Schwarz' ulikhet, og den sier at den korteste veien mellom to punkt er den rette linje. For vektorer u og v i Rn er:
||u+v|| ≤ ||u|| + ||v||
Vi definerer at to vektorer er ortogonale dersom u·v=0. Da gjelder Pythagoras' læresetning også i det Euklidske n-rommet.
Merk at n-tupler også kan skrives som matriser; enten som en radvektor eller som en kolonnevektor. Hvis vi bruker kolonnevektornotasjonen så kan prikk-produktet skrives som et matriseprodukt ved formelen:
u·v = vTu
17.10 Linjer og plan i R3, seksjon 3.4 og 3.5: Vi startet med å gi en geometrisk tolkning av kryssproduktet: Gitt u og v, så er u×v den entydige vektoren karakterisert av
  • u×v står normalt på både u og v,
  • u, v og u×v utgjør et høyrehåndssystem, og
  • lengden av u×v er lik arealet av parallellogrammet utspent av u og v.
Vi ga deretter en geometrisk tolkning av 2x2- og 3x3-determinanter. Absoluttverdien til determinanten er arealet/volumet til parallellogrammet/parallellepipedet utspent av radvektorene. Etter dette studerte vi anvendelser. Disse var:
  • Bruke kryssproduktet til å avgjøre om to vektorer i rommet er parallelle.
  • Bruke determinanten til å avgjøre om tre vektorer ligger i samme plan.
  • Finne ligningen til et plan gjennom et punkt P og med normalvektor n.
  • Finne ligningen til et plan gjennom tre oppgitte punkt.
  • Parameterfremstilling av en linje i rommet.
  • Finne snittpunktet mellom en linje og et plan.
  • Finne parameterfremstilling for snittlinja til to plan.
  • Finne avstanden mellom et punkt og et plan.
  • Finne avstanden mellom to linjer i rommet.
12.10 Projeksjoner og kryssprodukt, seksjon 3.3 og 3.4: Vi gjennomgikk midtsemesterprøven i første time. I andre time beskrev vi projeksjonen av en vektor u ned på en annen vektor a. Vi har formelen
projau =
u·a
||a||2
a
Vi kan blant annet bruke projeksjonen til å finne avstanden fra et punkt til en linje. Vi definerte også kryssproduktet av to vektorer i rommet. La i=(1,0,0), j=(0,1,0) og k=(0,0,1). Gitt u=(u1,u2,u3) og v=(v1,v2,v3), så definerer vi
u×v = |
i j k
u1 u2 u3
v1 v2 v3
|
Vi utledet endel egenskaper til kryssproduktet, merk spesielt at
  • u×v=-v×u
  • ||u×v||2=||u||2||v||2-(u·v)2
  • ||u×v||=||u|| ||v|| sin θ
  • u×v står normalt på både u og v.
10.10 Midtsemesterprøve: Pensum seksjonene 1.1, 1.2, 1.3, 1.4, 1.5, 1.6, 1.7, 2.1, 2.2, 2.3, 10.1, 10.2 og 10.3.
05.10 Vektorer, seksjon 3.1, 3.2 og deler av 3.3: Vi hadde en gjennomgang av vektorer i planet og vektorer i rommet. Disse kan enten ses på geometrisk, vektorer har retning og lengde, eller vi kan betraktet vektorer ved bruk av koordinater. Vi beskrev sum, differans, skalarmultiplikasjon, norm og prikkprodukt.
03.10 Bevismetoder, se notat: Vi innførte grunnleggende terminologi fra utsagnslogikken: Utsagn, RETT, GALT, operasjonene OG, ELLER, IKKE, implikasjon (Hvis P, så Q) og ekvivalens (P hvis og bare hvis Q). Deretter så vi på ulike bevismetoder. Disse var: Direkte metode, ved eksempel, ved bruk av variable, kontrapositiv metode, bevis ved selvmotsigelse og induksjonsbevis.
28.09 Egenverdier, egenvektorer og en kombinatorisk definisjon av determinanter, seksjon 2.3 og 2.4: Denne forelesningen var todelt. I første halvdel undersøkte vi ligningssystemer på formen:
Axx
Spørsmålet er å finne verdier av λslikt at ligningssystemet har ikketrivielle løsninger for x. Slike λkalles egenverdier, og de tilhørende løsningene for x kalles egenvektorer. En finner egenverdiene ved å sette opp den karakteristiske ligningen,
det(λI-A)=0.
Her er λden ukjente, og løsningene for λer egenverdiene. For hver egenverdi undersøker man systemet
(λI-A)x=0
ved å sette inn den aktuelle verdien for λ. En finner ikketrivielle løsninger for x, dette er de tilhørende egenvektorene.

I andre halvdel av forelesningen så vi hvordan determinanten til en nxn matrise A kan defineres som summen av alle elementære produkter med fortegn. Elementære produkter fra A korresponderer til permutasjoner av {1,2,...,n}, og fortegnet er + dersom permutasjonen har et jevnt antall inversjoner og - dersom permutasjonen har et odde antall permutasjoner.
26.09 Egenskaper til determinantfunksjonen, seksjon 2.3: Vi undersøkte egenskaper til determinanten. Dersom A og B er nxn matriser og k er en skalar, så er det(kA)=kndet(A), og det(AB)=det(A)det(B). Og vi utledet at determinanten til den inverse er gitt ved det(A-1)=1/det(A). Derimot finnes ingen enkel sammenheng mellom det(A), det(B) og det(A+B), generelt er det slik at det(A+B) er ulik det(A)+det(B).
Til slutt hadde vi en oppsummering av ulik bruk av determinanten:
  • Cramers regel,
  • Avgjøre om en matrise A er inverterbar,
  • (Geometrisk tolkning) Hvis A er 2x2 matrise så er |det(A)| arealet til parallelogrammet utspent av kolonnevektorene. Hvis A er 3x3 matrise så er |det(A)| volumet til parallelepipedet utspent av kolonnevektorene. Dette kommer vi tilbake til i kapittel 3.
  • (Seksjon 11.1) Å finne ligningen til kurver og flater gjennom oppgitte punkt.
21.09 Evaluering av determinanter ved radreduksjon, seksjon 2.2: Å beregne determinanter ved kofaktorekspansjon kan være tidkrevende, spesielt om matrisene er store. I denne forelesningen så vi hvordan radoperasjoner kan brukes i beregningen av determinanten. Vi gjorde følgende observasjoner:
  • Dersom A har en rad eller kolonne med 0'er, så er det(A)=0.
  • det(A)=det(AT)
  • Dersom A har to proporsjonale rader eller to proporsjonale kolonner, så er det(A)=0.
  • Dersom B fremkommer fra A ved å multiplisere en rad i A med konstanten k, så er det(B)=k det(A).
  • Dersom B fremkommer fra A ved å bytte om to rader i A, så er det(B)=-det(A).
  • Dersom B fremkommer fra A ved å addere c ganger en rad til en annen rad, så er det(B)=det(A).
  • Tilsvarende regler gjelder også for kolonneoperasjoner.
Ved å bruke disse observasjonene kan en lettere beregne determinanten.
Til sist beviste vi følgende teorem:

Teorem: La A være en kvadratisk matrise. Da er A inverterbar hvis og bare hvis det(A) er ulik 0.
19.09 Determinanter ved kofaktorekspansjon, seksjon 2.1: Determinanten er navnet til en funksjon som til hver kvadratisk matrise tilordner en skalar. Vi gav en rekursiv definisjon av determinanten til A. Det vil si at vi brukte determinanten av 2x2 matriser til å definere determinanten av 3x3 matriser, for å definere determinanten av 4x4 matriser bruker vi determinanten for 3x3 matriser, osv. Utgangspunktet er altså determinanten for 2x2 matriser, og dersom
A= [
a b
c d
],
så er det(A)=ad-bc. Når vi skal beregne determinanten til større matriser kan vi bruke kofaktorekspansjon: Hvis A er en nxn matrise, så er minoren til element aij lik determinanten til (n-1)x(n-1) matrisen som fremkommer fra A ved å stryke rad i og kolonne j. Vi skriver Mij for denne minoren, og den er determinanten til en mindre matrise og kan derfor beregnes. Kofaktoren til element aij , Cij, er lik (-1)i+jMij. (Fortegnet veksler i et sjakkbrettmønster.) Determinanten til A reges ut ved kofaktorekspansjon langs j'te kolonne:
det(A)= a1jC1j+a2jC2j+...+anjCnj,
eller ved kofaktorekspansjon langs i'te rad:
det(A)= ai1Ci1+ai2Ci2+...+ainCin.
Uavhengig av hvilken måte som velges vil en få samme svar.
Kofaktorene og determinanten kan brukes til å skrive opp en formel for A-1. Plasser kofaktorene til A i en matrise, kofaktormatrisen. Den adjungerte matrisen til A er den transponerte av kofaktormatrisen, og vi betegner denne matrisen med adj(A). Dersom det(A) er ulik 0 har vi formelen
A-1= (1/detA) adj(A).

Vi så også hvordan determinanten kan brukes til å skrive ned en formel for løsningen til et lineært system med n ligninger og n ukjente. Denne formelen kalles Cramers regel. La Ax=b være ligningssystemet og anta at det(A) ikke er 0. La Aj være matrisen som fremkommer fra A ved å erstatte j'te kolonne med kolonnevektoren b. Da er
xj=(det Aj)/(det A).
14.09 Diagonale, triangulære og symmetriske matriser, seksjon 1.7: En diagonal matrise er en kvadratisk matrise som har 0'er utenfor hoveddiagonalen. En øvre triangulær matrse er en kvadratisk matrise som har 0'er under hoveddiagonalen. En nedre triangulær matrise er en kvadratisk matrise som har 0'er over hoveddiagonalen. En symmetrisk matrise er en kvadratisk matrise A slik at AT=A. I denne forelesningen studerte vi elementære egenskaper til slike matriser.
12.09 Ligningssystemer og inverser, seksjon 1.6: Vi beviste endel småresultater: "Et ligningssystem har enten ingen løsning, nøyaktig en løsning, eller uendelig mange løsninger.", "Hvis A og B er kvadratiske matriser av samme størrelse og AB=I, så er B invers til A." "Hvis A er inverterbar, så har ligningssystemet Ax=b nøyaktig en løsning, nemlig x=A-1b." Vi utvidet også teoremet fra forrige uke med to nye punkter:
Teorem: Hvis A er en nxn matrise, så er følgende ekvivalent:
  1. A er inverterbar.
  2. Ligningssystemet Ax=0 har kun den trivielle løsningen.
  3. Den reduserte trappeformen til A er I.
  4. A kan skrives som et produkt av elementære matriser.
  5. Ligningssystemet Ax=b er konsistent for alle nx1 matriser b.
  6. Ligningssystemet Ax=b har nøyaktig en løsning for alle nx1 matriser b.

Vi avsluttet med eksempler på matriser av komplekse tall. Se eksempel 6 side 526.
07.09 Elementære matriser, og å finne invers, seksjon 1.5: Vi skrev opp regnereglene for transponerte matriser: (AT)T=A, (A+B)T=AT+BT, (kA)T=kAT, og (AB)T=BTAT. Neste tema var elementære matriser. Dette er de matrisene som fremkommer fra I ved å gjøre nøyaktig en radoperasjon. Dersom A er en matrise og E er elementær, så er produktet EA resultatet av å anvende radoperasjonene tilsvarende E på matrisen A. Merk at elementære matriser er inverterbare. Vi beviste et viktig teorem (bør pugges):
Teorem: Hvis A er en nxn matrise, så er følgende ekvivalent:
  1. A er inverterbar.
  2. Ligningssystemet Ax=0 har kun den trivielle løsningen.
  3. Den reduserte trappeformen til A er I.
  4. A kan skrives som et produkt av elementære matriser.

Til sist beskrev jeg en metode for å finne den inverse til en matrise. Gitt A, så setter vi opp matrisen
[A|I]= [
a11 a12 .. a1n | 1 0 .. 0
a21 a22 .. a2n | 0 1 .. 0
: : .. : | : : .. :
an1 an2 .. ann | 0 0 .. 1
].
Bruk deretter Gauss-Jordan eliminasjon for å finne redusert trappeform av denne matrisen. Hvis A er inverterbar, vil venstre blokk av den reduserte trappeformen være I, mens høyre blokk blir A-1.
05.09 Inverser, Relger for matriseregning, seksjon 1.4: Vi observerte at i matriseregning er faktorenes orden avgjørende: Vanligvis er AB ulik BA. Ellers gjelder de vanlige regneregler: A+B=B+A, A+(B+C)=(A+B)+C, (AB)C=A(BC), A(B+C)=AB+AC, (A+B)C=AC+BC, osv. Vi definerte 0 matriser, og vi har at A+0=A, A-A=0, A0=0, 0A=0. For matriseregning er det eksempler på matriser A, B, og C, med B ulik C, men med AB=AC. Videre er det også eksempler på matriser A og D slik at AD=0, men både A og D ulik 0. Vi definerte identitetsmatriser, I, og vi har at AI=A, IA=A. En kvadratisk matrise A kalles inverterbar dersom det finnes en matrise B av samme størrelse slik at AB=I og BA=I. I så fall kalles B den inverse til A. Hvis ingen slik B finnes sier vi at A er singulær. Vi ga en formel for den inverse til en 2x2-matrise.
31.08 Matriseoperasjoner, seksjon 1.3: Først så vi på homogene lineære systemer. Slike har alltid den trivielle løsningen. Spørsmålet er hvorvidt det finnes flere løsninger. Deretter begynte vi med matriseregning. En matrise er en rektangulær tabell med tall. Størrelsen er antall rader ganger antall kolonner. Matriser av samme størrelse kan adderes og subtraheres. Vi har skalar multiplikasjon av et tall med en matrise. Vi definerte også matrisemultiplikasjon. Produktet AB er definert dersom antall kolonner i A er lik antall rader i B. Til sist definerte vi den transponerte matrisen og trasen til en kvadratisk matrise.
29.08 Lineære ligninger, seksjon 1.1 og 1.2: Vi studerer lineære systemer. Slike systemer kan ha ingen løsning, nøyaktig en løsning eller uendelig mange løsninger. Et lineært system er konsistent dersom det har løsning, og inkonsistent dersom det ikke har løsninger. For å løse et lineært system, skrev vi opp den tilhørende utvidede matrisen og anvente elementære radoperasjoner. Vi endte opp med en matrise på redusert trappeform (reduced row-echelom form). Denne algoritmen kalles Gauss-Jordan eliminasjon (eller Gaussing). For et lineært system, med utvidet matrise på redusert trappeform, er det enkelt å lese av den generelle løsningen.
24.08 Komplekse tall, seksjon 10.3: Vi skrev komplekse tall på polar form, og utledet en geometrisk tolkning av multiplikasjon (multipliser modulusene og adder argumentene). Vi så på DeMoivres formel og brukte denne til å trekke n'te røtter av komplekse tall.
22.08 Komplekse tall, seksjon 10.1 og 10.2: Vi definerte komplekse tall. Disse kan ses på som punkt eller vektorer i det kompekse plan. De fire regneartene for komplekse tall. Konjugasjon. Modulus.

Forelesningstider:
Mandag 15:15 - 17:00 i auditorium S7
Onsdag 15:15 - 17:00 i auditorium VE1
Forside Forelesninger Øvinger Grupper Om kurset
 

----------------
Redaktør: Instituttleder    Kontaktadresse: Tore August Kro    Last modified: 17.11.2005