21.11 |
Gjennomgang
av gamle eksamensoppgaver: Vi fortsetter på
eksamen
våren 2004, deretter starter vi på
eksamen
høsten 2004. |
16.11 |
Gjennomgang
av gamle eksamensoppgaver: Vi løste oppgavene 1, 2, 4 og 5 fra
høsten
2003 og oppgavene 1 og 2 fra
våren
2004. |
14.11 |
Kjeglesnitt, seksjon 9.6: Kjeglesnitt kan beskrives som
løsningsmengdene til ligninger på formen:
hvor a, b, c, d, e og f er konstanter. De
ikke-degenererte kjeglesnitt er ellipser, hyperbler og parabler.
Problemstillingen er å avgjøre hva slags kjeglesnitt en gitt
ligning representerer og å skissere dette kjeglesnittet. Dette
gjøres ved å skifte koordinater slik at ligningen forenkles.
Dersom ligningen har et xy-ledd, må kjeglesnittet roteres slik at dette
leddet forsvinner. Man utfører ortogonal diagonalisering på den
tilhørende kvadratiske formen. I det nye koordinatsystemet vil ligningen
representere et muligens forflyttet kjeglesnitt. Ved å fullføre
kvadratene flytter man kjeglesnittet slik at det sentreres i origo. Da blir det
lett å se hvilken type kjeglesnitt man har. |
09.11 |
Kvadratiske
former, seksjon 9.5: En kvadratisk form i to variable er et uttrykk på
formen
Det kan også skrives på
matriseform xTAx, hvor x er kolonnevektoren
og A er matrisen
Typiske problemer for kvadratiske former er
- å finne maksimum og minimum for
xTAx når x er en enhetsvektor og
- å beskrive de A slik at
xTAx≥0 .
Det første problemet besvares av
følgende teorem: Teorem: La A være en symmetrisk 2x2 matrise med egenverdier
λ1≥λ2. Hvis x er en enhetsvektor,
så er
- λ1≥xTAx≥λ2
og
- xTAx=λ1
dersom x er en enhetsvektor tilhørende λ1 og
xTAx=λ2 dersom x er en
enhetsvektor tilhørende λ2.
For det andre problemet innfører vi
definisjonen positivt definitt. Definisjon: En kvadratisk form
xTAx kalles positivt definitt dersom
xTAx>0 for alle x≠0, og A kalles da en
positivt definitt matrise. Vi har følgende
teorem: Teorem: En symmetrisk 2x2 matrise A er
positivt definitt hvis og bare hvis egenverdiene er positive. |
07.11 |
Avlyst
på grunn av sykdom. |
02.11 |
Ortogonal
diagonalisering, fra
notat:
En ortogonal matrise P er en kvadratisk matrise slik at PTP=I. De
ortogonale 2x2 matrisene er rotasjoner og refleksjoner.
Et viktig problem er å avgjøre om en matrise A kan ortogonalt
diagonaliseres. Vi sier at en kvadratisk matrise A er ortogonalt
diagonaliserbar dersom det finnes en ortogonal matrise P slik at
er en diagonal matrise. Følgende
teorem sier at det er lett å avgjøre om en kvadratisk matrise A er
ortogonalt diagonaliserbar: Teorem: En kvadratisk matrise A er
ortogonalt diagonaliserbar hvis og bare hvis A er symmetrisk. I anvendelser
er vi også interessert i å finne en ortogonal matrise P som
diagonaliserer A. Vi har følgende resultat: Teorem: La A
være en symmetrisk 2x2 matrise med egenverdier
λ1≠λ2. Finn tilhørende
egenvektorer v1 og v2 med norm 1. Da er
matrisen P=[v1 | v2] ortogonal og
PTAP=D er diagonalmatrisen som har λ1 og
λ2 på diagonalen. |
31.10 |
Egenverdier, egenvektorer og diagonalisering, slutten av seksjon
4.3 og notat om
egenverdier (se også kapittel 7): Vi repeterte egenverdier og
egenvektorer: For lineære operatorer kan vi formulere definisjonen slik:
Dersom T: Rn→Rn er en lineær operator,
λ en skalar og x en vektor i Rn ulik 0 slik at
da kalles λ en egenverdi for T, og
x kalles en egenvektor til T korresponderende til λ . Vi finner
egenverdier ved å løse den karakteristiske ligningen
Egenverdier og egenvektorer brukes til
å diagonalisere matriser A. Vi sier at en kvadratisk matrise A er
diagonaliserbar hvis det finnes en inverterbar matrise P av samme
størrelse slik at
er en diagonal matrise. Følgende
teorem sier oss hvordan vi i mange tilfeller kan finne P når A er en
2x2 matrise: Teorem: La A være en 2x2 matrise. Anta at λ1 og
λ2 er to ulike egenverdier for A med tilhørende
ikketrivielle egenvektorer v1 og v2. La P
være matrisen som har disse egenvektorene som kolonner. Da er P
inverterbar og
hvor D er diagonalmatrisen med
λ1 og λ2 på diagonalen. |
26.10 |
Egenskaper
til lineære transformasjoner, seksjon 4.3: Vi definerte hva det vil si at
en lineær transformasjon T: Rn→Rm er
1-1, nemlig at for hver y i bildet finnes nøyaktig en
x i definisjonsmengden slik at T(x)=y. Videre kalles en
lineær transformasjon T: Rn→Rm
på, det vi si at bildet er hele Rm, dersom for hver
y i Rm finnes minst en x i definisjonsmengden slik at
T(x)=y. Eksemplevis er en rotasjon i R2 både 1-1
og på, mens projeksjonene i R3 ned på xy-planet er
hverken 1-1 eller på. Teorem: Dersom T:
Rn→Rn er en lineær operator så er
følgende ekvivalent:
- Standardmatrisen [T] til T er
inverterbar.
- T er 1-1.
- Bildet til T er hele Rn, med andre
ord er T på.
|
24.10 |
Lineære transformasjoner, seksjon 4.2: En lineær
transformasjon T: Rn→Rm kan beskrives som å
multiplisere en kolonnevektor x i Rn med en mxn matrise. Denne matrisen kalles standardmatrisen til
T og vi har notasjonen [T]. Omvendt - dersom A er en matrise, så betegner
vi den lineære transformasjonen å multiplisere med A ved
TA. Vi ga endel eksempler på lineære
transformasjoner. Vi har:
- nulltransformasjonen,
- identitetsoperatoren,
- refleksjonsoperatorer,
- projeksjonsoperatorer,
- rotasjonsoperatorer og
- skaleringsoperatorer.
En kan sette sammen lineære
transformasjoner. Dersom T1: Rn→Rk og
T2: Rk→Rm, så kan vi definere
T2∘T1 ved
Merk at sammensetning tilsvarer
matrisemultiplikasjon, og at sammensetningens rekkefølge er
vesentlig. |
19.10 |
Euklidske
n-rommet, seksjon 4.1: Det Euklidske n-rommet Rn består av
ordnede n-tupler (u1, u2, ... , un) av reelle
tall. Vi kan addere slike tupler, vi har skalar multiplikasjon, Euklidsk
indreprodukt og norm. Vi beviste Cauchy-Schwarz' ulikhet. Denne sier at for
alle u og v i Rn, så er
Trekantulikheten er en konsekvens av
Cauchy-Schwarz' ulikhet, og den sier at den korteste veien mellom to punkt er
den rette linje. For vektorer u og v i Rn er:
Vi definerer at to vektorer er ortogonale
dersom u·v=0. Da gjelder Pythagoras' læresetning
også i det Euklidske n-rommet. Merk at n-tupler også kan skrives
som matriser; enten som en radvektor eller som en kolonnevektor. Hvis vi bruker
kolonnevektornotasjonen så kan prikk-produktet skrives som et
matriseprodukt ved formelen:
|
17.10 |
Linjer og
plan i R3, seksjon 3.4 og 3.5: Vi startet med å gi en
geometrisk tolkning av kryssproduktet: Gitt u og v, så er
u×v den entydige vektoren karakterisert av
- u×v står normalt
på både u og v,
- u, v og u×v
utgjør et høyrehåndssystem, og
- lengden av u×v er lik
arealet av parallellogrammet utspent av u og v.
Vi ga deretter en geometrisk tolkning av
2x2- og 3x3-determinanter.
Absoluttverdien til determinanten er arealet/volumet til
parallellogrammet/parallellepipedet utspent av radvektorene. Etter dette
studerte vi anvendelser. Disse var:
- Bruke kryssproduktet til å
avgjøre om to vektorer i rommet er parallelle.
- Bruke determinanten til å
avgjøre om tre vektorer ligger i samme plan.
- Finne ligningen til et plan gjennom et punkt
P og med normalvektor n.
- Finne ligningen til et plan gjennom tre
oppgitte punkt.
- Parameterfremstilling av en linje i
rommet.
- Finne snittpunktet mellom en linje og et
plan.
- Finne parameterfremstilling for snittlinja
til to plan.
- Finne avstanden mellom et punkt og et
plan.
- Finne avstanden mellom to linjer i
rommet.
|
12.10 |
Projeksjoner og kryssprodukt, seksjon 3.3 og 3.4: Vi gjennomgikk
midtsemesterprøven
i første time. I andre time beskrev vi projeksjonen av en vektor
u ned på en annen vektor a. Vi har formelen
Vi kan blant annet bruke projeksjonen til
å finne avstanden fra et punkt til en linje. Vi definerte også
kryssproduktet av to vektorer i rommet. La i=(1,0,0), j=(0,1,0)
og k=(0,0,1). Gitt u=(u1,u2,u3)
og v=(v1,v2,v3), så definerer vi
Vi utledet endel egenskaper til
kryssproduktet, merk spesielt at
- u×v=-v×u
- ||u×v||2=||u||2||v||2-(u·v)2
- ||u×v||=||u||
||v|| sin θ
- u×v står normalt
på både u og v.
|
10.10 |
Midtsemesterprøve: Pensum seksjonene 1.1, 1.2, 1.3, 1.4,
1.5, 1.6, 1.7, 2.1, 2.2, 2.3, 10.1, 10.2 og 10.3. |
05.10 |
Vektorer,
seksjon 3.1, 3.2 og deler av 3.3: Vi hadde en gjennomgang av vektorer i planet
og vektorer i rommet. Disse kan enten ses på geometrisk, vektorer har
retning og lengde, eller vi kan betraktet vektorer ved bruk av koordinater. Vi
beskrev sum, differans, skalarmultiplikasjon, norm og prikkprodukt. |
03.10 |
Bevismetoder,
se notat: Vi innførte grunnleggende terminologi fra utsagnslogikken:
Utsagn, RETT, GALT, operasjonene OG, ELLER, IKKE, implikasjon (Hvis P, så
Q) og ekvivalens (P hvis og bare hvis Q). Deretter så vi på ulike
bevismetoder. Disse var: Direkte metode, ved eksempel, ved bruk av variable,
kontrapositiv metode, bevis ved selvmotsigelse og induksjonsbevis. |
28.09 |
Egenverdier, egenvektorer og en kombinatorisk definisjon av
determinanter, seksjon 2.3 og 2.4: Denne forelesningen var todelt. I
første halvdel undersøkte vi ligningssystemer på formen:
Spørsmålet er å finne
verdier av λslikt at ligningssystemet har ikketrivielle løsninger
for x. Slike λkalles egenverdier, og de tilhørende
løsningene for x kalles egenvektorer. En finner
egenverdiene ved å sette opp den karakteristiske ligningen,
Her er λden ukjente, og
løsningene for λer egenverdiene. For hver egenverdi
undersøker man systemet
ved å sette inn den aktuelle verdien
for λ. En finner ikketrivielle løsninger for x, dette er
de tilhørende egenvektorene.
I andre halvdel av forelesningen
så vi hvordan determinanten til en nxn matrise A
kan defineres som summen av alle elementære produkter med fortegn.
Elementære produkter fra A korresponderer til permutasjoner av
{1,2,...,n}, og fortegnet er + dersom permutasjonen har et jevnt antall
inversjoner og - dersom permutasjonen har et odde antall permutasjoner. |
26.09 |
Egenskaper
til determinantfunksjonen, seksjon 2.3: Vi undersøkte egenskaper til
determinanten. Dersom A og B er nxn matriser og k er en
skalar, så er det(kA)=kndet(A), og det(AB)=det(A)det(B). Og vi
utledet at determinanten til den inverse er gitt ved
det(A-1)=1/det(A). Derimot finnes ingen enkel sammenheng mellom
det(A), det(B) og det(A+B), generelt er det slik at det(A+B) er ulik
det(A)+det(B). Til slutt hadde vi en oppsummering av ulik bruk av
determinanten:
- Cramers regel,
- Avgjøre om en matrise A er
inverterbar,
- (Geometrisk tolkning) Hvis A er 2x2 matrise så er |det(A)| arealet til parallelogrammet
utspent av kolonnevektorene. Hvis A er 3x3 matrise
så er |det(A)| volumet til parallelepipedet utspent av kolonnevektorene.
Dette kommer vi tilbake til i kapittel 3.
- (Seksjon 11.1) Å finne ligningen til
kurver og flater gjennom oppgitte punkt.
|
21.09 |
Evaluering
av determinanter ved radreduksjon, seksjon 2.2: Å beregne determinanter
ved kofaktorekspansjon kan være tidkrevende, spesielt om matrisene er
store. I denne forelesningen så vi hvordan radoperasjoner kan brukes i
beregningen av determinanten. Vi gjorde følgende observasjoner:
- Dersom A har en rad eller kolonne med 0'er,
så er det(A)=0.
- det(A)=det(AT)
- Dersom A har to proporsjonale rader eller to
proporsjonale kolonner, så er det(A)=0.
- Dersom B fremkommer fra A ved å
multiplisere en rad i A med konstanten k, så er det(B)=k det(A).
- Dersom B fremkommer fra A ved å bytte
om to rader i A, så er det(B)=-det(A).
- Dersom B fremkommer fra A ved å addere
c ganger en rad til en annen rad, så er det(B)=det(A).
- Tilsvarende regler gjelder også for
kolonneoperasjoner.
Ved å bruke disse observasjonene kan en
lettere beregne determinanten. Til sist beviste vi følgende
teorem:
Teorem: La A være en kvadratisk matrise. Da er A
inverterbar hvis og bare hvis det(A) er ulik 0. |
19.09 |
Determinanter ved kofaktorekspansjon, seksjon 2.1: Determinanten
er navnet til en funksjon som til hver kvadratisk matrise tilordner en skalar.
Vi gav en rekursiv definisjon av determinanten til A. Det vil si at vi brukte
determinanten av 2x2 matriser til å definere
determinanten av 3x3 matriser, for å definere
determinanten av 4x4 matriser bruker vi determinanten
for 3x3 matriser, osv. Utgangspunktet er altså
determinanten for 2x2 matriser, og dersom
så er det(A)=ad-bc. Når vi skal
beregne determinanten til større matriser kan vi bruke
kofaktorekspansjon: Hvis A er en nxn matrise, så
er minoren til element aij lik determinanten til (n-1)x(n-1) matrisen som fremkommer fra A ved å stryke rad i
og kolonne j. Vi skriver Mij for denne minoren, og den er
determinanten til en mindre matrise og kan derfor beregnes. Kofaktoren til
element aij , Cij, er lik
(-1)i+jMij. (Fortegnet veksler i et
sjakkbrettmønster.) Determinanten til A reges ut ved kofaktorekspansjon
langs j'te kolonne:
det(A)=
a1jC1j+a2jC2j+...+anjCnj, |
eller ved kofaktorekspansjon langs i'te
rad:
det(A)=
ai1Ci1+ai2Ci2+...+ainCin. |
Uavhengig av hvilken måte som velges
vil en få samme svar. Kofaktorene og determinanten kan brukes til
å skrive opp en formel for A-1. Plasser kofaktorene til A i en
matrise, kofaktormatrisen. Den adjungerte matrisen til A er den transponerte av
kofaktormatrisen, og vi betegner denne matrisen med adj(A). Dersom det(A) er
ulik 0 har vi formelen
Vi så også hvordan
determinanten kan brukes til å skrive ned en formel for løsningen
til et lineært system med n ligninger og n ukjente. Denne formelen kalles
Cramers regel. La Ax=b være ligningssystemet og anta
at det(A) ikke er 0. La Aj være matrisen som fremkommer fra A
ved å erstatte j'te kolonne med kolonnevektoren b. Da er
|
14.09 |
Diagonale,
triangulære og symmetriske matriser, seksjon 1.7: En diagonal matrise er
en kvadratisk matrise som har 0'er utenfor hoveddiagonalen. En øvre
triangulær matrse er en kvadratisk matrise som har 0'er under
hoveddiagonalen. En nedre triangulær matrise er en kvadratisk matrise som
har 0'er over hoveddiagonalen. En symmetrisk matrise er en kvadratisk matrise A
slik at AT=A. I denne forelesningen studerte vi elementære
egenskaper til slike matriser. |
12.09 |
Ligningssystemer og inverser, seksjon 1.6: Vi beviste endel
småresultater: "Et ligningssystem har enten ingen løsning,
nøyaktig en løsning, eller uendelig mange løsninger.",
"Hvis A og B er kvadratiske matriser av samme størrelse og AB=I,
så er B invers til A." "Hvis A er inverterbar, så har
ligningssystemet Ax=b nøyaktig en løsning, nemlig
x=A-1b." Vi utvidet også teoremet fra forrige
uke med to nye punkter: Teorem: Hvis A er en nxn matrise, så er følgende ekvivalent:
- A er inverterbar.
- Ligningssystemet Ax=0 har kun
den trivielle løsningen.
- Den reduserte trappeformen til A er I.
- A kan skrives som et produkt av
elementære matriser.
- Ligningssystemet Ax=b er
konsistent for alle nx1 matriser b.
- Ligningssystemet Ax=b har
nøyaktig en løsning for alle nx1 matriser
b.
Vi avsluttet med eksempler på
matriser av komplekse tall. Se eksempel 6 side 526. |
07.09 |
Elementære matriser, og å finne invers, seksjon 1.5:
Vi skrev opp regnereglene for transponerte matriser:
(AT)T=A, (A+B)T=AT+BT,
(kA)T=kAT, og
(AB)T=BTAT. Neste tema var elementære
matriser. Dette er de matrisene som fremkommer fra I ved å gjøre
nøyaktig en radoperasjon. Dersom A er en matrise og E er
elementær, så er produktet EA resultatet av å anvende
radoperasjonene tilsvarende E på matrisen A. Merk at elementære
matriser er inverterbare. Vi beviste et viktig teorem (bør
pugges): Teorem: Hvis A er en nxn matrise,
så er følgende ekvivalent:
- A er inverterbar.
- Ligningssystemet Ax=0 har kun
den trivielle løsningen.
- Den reduserte trappeformen til A er I.
- A kan skrives som et produkt av
elementære matriser.
Til sist beskrev jeg en metode for å
finne den inverse til en matrise. Gitt A, så setter vi opp matrisen
[A|I]= |
[ |
a11 |
a12 |
.. |
a1n |
| |
1 |
0 |
.. |
0 |
a21 |
a22 |
.. |
a2n |
| |
0 |
1 |
.. |
0 |
: |
: |
.. |
: |
| |
: |
: |
.. |
: |
an1 |
an2 |
.. |
ann |
| |
0 |
0 |
.. |
1 |
|
]. |
Bruk deretter Gauss-Jordan eliminasjon for
å finne redusert trappeform av denne matrisen. Hvis A er inverterbar, vil
venstre blokk av den reduserte trappeformen være I, mens høyre
blokk blir A-1. |
05.09 |
Inverser, Relger for matriseregning, seksjon 1.4:
Vi observerte at i matriseregning er faktorenes orden avgjørende:
Vanligvis er AB ulik BA. Ellers gjelder de vanlige regneregler: A+B=B+A,
A+(B+C)=(A+B)+C, (AB)C=A(BC), A(B+C)=AB+AC, (A+B)C=AC+BC, osv. Vi definerte 0
matriser, og vi har at A+0=A, A-A=0, A0=0, 0A=0. For matriseregning er det
eksempler på matriser A, B, og C, med B ulik C, men med AB=AC. Videre er
det også eksempler på matriser A og D slik at AD=0, men både
A og D ulik 0. Vi definerte identitetsmatriser, I, og vi har at AI=A, IA=A. En
kvadratisk matrise A kalles inverterbar dersom det finnes en matrise B
av samme størrelse slik at AB=I og BA=I. I så fall kalles B den
inverse til A. Hvis ingen slik B finnes sier vi at A er
singulær. Vi ga en formel for den inverse til en 2x2-matrise.
|
31.08 |
Matriseoperasjoner, seksjon 1.3: Først så vi på
homogene lineære systemer. Slike har alltid den trivielle
løsningen. Spørsmålet er hvorvidt det finnes flere
løsninger. Deretter begynte vi med matriseregning. En matrise er en
rektangulær tabell med tall. Størrelsen er antall rader ganger
antall kolonner. Matriser av samme størrelse kan adderes og subtraheres.
Vi har skalar multiplikasjon av et tall med en matrise. Vi definerte også
matrisemultiplikasjon. Produktet AB er definert dersom antall kolonner i A er
lik antall rader i B. Til sist definerte vi den transponerte matrisen og trasen
til en kvadratisk matrise. |
29.08 |
Lineære ligninger, seksjon 1.1 og 1.2: Vi studerer
lineære systemer. Slike systemer kan ha ingen løsning,
nøyaktig en løsning eller uendelig mange løsninger. Et
lineært system er konsistent dersom det har løsning, og
inkonsistent dersom det ikke har løsninger. For å løse et
lineært system, skrev vi opp den tilhørende utvidede matrisen og
anvente elementære radoperasjoner. Vi endte opp med en matrise på
redusert trappeform (reduced row-echelom form). Denne algoritmen kalles
Gauss-Jordan eliminasjon (eller Gaussing). For et lineært system, med
utvidet matrise på redusert trappeform, er det enkelt å lese av den
generelle løsningen. |
24.08 |
Komplekse
tall, seksjon 10.3: Vi skrev komplekse tall på polar form, og utledet en
geometrisk tolkning av multiplikasjon (multipliser modulusene og adder
argumentene). Vi så på DeMoivres formel og brukte denne til å
trekke n'te røtter av komplekse tall. |
22.08 |
Komplekse
tall, seksjon 10.1 og 10.2: Vi definerte komplekse tall. Disse kan ses på
som punkt eller vektorer i det kompekse plan. De fire regneartene for komplekse
tall. Konjugasjon. Modulus. |
|
|