Redigerer
Matrise
Hopp til navigering
Hopp til søk
Advarsel:
Du er ikke innlogget. IP-adressen din vil bli vist offentlig om du redigerer. Hvis du
logger inn
eller
oppretter en konto
vil redigeringene dine tilskrives brukernavnet ditt, og du vil få flere andre fordeler.
Antispamsjekk.
Ikke
fyll inn dette feltet!
[[Fil:macierz_ikona.png|thumb|''(n'' × ''m)''-matrise med elementer <math>a_{ij}</math>]] En '''matrise''' i [[matematikk]] er et rektangulært sett av elementer, ordnet i rekker og kolonner.<ref name=CO>{{Kilde bok| forfatter=E.J.Borowski, J.M.Borwein| utgivelsesår=1989| tittel=Dictionary of mathematics| utgivelsessted=Glasgow| forlag=Collins| side=366-367| isbn=0-00-434347-6}}</ref><ref name=HL1>[[#HL| H. Lütkepohl: ''Handbook of matrices'']] s.1 </ref> Elementene er vanligvis [[reelt tall|reelle]] eller [[komplekst tall|komplekse tall]], men kan også være mer generelle objekter i en [[kropp (matematikk) | kropp]] eller en [[ring (matematikk) | ring]]. Et eksempel på en matrise er vist i figuren til høyre. En ''(n'' × ''m)''-matrise har ''n'' rekker eller rader og ''m'' kolonner eller søyler, og ''dimensjonen'' til matrisen sies å være ''n'' × ''m''. En matrise med like mange rader som kolonner kalles en ''kvadratisk matrise''. ''Rangen'' til en matrise er det største antallet [[lineær uavhengighet|lineært uavhengige]] rader eller kolonner i matrisen. Matriser har et stort anvendelsesområde i matematikk og også i andre fagfelt, som fysikk og kjemi. Viktige grunner for dette er nær sammenheng mellom matriser og lineære algebraiske ligninger samt matriser og [[lineær transformasjon|lineære transformasjoner]]. Praktiske problemstillinger kan lede til svært store matriser, der millionvis av elementer ikke er uvanlig. På grunn av det store bruksområdet, er det lagt ned en stor innsats i å utvikle effektive beregningsmetoder for matriser. I matematikk er grunnleggende teori for matriser en del av fagfeltet [[lineær algebra]], men de studeres også i andre spesialområder, som i [[numerisk analyse|numerisk matematikk]]. Det er utviklet en rik terminologi for matrisetyper og matrise-egenskaper. Matriser som består av kun én kolonne eller én rekke svarer til [[vektor (matematikk) |vektorer]], mens en [[tensor]] kan betraktes som en generalisering av en matrise fra to dimensjoner (rekker, kolonner) til tre eller flere dimensjoner. == Notasjon og terminologi for generelle matriser == === Dimensjon === En matrise betegnes vanligvis med en stor bokstav <math>A</math>, ofte også med fet skrift <math>\mathbf{A}</math>. [[Dimensjon|Dimensjonen]] eller ordenen til matrisen er ''(n'' × ''m)'', når ''n'' er antallet rekker og ''m'' er antallet kolonner. Dette kan markeres på flere måter:<ref name=HL1/> :<math>A_{nm} \qquad A_{n,m} \qquad A_{n \times m} \qquad A(n \times m) </math>. Tilsvarende sier en også at ''n'' er rekke-dimensjonen og ''m'' er kolonne-dimensjonen. Matrisen karakteriseres som en ''(n'' × ''m)''-matrise. I en kvadratisk matrise er det like mange kolonner som rekker. Dersom det går klart fram at en matrise er kvadratisk, kan en oppgi dimensjonen som ''n''.<ref name=FB4>[[#FB| Fr. Fabricius-Bjerre: ''Lærebog i geometri....'']] s.4 </ref> En matrise med bare én rekke eller én søyle kan betraktes som en [[vektor (matematikk)|vektor]] og kalles da henholdsvis en rekkematrise og en søylematrise, alternativ en rekkevektor og en søylevektor.<ref name=FB124>[[#FB| Fr. Fabricius-Bjerre: ''Lærebog i geometri....'']] s.124 </ref> Dimensjonen til disse vil være henholdsvis (1 × ''m)'' og (''n'' × 1). === Matrise-elementer === I en reell matrise er elementene reelle tall, og i en kompleks matrise er elementene komplekse. Mengden av alle reelle matriser skrives som <math>\mathbb{R}^{n \times m}</math>, der <math>\mathbb{R}</math> er mengden av reelle tall. Mengden av komplekse matriser skrives tilsvarende som <math>\mathbb{C}^{n \times m}</math>.<ref name=HLX1>[[#HL| H. Lütkepohl: ''Handbook of matrices'']] s.xiv </ref> Flere alternative skrivemåter for å spesifisere matriser er i vanlig bruk. Dersom alle elementene skal skrives ut, bruker en som regel en form for parenteser til å omslutte elementene: :<math> A = \begin{bmatrix} 1 & 3 & 2 \\ 1 & 0 & 0 \end{bmatrix} \qquad A = \begin{pmatrix} 1 & 3 & 2 \\ 1 & 0 & 0 \end{pmatrix} \qquad A = \begin{Bmatrix} 1 & 3 & 2 \\ 1 & 0 & 0 \end{Bmatrix} </math> En generell ''(n'' × ''m)''-matrise med ''n'' rekker og ''m'' kolonner kan skrives på formen :<math> A= \begin{bmatrix} a_{11} & a_{12} & \cdots & a_{1m} \\ a_{21} & a_{22} & \cdots & a_{2m} \\ \vdots & \vdots & \ddots & \vdots \\ a_{n1} & a_{n2} & \dots & a_{nm} \end{bmatrix} </math> Matrise-elementene skrives ofte med liten bokstav, og hvert element er definert ved to indekser: <math>a_{ij}</math> er elementet i rekke nummer <math>i</math> og kolonne nummer <math>j</math>. Matriser kan også skrives i kompakt form, uten å definere hvert enkelt element: :<math> A = \begin{bmatrix} a_{ij} \end{bmatrix}_{nm} \qquad A = \begin{bmatrix} a_{ij} \end{bmatrix}_{n,m} \qquad A = \begin{bmatrix} a_{ij} \end{bmatrix}_{n \times m} </math> De enkelte elementene kan spesifiseres ved hjelp av en regel, som i det følgende eksempelet: : <math> A = \begin{bmatrix} i-j \end{bmatrix}_{3,3} = \begin{bmatrix} 0 & -1 & -2 \\ 1 & 0 & -1 \\ 2 & 1 & 0 \end{bmatrix} </math> === Diagonaler === I en kvadratisk matrise utgjør elementene <math>a_{ij}</math> med <math>i=j</math> prinsipaldiagonalen eller hoveddiagonalen, ofte omtalt bare som diagonalen.<ref name=HL1/> Sekundærdialogen eller skjevdiagonalen går fra øvre høyre hjørne til nedre vestre hjørne, det vil si elementene <math>a_{1+i,n-i}</math>.<ref name=HL273>[[#HL| H. Lütkepohl: ''Handbook of matrices'']] s.273</ref><ref name=WM1>{{kilde www| url=https://mathworld.wolfram.com/SkewDiagonal.html |tittel=Skew Diagonal |utgiver=Wolfram MathWorld |besøksdato=2022-02-08 }}</ref> Sammen med hoveddiagonalen kan en definere sidediagonaler, der <math>(i - j) = \mathrm{konstant}</math> eller <math>(j - i) = \mathrm{konstant}</math>. Diagonalen med <math>(j - i) = 1</math>, det vil si diagonalen rett over hoveddiagonalen, kalles superdiagonalen.<ref name=WM2>{{kilde www| url=https://mathworld.wolfram.com/Superdiagonal.html |tittel=Superdiagonal |utgiver=Wolfram MathWorld |besøksdato=2022-02-08 }}</ref> Tilsvarende kan en definere subdiagonalen som diagonalen rett under hoveddiagonalen. === Undermatriser === Fra en generell matrise kan en definere en undermatrise eller en submatrise ved å slette at antall rekker og/eller søyler.<ref name=FB101/> Det følgende eksempelet viser hvordan en undermatrise er laget fra matrisen <math>A</math> ved å slette en enkelt rad og en enkelt søyle, vist i rød farge; :<math>\mathbf{A}=\begin{bmatrix} 1 & \color{red}{2} & 3 & 4 \\ 5 & \color{red}{6} & 7 & 8 \\ \color{red}{9} & \color{red}{10} & \color{red}{11} & \color{red}{12} \end{bmatrix} \rightarrow \begin{bmatrix} 1 & 3 & 4 \\ 5 & 7 & 8 \end{bmatrix}. </math> === Blokkmatriser === En matrise definert ved et sett av undermatriser kalles en blokkmatrise eller en partisjonert matrise.<ref name=HL1/> I det følgende eksempelet er en blokkmatrise <math>A</math> definert ved fire undermatriser <math>B,C,E,F</math>: :<math>A = \begin{bmatrix} B & C \\ E & F \\ \end{bmatrix}, \qquad \qquad B = \begin{bmatrix} 1 & 1 & 1 \\ 1 & 1 & 1 \\ 1 & 1 & 1 \end{bmatrix}, \qquad C = \begin{bmatrix} 2 & 2 \\ 2 & 2 \\ 2 & 2 \end{bmatrix}, \qquad E = \begin{bmatrix} 3 & 3 & 3 \\ 3 & 3 & 3 \end{bmatrix}, \qquad F = \begin{bmatrix} 4 & 4 \\ 4 & 4 \end{bmatrix} . </math> Skrevet med alle elementene fullt ut, er matrisen gitt ved :<math> A = \begin{bmatrix} 1 & 1 & 1 & 2 & 2 \\ 1 & 1 & 1 & 2 & 2 \\ 1 & 1 & 1 & 2 & 2 \\ 3 & 3 & 3 & 4 & 4 \\ 3 & 3 & 3 & 4 & 4 \end{bmatrix} . </math> == Matriseoperasjoner == === Elementære operasjoner === De følgende rekkeoperasjonene er kalt de elementære rekkeoperasjonene:<ref name=HL12>[[#HL| H. Lütkepohl: ''Handbook of matrices'']] s.12 </ref> * Ombytting av to rekker i matrisen. * [[Multiplikasjon]] av alle elementene i en rekke med et tall ulik null. * Addisjon av et multiplum av en rekke til en annen rekke. De elementære søyleoperasjonene er definert tilsvarende. Sammen utgjør disse de elementære matriseoperasjonene. === Addisjon og subtraksjon === To matriser <math>A</math> og <math>B</math> med samme dimensjon kan adderes ved å summere de enkelte elementene:<ref name=HL3>[[#HL| H. Lütkepohl: ''Handbook of matrices'']] s.3 </ref> : <math> \begin{alignat}{2} A &= \begin{bmatrix}a_{ij}\end{bmatrix}_{nm} \\ B &= \begin{bmatrix}b_{ij}\end{bmatrix}_{nm} \end{alignat} \qquad C = A + B = \begin{bmatrix}a_{ij} + b_{ij}\end{bmatrix}_{nm} </math> [[Subtraksjon]] defineres tilsvarende. Fra definisjonen følger det umiddelbart at matriseaddisjon er [[kommutativ lov|kommutativ]], det vil si at <math>A + B = B + A</math>. === Skalarmultiplikasjon === Multiplikasjon med en [[skalar]] <math>k</math> er definert ved å multiplisere alle elementene i matrisen:<ref name=HL3/> : <math> k A = \begin{bmatrix}k a_{ij}\end{bmatrix}_{nm} </math> De to operasjonene matriseaddisjon og skalarmultiplikasjon gjør at mengden av ''(n''×''m)''-matriser definerer et [[vektorrom]]. === Matrisemultiplikasjon === Dersom <math>A</math> er en ''(n''×''m)''-matrise og <math>B</math> er en ''(m''×''p)''-matrise, så kan produktmatrisen <math>C = A B</math> defineres ved at matrise-elementene til <math>C</math> er gitt ved summen<ref name=HL3/> : <math>c_{ik} = \Sigma_{j=1}^m a_{ij} b_{jk}</math>. Her er <math>a_{ij}</math> og <math>b_{jk}</math> matrise-elementene til <math>A</math> og <math>B</math>. Produktmatrisen ''C'' er en ''(n''×''p)''-matrise. Matrisemultiplikasjon er [[assosiativ lov|assosiativ]], slik at <math>(AB)C = A(BC)</math>, når matrisene <math>A</math>, <math>B</math> og <math>C</math> er slik at multiplikasjonene er definert. Videre er multiplikasjon [[distributiv lov|distributiv]] med hensyn på addisjon, slik at <math>(A + B)C = AC + BC</math> og <math>A(B+ C) = AB + AC</math>. Derimot er multiplikasjonen ikke kommutativ, slik at <math>AB</math> generelt ikke er lik <math>BA</math>. Produktene <math>AB</math> og <math>BA</math> vil bare være definert samtidig dersom <math>A</math> har dimensjonen ''(n'' × ''m)'' og <math>B</math> har dimensjonen ''(m'' × ''n)''. Dette er tilfelle dersom begge matrisene er kvadratiske. Et [[indreprodukt|skalarprodukt]] mellom to vektorer kan betraktes som et produkt av en rekkematrise og en søylematrise. Matriseproduktet kan en dermed se på som en generalisering av skalarproduktet.<ref name=AP54>[[#AP|T.M. Apostol: ''Calculus '', Bind II ]] s.54 </ref> Produkt av en matrise med seg selv kan skrives som en potens: <math>A^3 = A A A</math>. Ved å addere slike potenser kan en også lage matrisepolynom. En kan også definere [[kvadratrot]]en av en matrise <math>A</math> som en matrise <math>B</math> med egenskapen <math>B^2 = A</math>.<ref name=HL8>[[#HL| H. Lütkepohl: ''Handbook of matrices'']] s.8 </ref> Med matrisemultiplikasjon er mengden av matriser en [[gruppe (matematikk)|gruppe]]. Med både addisjon og multiplikasjon er mengden også en [[algebraisk struktur]]. === Kronecker-produkt === Dersom <math>A</math> er en ''(n''×''m)''-matrise og <math>B</math> er en ''(p''×''q)''-matrise, så er Kronecker-produktet definert ved<ref name=HL3/> : <math> A \otimes B = \begin{bmatrix} a_{11}B & a_{12}B & \cdots & a_{1m} B\\ a_{21} B& a_{22} B& \cdots & a_{2m} B\\ \vdots & \vdots & \ddots & \vdots \\ a_{n1}B & a_{n2} B& \dots & a_{nm}B \end{bmatrix} </math> Resultatmatrisen har dimensjon (''np'')×(''mq''). Produktet kalles også tensorprodukt og direkte produkt. === Hadamard-produkt === Hadamard-produktet eller Schur-produktet for matriser er et elementvis produkt av to matriser med samme dimensjon ''(n''×''m)'':<ref name=HL3/> : <math> A \odot B = \begin{bmatrix}a_{ij} b_{ij} \end{bmatrix}_{nm} </math> === Direkte sum === Den direkte summen av to kvadratiske matriser er definert ved<ref name=HL4>[[#HL| H. Lütkepohl: ''Handbook of matrices'']] s.4</ref> : <math> A \oplus B = \begin{bmatrix} A & 0 \\ 0 & B \end{bmatrix} </math> === Transponering === Den transponerte matrisen <math>A^T</math> er definert ved en ombytting av rekker og kolonner i den opprinnelige matrisen <math>A</math>:<ref name=HL5>[[#HL| H. Lütkepohl: ''Handbook of matrices'']] s.5 </ref> : <math> A = \begin{bmatrix} a_{ij} \end{bmatrix}_{nm} \qquad A^T = \begin{bmatrix} a_{ji} \end{bmatrix}_{mn}. </math> For den transponerte matrisen brukes også notasjonen <math>A^t</math>, <math>A^{tr}</math>, <math>A'</math> og <math>A^*</math>.<ref name=AP91>[[#AP|T.M. Apostol: ''Calculus '', Bind II ]] s.91</ref><ref name=HLX1/><ref name=FB2>[[#FB| Fr. Fabricius-Bjerre: ''Lærebog i geometri....'']] s.2 </ref> === Konjungert transponering === Den konjugert-transponerte matrisen <math>A^H</math> er definert ved en ombytting av rekker og kolonner i den opprinnelige matrisen <math>A</math> samt [[kompleks konjugasjon]] av matrise-elementene:<ref name=HL5/> : <math> A = \begin{bmatrix} a_{ij} \end{bmatrix}_{nm} \qquad A^H = \begin{bmatrix} \overline{a}_{ji} \end{bmatrix}_{mn} </math> <math>A^H </math> kalles også den hermitsk-adjungerte til matrisen. Notasjonen <math>A^\dagger </math> er også brukt.{{tr}} === Invers === Inversen til en kvadratisk matrise <math>A</math> er definert som den entydig bestemte matrisen <math>A^{-1}</math> som oppfyller ligningen<ref name=HL7>[[#HL| H. Lütkepohl: ''Handbook of matrices'']] s.7</ref> : <math>A A^{-1} = A^{-1} A = I \, </math> der <math>I</math> er [[identitetsmatrise]]n. Matrisen <math>A</math> er invertibel hvis determinanten til <math>A</math> er ulik null: <math>\det A \ne 0</math>. I motsatt fall er matrisen singulær. En (2×2)-matrise kan inverteres med formelen :<math>A^{-1}={1\over \det A} \begin{bmatrix}a_{22}&-a_{12} \\ -a_{21}&a_{11}\end{bmatrix} = \frac{1}{a_{11}a_{22} - a_{12}a_{21}} \begin{bmatrix}a_{22}&-a_{12} \\ -a_{21}&a_{11}\end{bmatrix} </math> . === Generalisert invers === For en generell matrise <math>A</math> er en generalisert invers <math>A^-</math> en matrise som oppfyller ligningen<ref name=HL7/> : <math>A A^- A = A \, </math>. Dersom <math>A</math> er en kvadratisk ''(n''×''n)''-matrise med rang ''n'', så er <math>A^- = A^{-1}</math>. Den generaliserte inversen er generelt ikke entydig. == Matrisetyper == <!-- Obs: Matrisetypene er organisert alfabetisk --> === Kvadratiske matriser === De følgende definisjonene gjelder for kvadratiske matriser. * En båndmatrise er en matrise der det eksisterer to positive heltall <math>r</math> og <math>s</math> slik at elementene er lik null for <math>(i - j) \ge s</math> og for <math>(j - i) \ge r</math>. Båndbredden til matrisen er <math>(r + s + 1)</math>.<ref name=HL227>[[#HL| H. Lütkepohl: ''Handbook of matrices'']] s.227 </ref> * En diagonalmatrise er en matrise der alle elementene utenom diagonalen er lik null.<ref name=HL5>[[#HL| H. Lütkepohl: ''Handbook of matrices'']] s.5 </ref> En diagonalmatrise kan skrives <math>\operatorname{diag}(a_1, a_2, \dots, a_n)</math>, med elementene på diagonalen spesifisert. * En diagonaldominant matrise er en matrise der absoluttverdien av et diagonalelement er større eller lik summen av de andre elementene i en rekke.<ref name=HL238>[[#HL| H. Lütkepohl: ''Handbook of matrices'']] s.238 </ref> * En hermitisk matrise er en matrise der <math>A^H = A</math>.<ref name=FB173>[[#FB| Fr. Fabricius-Bjerre: ''Lærebog i geometri....'']] s.173 </ref><ref name=HL10>[[#HL| H. Lütkepohl: ''Handbook of matrices'']] s.10 </ref> * En Hessenberg-matrise er en matrise der elementene i matrisen eller i den transponerte matrisen er lik null for <math>i > j + 1</math>.<ref name=HL250>[[#HL| H. Lütkepohl: ''Handbook of matrices'']] s.250 </ref><ref name=GL6>[[#GL|G.H.Golub, C.F.Van Loan: ''Matrix computations'']] s.6 </ref> * En Hilbert-matrise er en matrise der <math>a_{ij} = 1/(i + j - 1)</math>.<ref name=HL251>[[#HL| H. Lütkepohl: ''Handbook of matrices'']] s.251 </ref> * En idempotent matrise er en matrise der <math>A^2 = A</math>.<ref name=HL10/> * En [[identitetsmatrise]] er en diagonalmatrise der alle diagonalelementene er lik 1. En vanlig notasjon for identitetsmatrisen er <math>I</math>.<ref name=HLX1/> * En M-matrise eller en Minkowski-matrise er en ikke-singulær matrise der <math>a_{ij} \le 0</math> for <math>i \ne j</math> og der også <math>A^{-1} \ge 0</math>. * En nilpotent matrise er en matrise der <math>A^k = 0</math> for et heltall <math>k</math>.<ref name=GL7>[[#GL|G.H.Golub, C.F.Van Loan: ''Matrix computations'']] s.7 </ref> * En normalmatrise er en matrise der <math>A^H A = A A^H</math>.<ref name=HL10/> * En ortogonal matrise er en ikke-singulær matrise der <math>A^T = A^{-1}</math>, det vil si <math>A^T A = I</math>.<ref name=HL10/><ref name=GL7/> * En positiv-definit matrise er en matrise der produktet <math>(x^H A x)</math> alltid er ikke-negativt. Tilsvarende er en negativt-definit matrise en matrise der produktet <math>(x^H A x)</math> alltid er ikke-positivt.<ref name=HL10/> * En singulær matrise er en matrise med determinant lik null. Tilsvarende er en regulær matrise eller ikke-singulær matrise en matrise med determinant ulik null.<ref name=HL275>[[#HL| H. Lütkepohl: ''Handbook of matrices'']] s.275 </ref><ref name=FB7>[[#FB| Fr. Fabricius-Bjerre: ''Lærebog i geometri....'']] s.7 </ref> * En skalarmatrise er en diagonalmatrise der alle diagonalelementene er samme tall <math>c</math>, det vil si matrisen <math>cI</math>.<ref name=HL273/> * En skjevsymmetrisk matrise er en matrise der <math>A^T = - A</math>.<ref name=HL156>[[#HL| H. Lütkepohl: ''Handbook of matrices'']] s.156 </ref> * En [[symmetrisk matrise]] er en matrise der <math>A^T = A</math>.<ref name=HL156/> * En Toeplitz-matrise er en matrise der elementene på en vilkårlig diagonal er reelle og like, det vil si at <math>a_{ij} = \lambda_{j-i}</math> og <math>\lbrace \lambda_{j-i} \rbrace</math> er reelle tall.<ref name=GL125>[[#GL|G.H.Golub, C.F.Van Loan: ''Matrix computations'']] s.125 </ref> * En triangulærmatrise er en matrise der elementene over eller under diagonalen er lik null.<ref name=HL11>[[#HL| H. Lütkepohl: ''Handbook of matrices'']] s.11 </ref> * En tridiagonal matrise er en matrise der elementene er lik null dersom <math>|i-j| > 1 </math>.<ref name=GL6/> * En unitær matrise er en ikke-singulær matrise der <math>A^H = A^{-1}</math>.<ref name=HL11/> * En Vandermonde-matrise er en matrise der <math>a_{ij} = \lambda_j^{i-1}</math> og <math>\lbrace \lambda_j \, \rbrace</math> er reelle eller komplekse tall.<ref name=HL284>[[#HL| H. Lütkepohl: ''Handbook of matrices'']] s.284 </ref> === Generelle matriser === * En glissen matrise er en matrise der de fleste elementene er lik null.<ref name=GL6/> * En nullmatrise er en matrise der alle elementene lik null. Nullmatrisen kan skrives som <math>O</math>.<ref name=HLX1/> * En positiv matrise er en reell matrise der alle elementene er positive.<ref name=HL11/> == Teori for kvadratiske matriser == === Determinanter === : ''Utdypende artikkel:'' [[Determinant]] For en reell, kvadratisk matrise er determinanten et reelt tall, entydig bestemt av elementene i matrisen. Tilsvarende er determinanten til en kompleks matrise et komplekst tall. Presist kan en si at determinanten er en [[Funksjon (matematikk)|funksjon]] med [[definisjonsmengde]] lik mengden av reelle/komplekse, kvadratiske matriser og med [[verdimengde]] lik mengden av reelle/komplekse tall. Dersom en uttrykker en matrise som en samling av rekker, <math>A_{nn} = (A_1, A_2, \dots, A_n)</math>, så kan en definere determinanten som en funksjon <math>f</math> med de følgende egenskapene:<ref name=AP74>[[#AP|T.M. Apostol: ''Calculus '', Bind II ]] s.74 </ref> * Funksjonen er homogen i hver rekke, det vil si at <math>f(\dots, tA_k, \dots A_n) = t f(\dots, tA_k, \dots )</math>. * Funksjonen er additiv i hver rekke, det vil si at <math>f(\dots, A_k + C, \dots A_n) = f(\dots, A_k, \dots ) + f(\dots, C, \dots ) </math>. * Funksjonen er lik null dersom to rekker er like. * Funksjonen er lik 1 for identitetsmatrisen. Determinanten til matrisen <math>A</math> betegnes som regel <math>\det A</math> eller <math>\det(A)</math>. Notasjonen <math>|A|</math> brukes også, men det er lett å forveksle dette symbolet med [[absoluttverdi]]en av matrisen. For absoluttverdien av en matrise brukes både <math>|A|</math> og <math>|A|_{abs}</math>. Ønsker en å presisere elementene i matrisen, skrives determinanten vanligvis ved å omgi elementene med loddrette streker: : <math> \text{det} A= \begin{vmatrix} a_{11} & a_{12} & \cdots & a_{1m} \\ a_{21} & a_{22} & \cdots & a_{2m} \\ \vdots & \vdots & \ddots & \vdots \\ a_{n1} & a_{n2} & \dots & a_{nm} \end{vmatrix} </math> [[Leibniz' formel for determinanter|Leibniz' formel]] uttrykket determinanten som en sum av ''n'' produkt.{{tr}} Hvert produkt inneholder ''n'' faktorer, der hver faktor er et matrise-element. I hvert produkt er hver rekke og hver søyle i matrisen representert med ett og kun ett element. For en (2×2)-matrise er determinanten gitt ved formelen :<math>\det \begin{bmatrix}a_{11}&a_{12} \\ a_{21}&a_{22}\end{bmatrix} = a_{11}a_{22} - a_{12}a_{21} </math> . Determinanter kan også beregnes ved hjelp av [[Laplace-ekspansjon]].<ref name=RDM79>[[#RDM| R. D. Milne: ''Applied functional analysis...'']] s.79 </ref> Determinanten kan brukes til å karakterisere egenskaper til matrisen og til den lineære transformasjonen som matrisen representerer. For eksempel vil en kvadratisk matrise med en determinant ulik null, ha definert en invers. Determinanten til en ortogonal matrise har alltid absoluttverdi lik 1. === Matrisespor === Sporet til en kvadratisk matrise <math>A</math> skrives <math>\operatorname{tr} A</math> og er lik summen av elementene på diagonalen:<ref name=HL4/> : <math>\operatorname{tr} A = \sum_{i=1}^n a_{ii} \, </math> Notasjonen er avledet av det engelske begrepet «trace», som betyr spor. Sporet er også lik summen av egenverdiene. En rekke generelle relasjoner gjelder for matrisespor:<ref name=HL41>[[#HL| H. Lütkepohl: ''Handbook of matrices'']] s.41 </ref> :<math> \begin{alignat}{2} \operatorname{tr} A &= \operatorname{tr} A^T \\ \operatorname{tr} (A_{nm}B_{mn}) &= \operatorname{tr} (B_{mn}A_{nm}) \end{alignat} </math> === Egenverdier og egenvektorer === : ''Utdypende artikkel:'' [[Egenvektor]] Egenverdiene til en kvadratisk matrise er definert som [[rot til en ligning | nullpunktene]] til det karakteristiske polynomet, definert ved : <math>p_A(\lambda) = \text{det}( \lambda I - A ) \, </math>. Her er <math>I</math> enhetsmatrisen med samme dimensjon ''n'' som <math>A</math>. [[Polynom]]et i <math>\lambda</math> har grad ''n'', og tar en [[rot til en ligning | multiplisiteten]] med i betraktning vil matrisen ha ''n'' egenverdier. Alternativt kan en definere en egenverdi som et tall <math>\lambda</math> som gjør at ligningen : <math>Av = \lambda v \, </math>. har en løsning ulik nullvektoren. Løsningsvektoren <math>v</math> kalles en [[egenvektor]] til <math>A</math>. Ifølge Caley-Hamiltons teorem tilfredsstiller matrisen <math>A</math> sitt eget karakteristiske polynom, det vil si : <math>p_A(A) = 0 \, </math>, der høyre side nå er nullmatrisen. == Teori for generelle matriser == === Matriserang === Rangen til en matrise er det største antallet [[lineær uavhengighet|lineært uavhengige]] rekker eller kolonner i matrisen.<ref name=FB101>[[#FB| Fr. Fabricius-Bjerre: ''Lærebog i geometri....'']] s.101ff </ref> Dersom rangen i en matrise er lik <math>p</math>, så eksisterer det en kvadratisk, ikke-singulær undermatrise av dimensjon (''p''×''p''), mens eventuelle kvadratiske undermatriser av høyere dimensjon er singulære. Rangen til en matrise endres ikke dersom det utføres en eller flere elementære operasjoner på matrisen. === Matrisenorm === : ''Utdypende artikkel:'' [[Norm (matematikk)]] Normen til en generell matrise <math>A</math> er et ikke-negativ reelt tall <math>\|A\|</math> definert med de følgende egenskapene<ref name=GL14>[[#GL|G.H.Golub, C.F.Van Loan: ''Matrix computations'']] s.14-15 </ref> * <math>\|A\|> 0</math> hvis <math>A \ne 0</math> og <math>\|A\| = 0</math> hvis og bare hvis <math>A=0 \, </math>. * <math>\|\alpha A\|=|\alpha| \|A\|</math> for alle skalarer <math>\alpha \,</math>. * <math>\|A+B\| \le \|A\|+\|B\|</math> for alle matriser <math>A</math> og <math>B</math>. Det eksisterer en stort utvalg av matrisenormer, eksempelvis: :<math> \begin{alignat}{2} \| A \|_1 &= \max_j \sum_i |a_{ij}| \\ \| A \|_\infty &= \max_i \sum_j |a_{ij}| \\ \| A \|_F &= \left( \sum_i \sum_j a_{ij}^2 \right )^{1/2} = \operatorname{tr} (A^T A)^{1/2} \end{alignat} </math> Den siste normen kalles Frobenius-normen og er mye brukt i numerisk analyse. === Lineære ligninger === Lineære algebraiske ligninger er ligninger på formen : <math>A x = b, \, </math> der <math>A</math> er en kjent koeffisientmatrise og <math>b</math> en kjent vektor. Den ukjente <math>x</math> er også en vektor. For et system med like mange ligninger som ukjente kan en formelt skrive en entydig løsning som : <math>x = A^{-1}b \, . </math> Løsningen eksisterer dersom den inverse matrisen <math>A^{-1}</math> er definert, det vil si dersom matrisen er ikke-singulær. Lineære ligninger kan løses ved hjelp av [[Cramers regel]] eller ved [[Gauss-eliminasjon]]. I det generelle tilfellet der <math>A</math> er en ikke-kvadratisk matrise, så kan matriserang brukes til å studere om systemet har ingen, én eller mange løsninger.<ref name=FB116>[[#FB| Fr. Fabricius-Bjerre: ''Lærebog i geometri....'']] s.116ff </ref> === Lineære transformasjoner === Matriser er nært knyttet til [[lineær transformasjon|lineære transformasjoner]].<ref name=FB159>[[#FB| Fr. Fabricius-Bjerre: ''Lærebog i geometri....'']] s.159 </ref> La <math>f</math> være en lineær transformasjon mellom to endelig-dimensjonale vektorrom: <math>f: V_m \leftarrow V_n</math>. Anta at det er valgt [[basis (matematikk)|basis]] for hver av de to vektorrommene. Da kan transformasjonen representeres på matriseform: : <math>f(x) = A x \, .</math> Matrisen <math>A</math> har dimensjon ''(n''×''m)''. Hver kolonne i <math>A</math> representerer transformasjonen av en basisvektor i <math>V_n</math> relativ til den valgte basisen i <math>V_m</math>. Elementene i <math>A</math> kalles komponentene til transformasjonen, relativ til de to valgte basisene. Med valgte basiser for <math>V_n</math> og <math>V_m</math> er vektorrommet av matriser <math>\mathbb{R}^{n \times m}</math> [[isomorfisme|isomorft]] med vektorrommet av lineære transformasjoner fra <math>V_m</math> til <math>V_n</math>.<ref name=AP52>[[#AP|T.M. Apostol: ''Calculus '', Bind II ]] s.52 </ref> Når matrisen ''A'' er ortogonal, sies også <math>f</math> å være en ortogonal transformasjon. Slike transformasjoner har mange anvendelser, blant annet i [[geometri]] for å beskrive operasjoner som translasjon, rotasjon, speilvending, projeksjon og skalering av objekter i rommet. To kvadratiske matriser <math>A</math> og <math>B</math> sies å være similære dersom det eksisterer en tredje invertibel matrise <math>P</math> slik at<ref name=HL275/> :<math>A = P B P^{-1}</math>. Similære matriser er representasjoner av én og samme lineære transformasjon, men relativ til ulike basis-valg.<ref name=RDM78>[[#RDM| R. D. Milne: ''Applied functional analysis...'']] s.78 </ref> === Singulærverdier === Singulærverdiene til en matrise <math>A</math> med dimensjon ''(n'' × ''m)'' er [[kvadratrot | kvadratrøttene]] til egenverdiene til produktet <math>AA^H</math> dersom <math>n \le m</math> og til produktet <math>A^H A</math> dersom <math>m \le n</math>. En matrise <math>A</math> kan alltid skrives som et matriseprodukt : <math>A = UDV^H, \, </math> der <math>D</math> er en diagonalmatrise av singulærverdiene, og <math>U</math> og <math>V</math> er unitære matriser. Matriseproduktet <math>UDV^H</math> kalles singulærverdi-dekomponeringen til matrisen. == Numerisk matriseregning == Matriser inngår i svært mange praktiske problemstillinger, og det eksisterer derfor et rikt utvalg av metoder for matriser på [[datamaskin]]er. Slike metoder studeres i [[numerisk lineær algebra]], et fagfelt i numerisk analyse. En rekke standard bibliotek med implementasjon av numeriske algoritmer for matriser er utviklet, slik som [[BLAS]]<ref>{{kilde www| url=http://www.netlib.org/blas/ |tittel=BLAS (Basic Linear Algebra Subprograms) |utgiver=netlib.org |besøksdato=2022-02-11}}</ref> og [[LAPACK]]<ref>{{kilde www| url=http://www.netlib.org/lapack/index.html |tittel=LAPACK - Linear Algebra PACKage |utgiver=netlib.org |besøksdato=2022-02-11}}</ref>. Numeriske metoder for matriser omfatter både direkte metoder og iterative metoder. En vanlig direkte metode for å finne løsningen av mindre ligningssystem <math>Ax = b</math>, er Gauss-eliminasjon med pivotering. Dimensjonen til matriser som har opphav i løsning av [[differensialligning]]er kan bli svært stor, med mange millioner elementer. For ligningssystem med slike matriser brukes typisk iterative metoder, slik som [[konjugerte-gradient-metoden]]. For å finne elementene i et produkt av to ''(n'' × ''n)''-matriser numerisk, trenger en orden <math>n^3</math> operasjoner, dersom en bruker summasjonsformelen gitt over. Det har vært jaktet intenst på mer effektive metoder, og den gjeldede teoretiske hastighetsgrensen (mars 2021) for matrisemultiplikasjon er <math>n^{2.372873}</math>.<ref>{{kilde www| url=https://www.quantamagazine.org/mathematicians-inch-closer-to-matrix-multiplication-goal-20210323/ | tittel=Matrix Multiplication Inches Closer to Mythic Goal |utgiver=Quanta Magazine |dato=2021-03-23 |besøksdato=2022-02-11}}</ref> For å analyse egenskaper til en numeriske matrisemetode, brukes noen ganger kondisjonstallet til matrisen, definert ved<ref name=GL25>[[#GL|G.H.Golub, C.F.Van Loan: ''Matrix computations'']] s.25 </ref> :<math>\kappa(A) = \|A\| \ \| A^{-1} \| </math> Definisjonen avhenger av hvilken norm som brukes. == Generaliseringer == === Tensorer === En matrise der elementene er tall kan representere en lineær transformasjon mellom to vektorrom, med valgte faste basiser i begge vektorrommene. Den lineære transformasjonen er i seg selv uavhengig av basisene. I mange problemstillinger i fysikk og geometri kan det være hensiktsmessig å la valgt basis endre seg i rommet, for eksempel i problemstillinger knyttet til en kuleflate. En [[tensor]] er en [[multilineær transformasjon]] som også har definert transformasjonsregler knyttet til endringer i basisvektorene.<ref name=RA1>{{Kilde bok| forfatter=Rutherford Aris| utgivelsesår=1989| tittel=Vectors, tensors and the basic equations of fluid mechanics| utgivelsessted= New York| forlag=Dover Publications| side=28| isbn= 0-486-66110-5 }}</ref> Tilsvarende en lineær transformasjon kan en tensor representeres ved et multi-dimensjonal sett av komponenter, og tensoren kan i den forstand betraktes som en generalisering av en matrise. En matrise kan være en representasjon av en 2.ordens tensor. == Historie og etymologi == Bruk av matriser har en lang historie, med utgangspunkt i studiet av ligninger og determinanter. [[Arthur Caley]] er kalt «grunnleggeren av matriseteori»,<ref name=MAT1>{{kilde artikkel |url=https://www.jstor.org/stable/27956657 |forfattere=Richard W. Feldmann Jr |tittel= Arthur Caley - founder of matrix theory | publikasjon= The Mathematical Teacher |år=1962 |bind=55 |hefte=6 |sider=482-484 }}</ref> etter å ha publisert flere artikler i 1840-årene om emnet.<ref name=CAJ92>{{Kilde bok| forfatter= Florian Cajori| utgivelsesår=2007| tittel=A history of mathematical notations| bind=II| utgivelsessted= Princeton, USA| forlag=Cosimo| side=92-93| isbn= 978-1-60206-684-7 }}</ref> I disse artiklene brukte han både doble vertikale streker og forskjellige typer parenteser for å angi matriser. Selve ordet «matrise» ble første gang bruk av [[James Joseph Sylvester]] i 1850.<ref name=MT1>{{kilde www| url=https://mathshistory.st-andrews.ac.uk/HistTopics/Matrices_and_determinants/ |tittel=Matrices and determinants |utgiver=MacTutor |besøksdato=2022-02-10}}</ref><ref name=MAT1/> Stammen i det latinske ordet «matrix» er «mater» med betydning «mor». Ordet «matrix» ble i latin brukt som betegnelse på et avlsdyr av hunnkjønn, men gikk etter hvert over til å bety «livmor» og også «gravid kvinne». Gradvis fikk ordet også metaforisk betydning, brukt for å betegne «noe som er opphav til noe annet». En matrise i matematikk er opphav til geometriske og algebraiske transformasjoner.<ref name=SS132>{{Kilde bok| forfatter= Steven Schwartzman| utgivelsesår=1994| tittel=The words of mathematics. An etymological dictionary of mathematical terms used in English.| utgivelsessted= Washington, DC| forlag= The Mathematical Association of America| side=132| isbn= 0-88385-511-9 }}</ref> == Se også == * [[Determinant]] * [[Identitetsmatrise]] == Litteratur == * {{Kilde bok | ref=HL | forfatter= Helmut Lütkepohl | redaktør= | utgivelsesår=1996 | artikkel= | tittel= Handbook of matrices | bind= | utgave= | utgivelsessted= Chichester | forlag= John Wiley and Sons | side= | isbn= 0-471-97015-8 | id= | kommentar= | url= }} * {{Kilde bok | ref=FB | forfatter=Fr. Fabricius-Bjerre | utgivelsesår=1977 | tittel=Lærebog i geometri. Analytisk geometri og lineær algebra | utgivelsessted=Lyngby, Danmark | forlag=Polyteknisk forlag | isbn=87-502-0440-8 }} * {{Kilde bok | ref=GL | forfatter= Gene Golub, Charles van Loan | redaktør= | utgivelsesår=1996 | artikkel= | tittel= Matrix computations | bind= | utgave= | utgivelsessted= Baltimore | forlag= Johns Hopkins University Press | side= | isbn= 0-8018-5414-8 | id= | kommentar= | url= }} * {{Kilde bok | ref=AP | forfatter=T.M. Apostol | utgivelsesår=1969 | tittel=Calculus | bind=II | utgivelsessted=New York | forlag=John Wiley & Sons | isbn=0-471-00008-6}} * {{Kilde bok | ref=RDM | forfatter= Ronald Douglas Milne | utgivelsesår=1980 | tittel=Applied functional analysis, an introductory treatment | utgivelsessted= London | forlag= Pitman Publishing Limited | isbn=0-273-08404-6 }} == Referanser == <references/> {{Lineær algebra}} {{Matematikk}} {{Autoritetsdata}} [[Kategori:Lineær algebra]] [[Kategori:Matematiske strukturer]]
Redigeringsforklaring:
Merk at alle bidrag til Wikisida.no anses som frigitt under Creative Commons Navngivelse-DelPåSammeVilkår (se
Wikisida.no:Opphavsrett
for detaljer). Om du ikke vil at ditt materiale skal kunne redigeres og distribueres fritt må du ikke lagre det her.
Du lover oss også at du har skrevet teksten selv, eller kopiert den fra en kilde i offentlig eie eller en annen fri ressurs.
Ikke lagre opphavsrettsbeskyttet materiale uten tillatelse!
Avbryt
Redigeringshjelp
(åpnes i et nytt vindu)
Maler som brukes på denne siden:
Mal:Autoritetsdata
(
rediger
)
Mal:Fix
(
rediger
)
Mal:Fix/category
(
rediger
)
Mal:Hlist/styles.css
(
rediger
)
Mal:ISOtilNorskdato
(
rediger
)
Mal:Ifsubst
(
rediger
)
Mal:Kilde artikkel
(
rediger
)
Mal:Kilde bok
(
rediger
)
Mal:Kilde www
(
rediger
)
Mal:Lineær algebra
(
rediger
)
Mal:Main other
(
rediger
)
Mal:Matematikk
(
rediger
)
Mal:Navboks
(
rediger
)
Mal:Tr
(
rediger
)
Mal:Trenger referanse
(
rediger
)
Modul:Arguments
(
rediger
)
Modul:Check for unknown parameters
(
rediger
)
Modul:Citation/CS1
(
rediger
)
Modul:Citation/CS1/COinS
(
rediger
)
Modul:Citation/CS1/Configuration
(
rediger
)
Modul:Citation/CS1/Date validation
(
rediger
)
Modul:Citation/CS1/Identifiers
(
rediger
)
Modul:Citation/CS1/Utilities
(
rediger
)
Modul:Citation/CS1/Whitelist
(
rediger
)
Modul:External links
(
rediger
)
Modul:External links/conf
(
rediger
)
Modul:External links/conf/Autoritetsdata
(
rediger
)
Modul:Genitiv
(
rediger
)
Modul:ISOtilNorskdato
(
rediger
)
Modul:Navbar
(
rediger
)
Modul:Navbar/configuration
(
rediger
)
Modul:Navboks
(
rediger
)
Modul:Navbox/configuration
(
rediger
)
Modul:Navbox/styles.css
(
rediger
)
Modul:Unsubst
(
rediger
)
Denne siden er medlem av 1 skjult kategori:
Kategori:Artikler som trenger referanser
Navigasjonsmeny
Personlige verktøy
Ikke logget inn
Brukerdiskusjon
Bidrag
Opprett konto
Logg inn
Navnerom
Side
Diskusjon
norsk bokmål
Visninger
Les
Rediger
Rediger kilde
Vis historikk
Mer
Navigasjon
Forside
Siste endringer
Tilfeldig side
Hjelp til MediaWiki
Verktøy
Lenker hit
Relaterte endringer
Spesialsider
Sideinformasjon