Invertible Matrices Rank ๏ง Number of linearly independent columns ๏ง Dimension of span{๐๐ฉ๐ฆ๐ฏ๐ง๐จ_๐ฐ๐๐๐ฎ๐ฉ๐ฌ๐ญ} Theorem ๏ง Rank = number of linearly independent rows Full rank (๐) ๏ง rank(๐) = dim ๏ง Then: ๐ is invertible
Linear Systems of Equations First consider simpler case ๏ง Say, we know that ๐ โ ๐ฒ = ๐ณ ๏ง Square matrix ๐ โ โ ๐ร๐ ๏ง Vectors ๐ฒ, ๐ณ โ โ ๐ร๐ Knowns & Unknowns ๏ง We are given ๐ , ๐ณ ๏ง We should compute ๐ฒ ๏ง Linear system of equations
Linear Systems of Equations Linear System of Equations ๐ โ ๐ฒ = ๐ณ โ ๐ 1,1 โฏ ๐ 1,๐ ๐ฆ 1 ๐ง 1 โฎ โฎ โฎ โฎ โ = ๐ ๐,1 โฏ ๐ ๐,๐ ๐ฆ ๐ ๐ง ๐ โ ๐ 1,1 ๐ฆ 1 + โฏ + ๐ 1,๐ ๐ฆ ๐ = ๐ง 1 ๐ 2,1 ๐ฆ 1 + โฏ + ๐ 2,๐ ๐ฆ ๐ = ๐ง 2 and โฎ ๐ ๐,1 ๐ฆ 1 + โฏ + ๐ ๐,๐ ๐ฆ ๐ = ๐ง ๐ and
Gaussian Elimination Linear System โง ๐ 1,1 ๐ฆ 1 + โฏ + ๐ 1,๐ ๐ฆ ๐ = ๐ง 1 โง ๐ 2,1 ๐ฆ 1 + โฏ + ๐ 2,๐ ๐ฆ ๐ = ๐ง 2 โฎ โง ๐ ๐,1 ๐ฆ 1 + โฏ + ๐ ๐,๐ ๐ฆ ๐ = ๐ง ๐ Row Operations ๏ง Swap rows ๐ ๐ , ๐ ๐ ๏ง Scale row ๐ ๐ by factor ๐ โ 0 ๏ง Add multiple of row ๐ ๐ to row ๐ ๐ , ๐ โ ๐ (i.e., ๐ ๐ ) ๐ += ๐๐
Convert to Upper Triangle Matrix ๐ณ ๐ ๐ฒ 0 = = 0 0 0 0 0 0 = 0 0 0 = 0 0 0 0 (use row-operations)
Convert to Diagonal Matrix ๐ณ ๐ ๐ฒ 0 = = 0 0 0 0 0 โฒ 0 0 0 ๐ 1,1 ๐ฆ 1 โฒ ๐ง 1 โฒ 0 0 ๐ฆ 2 โฒ 0 0 ๐ 2,2 ๐ง 2 = = โฒ 0 ๐ฆ 3 โฒ 0 0 0 ๐ง 3 ๐ 3,3 โฒ ๐ฆ 4 โฒ 0 0 0 0 ๐ 4,4 ๐ง 4 โฒ 0 0 0 1 ๐ฆ 1 โฒ /m 1,1 ๐ง 1 โฒ 0 0 0 0 ๐ฆ 2 โฒ /m 2,2 1 ๐ง 2 = = โฒ 0 0 0 0 0 ๐ฆ 3 โฒ /m 3,3 1 ๐ง 3 โฒ 0 0 0 0 0 ๐ฆ 4 โฒ /m 4,4 1 ๐ง 4 (use row-operations)
Gauss-Algorithm Gauss-Algorithm ๏ง Substract rows to cancel front-coefficient ๏ง Create upper triangle matrix first ๏ง Then create diagonal matrix ๏ง If current row starts with 0 ๏ง Swap with another row ๏ง If all rows start with 0: matrix not invertible ๏ง Diagonal form: Solution can be read-off ๏ง Data structure ๏ง Modify matrix M , โright -hand- sideโ y . ๏ง x remains unknown (no change)
Matrix Inverse Solve for 1 0 0 0 1 0 ๐ โ ๐ฒ 1 = , ๐ โ ๐ฒ 2 = , โฆ , ๐ โ ๐ฒ ๐ = โฎ โฎ โฎ 0 0 1 ๏ง The resulting ๐ฒ 1 , ๐ฒ 2 , โฆ , ๐ฒ ๐ are the columns of ๐ โ1 : | | ๐ โ1 = ๐ฒ 1 โฏ ๐ฒ ๐ | |
Matrix Inverse Algorithm ๏ง Simultaneous Gaussian elimination ๏ง Start as follows: ๐ ๐ฒ ๐ 0 0 0 1 0 0 0 1 = 0 0 0 1 0 0 0 1 ๏ง Handle all right-hand sides simultaneously ๏ง After Gauss-algorithm, the right-hand matrix is the inverse
Alternative: Kramerโs Rule Small Matrices ๏ง Direct formula based on determinants ๏ง โKramerโs ruleโ ๏ง (more later) ๏ง Naive implementation has run-time ๐ซ(๐!) โ Gauss: ๐ซ(๐ 3 ) ๏ง Not advised for ๐ > 3
More Vector Operations: Scalar Products BASIC basic topics study completely
Additional Vector Operations ๐ฐ 2 ๐ฐ 1 ๐ฐ 1 = ๐. ๐cm ๐ฐ 2 = ๐. ๐cm Length of Vectors โlengthโ or โnormโ โ๐ฐโ yields real number โฅ 0
Additional Vector Operations ๐ฐ 2 ๐ฐ 1 ๐ฝ ๐ฝ = โ ๐ฐ 1 , ๐ฐ 2 = ๐๐ยฐ Angle between Vectors angle โ ๐ฐ 1 , ๐ฐ 2 yields real number 0, โฆ , 2๐ = [0, โฆ , 360ยฐ)
Additional Vector Operations ๐ฐ 2 ๐ฐ 1 90ยฐ right angles Angle between Vectors
Additional Vector Operations ๐ฐ ๐ฑ 90ยฐ ๐ฐ prj on ๐ฑ Projection Projection: determine length of ๐ฐ along direction of ๐ฑ
Additional Vector Operations ๐ฐ ๐ฑ 90ยฐ Scalar Product *) ๐ฐ โ ๐ฑ = ๐ฐ โ ๐ฑ โ cos โ (๐ฐ, ๐ฑ) also: ๐ฐ, ๐ฑ *) also known as inner product or dot-product
Signature in in operato tor โ out 42.0 Scalar Product (dot product, inner-product)
Additional Vector Operations ๐ฐ ๐ฑ 90ยฐ Scalar Product *) ๐ฐ โ ๐ฑ = ๐ฐ โ ๐ฑ โ cos โ (๐ฐ, ๐ฑ) also: ๐ฐ, ๐ฑ *) also known as inner product or dot-product
Additional Vector Operations ๐ฐ ๐ฑ 90ยฐ Scalar Product *) ๐ฐ โ ๐ฑ = ๐ฐ โ ๐ฑ โ cos โ (๐ฐ, ๐ฑ) Comprises: length, projection, angles *) also known as inner product or dot-product
Additional Vector Operations Length: ๐ฐ = ๐ฐ โ ๐ฐ Angle: โ ๐ฐ, ๐ฑ = arccos ๐ฐ โ ๐ฑ Projection : โ ๐ฐ prj on ๐ฑ โ = ๐ฐโ ๐ฑ ๐ฑ ๐ฐ โ ๐ฑ = ๐ฐ โ ๐ฑ โ cos โ (๐ฐ, ๐ฑ) Comprises: length, projection, angles
Algebraic Representation (Implementation) BASIC basic topics study completely
Scalar Product ๐ฐ ๐ฑ 90ยฐ Scalar Product *) ๐ฐ โ ๐ฑ = ๐ค 1 ๐ค 2 โ ๐ฅ 1 โ ๐ค 1 โ ๐ฅ 1 + ๐ค 2 โ ๐ฅ 2 ๐ฅ 2 Theorem: ๐ฐ โ ๐ฑ = ๐ฐ โ ๐ฑ โ cos โ (๐ฐ, ๐ฑ)
Scalar Product ๐ฑ ๐ฐ = 3 ๐ฐ 2 ๐ฑ = 1 2 Scalar product ๐ฐ โ ๐ฑ = ๐ค 1 ๐ค 2 โ ๐ฅ 1 ๐ฅ 2
Scalar Product 2D Scalar product ๐ฐ โ ๐ฑ = ๐ค 1 ๐ค 2 โ ๐ฅ 1 โ ๐ค 1 โ ๐ฅ 1 + ๐ค 2 โ ๐ฅ 2 ๐ฅ 2 d -dim scalar product ๐ค 1 ๐ฅ 1 โ ๐ค 1 โ ๐ฅ 1 + โฏ + ๐ค ๐ โ ๐ฅ ๐ ๐ฐ โ ๐ฑ = โ โฎ โฎ ๐ค ๐ ๐ฅ ๐
Algebraic Properties Settings Properties ๐ โ โ ๏ง Symmetry (commutativity) ๐ฏ, ๐ฐ, ๐ฑ โ โ ๐ ๐ฏ, ๐ฐ = ๐ฐ, ๐ฏ ๏ง Bilinearity ๐๐ฐ, ๐ฑ = ๐ ๐ฐ, ๐ฑ = ๐ฐ, ๐๐ฑ ๐ฏ + ๐ฐ, ๐ฑ = ๐ฏ, ๐ฑ + ๐ฐ, ๐ฑ (symmetry: same for second argument) ๏ง Positive definite ๐ฏ, ๐ฏ = ๐ โ ๐ฏ = ๐ ๐ฏ, ๐ฏ โฅ 0, These three: axiomatic definition
Attention! Do not mix ๏ง Scalar-vector product ๏ง Inner (scalar) product In general ๐ฒ, ๐ณ โ ๐ด โ ๐ฒ โ ๐ณ, ๐ด Beware of notation: ๐ฒ โ ๐ณ โ ๐ด โ ๐ฒ โ ๐ณ โ ๐ด (no violation of associativity: different operations; details later)
Applications of the Scalar Product CORE core topics important
Applications Obvious applications ๏ง Measuring length ๏ง Measuring angles ๏ง Projections More complex applications ๏ง Creating orthogonal (90ยฐ) pairs of vectors ๏ง Creating orthogonal bases
Projection ๐ฐ ๐ฑ 90ยฐ Scalar Product *) ๐ฐ โ ๐ฑ = ๐ฐ โ ๐ฑ โ cos โ (๐ฐ, ๐ฑ)
Projection ๐ฑ ๐ฑ ๐ฐ ๐ฑ n = = ๐ฑ ๐ฑ, ๐ฑ ๐ฑ 90ยฐ ๐ฑ n prj.-vector projection Scalar Product *) ๐ฑ Prj.-Vector: ๐ฐ, Projection: ๐ฐ โ ๐ฑโ ๐ฑ ๐ฑ ๐ฑ ๐ฑ,๐ฑ โ ๐ฑ,๐ฑ ๐ฑ = ๐ฐ, ๐ฑ โ ๐ฑ,๐ฑ
Orthogonalization ๐ฑ ๐ฑ ๐ฑ n = = ๐ฐ ๐ฑ ๐ฑ, ๐ฑ ๐ฐ โฒ ๐ฑ 90ยฐ prj.-vector projection Scalar Product *) Orthogonalize ๐ฐ wrt. ๐ฑ : ๐ฑ ๐ฐ โฒ = ๐ฐ โ ๐ฐ, ๐ฑ โ ๐ฑ, ๐ฑ
Orthogonalization ๐ฐ ๐ฐ โฒ ๐ฑ 90ยฐ Scalar Product *) Orthogonalize ๐ฐ wrt. ๐ฑ : ๐ฑ ๐ฐ โฒ = ๐ฐ โ ๐ฐ, ๐ฑ โ ๐ฑ, ๐ฑ
Gram-Schmidt Orthogonalization Orthogonal basis ๏ง All vectors in 90ยฐ angle to each other ๐ ๐ , ๐ ๐ = 0 for ๐ โ ๐ Create orthogonal bases ๏ง Start with arbitrary one ๏ง Orthogonalize ๐ 2 by ๐ 1 ๏ง Orthogonalize ๐ 3 by ๐ 1 , then by ๐ 2 ๏ง Orthogonalize ๐ 4 by ๐ 1 , then by ๐ 2 , then by ๐ 3 ๏ง ...
Orthonormal Basis Orthonormal bases ๏ง Orthogonal and all vectors have unit length Computation ๏ง Orthogonalize first ๏ง Then scale each vector ๐ ๐ by 1/ ๐ ๐ .
Matrices Orthogonal Matrices ๏ง A matrix with orthonormal columns is called orthogonal matrix ๏ง Yes, this terminology is not quite logical... Orthogonal Matrices are always ๏ง Rotation matrices ๏ง Or reflection matrices ๏ง Or products of the two
Further Operations CORE core topics important
Cross Product Cross-Product: Exists Only For 3D Vectors! ๏ง ๐ฒ, ๐ณ โ โ 3 ๐ฆ 1 ๐ง 1 ๐ฆ 2 ๐ง 3 โ ๐ฆ 3 ๐ง 2 ๐ง 2 ๐ฆ 2 ๐ฆ 3 ๐ง 1 โ ๐ฆ 1 ๐ง 3 ๏ง ๐ฒ ร ๐ณ = ร โ ๐ฆ 3 ๐ง 3 ๐ฆ 1 ๐ง 2 โ ๐ฆ 2 ๐ง 1 Geometrically: Theorem x ๏ด y ๏ง ๐ฒ ร ๐ณ orthogonal to ๐ฒ, ๐ณ y ๏ง Right-handed system ๐ฒ, ๐ณ, ๐ฒ ร ๐ณ โ x ๏ด y โ = ๐ฒ โ ๐ณ โ sinโ ๐ฒ, ๐ณ ๐ฒ ร ๐ณ x ๏ง
Cross-Product Properties Bilinearity ๏ง Distributive: ๐ฏ ร ๐ฐ + ๐ฑ = ๐ฏ ร ๐ฐ + ๐ฏ ร ๐ฑ ๏ง Scalar-Mult.: ๐๐ฏ ร ๐ฐ = ๐ฏ ร ๐๐ฐ = ๐ ๐ฏ ร ๐ฐ But beware of ๏ง Anti -Commutative: ๐ฏ ร ๐ฐ = โ๐ฐ ร ๐ฏ ๏ง Not associative; we can have ๐ฏ ร ๐ฐ ร ๐ฑ โ ๐ฏ ร ๐ฐ ร ๐ฑ
Determinants det ๐ | | | v 1 ๐ฐ 1 ๐ฐ 2 ๐ฐ 3 ๐ = | | | v 3 v 2 Determinants ๏ง Square matrix M ๏ง det( M ) = |M| = volume of parallelepiped of column vectors
Determinants det ๐ > 0 | | | v 1 ๐ฐ 1 ๐ฐ 2 ๐ฐ 3 ๐ = | | | v 3 v 2 det ๐ โฒ < 0 | | | ๐ โฒ = v 2 ๐ฐ 2 ๐ฐ 1 ๐ฐ 3 | | | v 3 negative determinant Sign: โ map v 1 contains ๏ง Positive for right handed coordinates reflection ๏ง Negative for left-handed coordinates
Properties A few properties: sign flips! โ reflections ๏ง det( A ) det( B ) = det( A โ B ) cancel each ๏ง det( ๐ A ) = ๐ d det( A ) ( d ๏ด d matrix A ) other (parity) ๏ง det( A -1 ) = det( A ) -1 ๏ง det( A T ) = det( A ) ๏ง det ๐ โ 0 โ ๐ invertible ๏ง Efficient computation using Gaussian elimination
Computing Determinants + โ + ๐ ๐ ๐ ๐ โ ๐ ๐ ๐ ๐ + ๐ ๐ ๐ = +๐ ๐ ๐ โ ๐ ๐ ๐ ๐ ๐ โ ๐ โ ๐ signs +๐ โ๐ +๐ Recursive Formula ๐ ๐ ๐ ๐ โ ๐ ๏ง Sum over first row subdeterminants ๏ง Multiply element there ๐ ๐ ๐ with subdeterminant ๐ ๐ ๐ ๐ ๐ ๐ ๐ ๐ โ ๐ ๏ง Subdeterminant : Leave out row and column | a |= a of selected element ๏ง Recursion ends with | a |= a Beware of ๐ซ ๐๐๐! ๏ง Alternate signs +/โ/+/โ/ โฆ complexity
Computing Determinants Result in 3D Case ๐ ๐ ๐ = ๐๐๐ + ๐๐๐ + ๐๐โ โ ๐๐๐ โ ๐๐๐ โ ๐๐โ ๐ ๐ ๐ det ๐ โ ๐
Solving Linear Systems Consider ๐ โ ๐ฒ = ๐ ๏ง Invertible matrix ๐ โ โ ๐ร๐ ๏ง Known vector ๐ โ โ ๐ ๏ง Unknown vector ๐ฒ โ โ ๐ Solution with Determinants ( Cramarโs rule): | | | ๐ฆ ๐ = det ๐ ๐ det ๐ ๐ฐ 1 โฏ ๐ โฏ ๐ฐ 3 ๐ ๐ = | | | column ๐
Addendum Matrix Algebra ADV advanced topics main ideas
Matrix Algebra Define three operations ๏ง Matrix addition ๐ 1,1 โฏ ๐ 1,๐ ๐ 1,1 โฏ ๐ 1,๐ ๐ 1,1 + ๐ 1,1 โฏ ๐ 1,๐ + ๐ 1,๐ โฎ โฑ โฎ โฎ โฑ โฎ โฎ โฑ โฎ + = ๐ ๐,1 โฏ ๐ ๐,๐ ๐ ๐,1 โฏ ๐ ๐,๐ ๐ ๐,1 + ๐ ๐,1 โฏ ๐ ๐,๐ + ๐ ๐,๐ ๏ง Scalar matrix multiplication ๐ 1,1 โฏ ๐ 1,๐ ๐ โ ๐ 1,1 โฏ ๐ โ ๐ 1,๐ โฎ โฑ โฎ โฎ โฑ โฎ ๐ โ = ๐ ๐,1 โฏ ๐ ๐,๐ ๐ โ ๐ ๐,1 โฏ ๐ โ ๐ ๐,๐ ๏ง Matrix-matrix multiplication โฑ โฐ ๐ 1,1 โฏ ๐ 1,๐ ๐ 1,1 โฏ ๐ 1,๐ ๐ โฎ โฑ โฎ โฎ โฑ โฎ โ = ๐ ๐,๐ โ ๐ ๐,๐ ๐ ๐,1 โฏ ๐ ๐,๐ ๐ ๐,1 โฏ ๐ ๐,๐ ๐=1 โฐ โฑ
Transposition T = Matrix Transposition ๏ง Swap rows and columns ๏ง Formally: T โฑ โ โฐ โ โ โ โฑ โ โ โ โฐ ๐ ๐,๐ ๐ ๐,๐ โ โ = โ โ โ โ โ โ โ โฐ โ โ โ โฑ โฐ โ โฑ
Vectors Vectors ๏ง Column matrices ๐ฒ โ โ ๐ ๏ง Matrix-Vector product consistent Co-Vectors ๐ณ T โ โ ๐ ๏ง โprojectorsโ, โdual vectorsโ, โlinear formsโ, โrow vectorsโ ๏ง Vectors to be projected on Transposition ๏ง Convert vectors into projectors and vice versa
Vectors ๐ฒ T โ ๐ณ โ โ Inner product (as a generalized โprojectionโ) ๏ง Matrix-product ๐๐ฉ๐ฆ๐ฏ๐ง๐จ โ ๐ฌ๐ฉ๐ฑ โ ๐ฒ โ ๐ณ โ = ๐ฒ, ๐ณ = ๐ฒ T โ ๐ณ ๏ง People use all three notations ๏ง Meaning of โ โ โ clear from context
Matrix-Vector Products ๐ฒ ๐ โ ๐ฒ = ๐ณ โ + โ + โ + โ ยฐ โ โ ยฐ โ = ยฐ โ ๐ ๐ณ ยฐ โ ยฐ Two Interpretations ๏ง Linear combination of column vectors ๏ง Projection on row (co-)vectors
Matrix Algebra We can add and scalar multiply ๏ง Matrices and vectors (special case) We can matrix-multiply ๏ง Matrices with other matrices (execute one-after-another) ๏ง Vectors in certain cases (next) We can โdivideโ by some (not all) matrices ๏ง Determine inverse matrix ๏ง Full-rank, square matrices only
Algebraic Rules: Addition Settings Addition: like real numbers ๐, ๐, ๐ โ โ ๐ร๐ (โcommutative groupโ) (matrices, same size) ๏ง Prerequisites: ๏ง Number of rows match ๏ง Number of columns match ๏ง Associative: ๐ + ๐ + ๐ = ๐ + ๐ + ๐ ๏ง Commutative: ๐ + ๐ = ๐ + ๐ ๏ง Subtraction: ๐ + โ๐ = ๐ ๏ง Neutral Op.: ๐ + ๐ = ๐
Algebraic Rules: Scalar Multiplication Scalar Multiplication: Vector space ๏ง Prerequisites: Settings ๐ โ โ ๏ง Always possible ๐, ๐ โ โ ๐ร๐ ๏ง Repeated Scaling: ๐ ๐๐ = ๐๐ ๐ (same size) ๏ง Neutral Operation: 1 โ ๐ = ๐ ๏ง Distributivity 1: ๐(๐ + ๐) = ๐๐ + ๐๐ ๏ง Distributivity 2: ๐ + ๐ ๐ = ๐๐ + ๐๐ So far: ๏ง Matrices form vector space ๏ง Just different notation, same semantics!
Algebraic Rules: Multiplication Multiplication: Non-Commutative Ring / Group ๏ง Prerequisites: ๏ง Number of columns right = number of rows left ๏ง Associative: ๐ โ ๐ โ ๐ = ๐ โ ๐ โ ๐ ๏ง Not commutative: often ๐ โ ๐ โ ๐ โ ๐ ๏ง Neutral Op.: ๐ โ ๐ = ๐ ๐ โ ๐ โ1 = ๐ ๏ง Inverse: Set of invertible matrices: ๏ง Additional prerequisite: โ Matrix must be square! ๐ป๐ ๐ โ โ ๐ร๐ โ Matrix must have full rank โgeneral linear groupโ
Algebraic Rules: Multiplication Settings Multiplication: Non-Commutative Ring / Group ๐ โ โ ๐ร๐ ๏ง Prerequisites: ๐ โ โ ๐ร๐ ๏ง Number of columns right ๐ โ โ ๐ร๐ = number of rows left ๏ง Associative: ๐ โ ๐ โ ๐ = ๐ โ ๐ โ ๐ ๏ง Not commutative: often ๐ โ ๐ โ ๐ โ ๐ ๏ง Neutral Op.: ๐ โ ๐ = ๐ ๐ โ ๐ โ1 = ๐ ๏ง Inverse: Set of invertible matrices: ๏ง Additional prerequisite: โ Matrix must be square! ๐ป๐ ๐ โ โ ๐ร๐ โ Matrix must have full rank โgeneral linear groupโ
Transposition Rules Transposition ๐ + ๐ T = ๐ T + ๐ T = ๐ T + ๐ T ๏ง Addition: ๐๐ T = ๐๐ T ๏ง Scalar-mult.: ๐ โ ๐ T = ๐ T โ ๐ T ๏ง Multiplication: ๐ T T = ๐ ๏ง Self-inverse: ๐ โ ๐ โ1 = ๐ โ1 โ ๐ โ1 ๏ง (Inversion:) ๐ T โ1 = ๐ โ1 T ๏ง Inverse-transp.: ๐ T = ๐ โ1 โ ๐ is orthogonal ๏ง Othogonality:
Matrix Multiplication Matrix Multiplication ๐ โ ๐ โ ๐ 1 โ | | โฎ ๐ 1 โฏ ๐ ๐ = โ โ ๐ ๐ โ | | โฑ โฐ = ๐ ๐ , ๐ ๐ โฐ โฑ ๏ง Scalar products of rows and columns
Orthogonal Matrices Othogonal Matrices ๏ง (i.e., column vectors ortho normal ) ๐ ๐ = ๐ โ1 ๏ง Proof: previous slide.
Recommend
More recommend