Algèbre linéaire et bilinéaire, analyse matricielle

Semestre d'automne 2023-2024

Équipe pédagogique

Cours : Simon Masnou

TD :

TP :

Informations pratiques

Emploi du temps

le sujet du contrôle partiel et son corrigé

Modalité de contrôle des connaissances et de compétence

Note finale = 0.8*max(CT, (CP+CT)/2) + 0.2*TP

Annales d'examen

Ressources pédagogiques

Il existe de très nombreux ouvrages couvrant le programme du cours qu’on pourra trouver à la bibliothèque de l’université Lyon 1, par exemple :

Si on préfère les documents accessibles en ligne, on pourra consulter :

Feuilles de travaux dirigés

Avancement du cours

5 septembre (3h) Chapitre I : Dualité en dimension finie 1) Définitions On considère un K-espace vectoriel E de dimension finie, avec K=R ou C. Notion d’espace dual, crochet de dualité. Justification du crochet par une remarque sur l’isomorphisme canonique entre E et son bidual 2) Base duale d’une base (e_i) avec les trois définitions équivalentes : - e_j^* est l’unique forme linéaire dont l’action sur les e_i donne les symboles de Kronecker - e_j* est la projection sur le j-ème axe parallèlement aux autres axes - définition via la représentation des e_i par des vecteurs colonnes, des e_j^* par des vecteurs lignes et de l’action des e_j^* sur les e_i comme des produits vecteur colonne x vecteur ligne Proposition : la famille obtenue est une base du dual. De plus l’application e_i→ e_i* est un isomorphisme de sorte que dim E^* = dim E Décomposition d’une forme linéaire de E^* dans la base duale Détermination matricielle d’une base duale (à partir d’une base de référence). On utilise la convention suivante : si u est linéaire de E dans F munis des bases B et B', on note Mat_B’ , B (u) la matrice de l’application relativement à ces bases. 3) Base antéduale : théorème d’existence et d’unicité, preuve matricielle 4) Application transposée (notée u^t) : définition et caractérisation Matrice de l’application transposée u^t à partir de la matrice de u

Chapitre II : Formes bilinéaires et formes quadratiques 1) Formes bilinéaires a) Définitions : Forme bilinéaire, Forme bilinéaire symétrique, antisymétrique, alternée. Exemples (y compris en dimension infinie) Remarque sur le fait qu’on s’intéressera surtout aux formes symétriques Applications linéaires (à gauche et à droite) associées à une forme bilinéaire. Application linéaire canonique dans le cas symétrique b) Représentation matricielle en dimension finie. Caractérisation. La forme bilinéaire est symétrique ssi sa matrice associée l’est. Lien avec la matrice de l’application linéaire canonique dans le cas symétrique (mais la preuve passe par le cas général, avec la transposée donc)

12 septembre (3h) c) Changement de base pour les formes bilinéaires. Comparaison avec le changement de base pour les applications linéaires d) Rang et noyau d’une forme bilinéaire symétrique Définition du rang et du noyau à partir de l’application linéaire canonique associée à une forme bilinéaire ou, de façon équivalente, à l’aide de la matrice associée dans une base quelconque (remarque sur le cas général pour la détermination du rang). Notion de forme bilinéaire non dégénérée. Exemples e) Orthogonalité : vecteurs orthogonaux, orthogonal d’une partie, parties orthogonales, vecteurs isotropes Cône isotrope. Remarque sur la structure de cône. Il contient le noyau. Exemples où il le contient strictement. L’orthogonal d’une partie A coïncide avec l’orthogonal de Vect(A). L’orthogonal de E est le noyau de la forme bilinéaire. rang(phi)=dim E - dim E^orth. Si F est un sev de E avec dim E = n alors dim F + dim F^orth = n + dim(E^orth \cal F). Cas particulier : E^orth \cal F réduit à {0}. Cas particulier : phi est non dégénérée. Rappel : F et F^orth sont supplémentaires dans le cas euclidien (F sev bien sûr). Un exemple de forme bilinéaire où F et F^orth coïncident. f) Restriction d’une forme bilinéaire symétrique. Equivalence (La restriction est non dégénérée ⇔ F et F^orth sont supplémentaires ⇔ F \cap F^orth = {0}). g) Théorème de représentation de Riesz pour une forme bilinéaire non dégénérée sur un espace de dimension finie. 2) Formes quadratiques a) Définitions. q est quadratique s'il existe une forme bilinéaire phi telle que q(x)=phi(x,x). Proposition : il existe une unique forme bilinéaire symétrique qui convient, On l’appelle la forme polaire. Formules reliant forme polaire et forme quadratique. b) Représentation matricielle. Rang et noyau, formule de changement de base. c) Bases orthogonales. Remarque sur le fait que la matrice de q est diagonale dans une base orthogonale. Equivalences q est une forme quadratique ⇔ dans toute base q(x) est une fonction polynomiale homogène de degré 2 en les coordonnées de x.

19 septembre (3h) d) Existence d'une base orthogonale. Algorithme de Gauss. Théorème de diagonalisation en base orthogonale : si q est de rang r, il existe une base dans laquelle q(x)=somme pour i allant de 1 à r des lambda_i x_i^2, avec tous les lambda_i non nuls. La matrice de q dans cette base est diag(lambda_1,…,lambda_r,0,…0). La preuve s'appuie sur le théorème de décomposition en carrés de Gauss : si q est de rang r alors q(x) est la somme pour i allant de 1 à r des lambda_i [l_i(x)]^2 où les l_i forment une famille libre de formes linéaires et les lambda_i sont non nuls. Preuve par récurrence forte. Un exemple de décomposition. 3) Classification des formes quadratiques Définition de la congruence de deux formes quadratiques. C'est une relation d'équivalence. On entend par classification l'étude des classes d'équivalence. Point de vue matricielle. Congruence de deux matrices symétriques. Deux questions : qu'est-ce que deux formes congruentes ont en commun (recherche d'invariants) ? Inversement, comment reconnaître deux formes quadratiques congruentes (notion d'invariant total) ? a) Formes quadratiques sur C : deux formes quadratiques sur C sont congruentes ssi elles ont même rang. Une forme quadratique sur C de rang r est congruente à la matrice diagonale par bloc diag(I_r, 0). b) Formes quadratiques sur R. Si q est de rang r, il existe une base et deux entiers s et t tq s+t=r et q(x)=somme de 1 à s des (x_i)^2-somme de s+1 à s+t des (x_i)^2. Théorème d'inertie de Sylvester : le couple (s,t) ne dépend pas de la base, il est unique, on l'appelle la signature. s est la dimension maximale d'un sous-espace vectoriel sur lequel est définie positive. t est la dimension maximale d'un sous-espace vectoriel sur lequel q est définie négative. Théorème d'inertie de Sylvester en version matricielle. Corollaire : sur R, deux formes quadratiques sont congruentes ssi elles ont même signature.

Tableau récapitulatif : sur C, le rang est un invariant total et la forme normale est diag(I_r, 0). Sur R, la signature est un invariant total et la forme normale est diag(I_s, -I_t, 0).

Chapitre III : Espaces euclidiens (rappels) 1) Produit scalaire et normes a) Produit scalaire, espace euclidien

26 septembre (1h30) b) Norme, norme associée à un produit scalaire, inégalité de Cauchy-Schwarz dans un espace euclidien, identités et inégalités remarquables 2) Orthogonalité a) Vecteurs et systèmes orthogonaux, théorème de Pythagore pour la somme de vecteurs deux à deux orthogonaux b) Familles et bases orthonormées, décomposition d'un vecteur dans une base orthonormée (et sa norme), matrice d'un endomorphisme dans une base orthonormée. Toute famille orthogonale de vecteurs non nuls est libre. Expression du produit scalaire dans une base orthonormée. c) Orthonormalisation de Gram-Schmidt, corollaire : tout espace euclidien admet des bases orthonormées. d) Projections (définition d'une projection à partir d'une somme directe, image, noyau ; réciproquement toute application linéaire qui vérifie p^2=p est une projection), projections orthogonales : le projeté orthogonal de x sur un s.e.v F est l'unique vecteur y tel que x-y est orthogonal à F. L'application qui à x associe y est une projection d'image F et de noyau F^orth. Lien avec l'orthonormalisation de Gram-Schmidt. e) Supplémentaires orthogonaux. 3) Endomorphismes des espaces euclidiens. a) Application adjointe, représentation matricielle b) Endomorphismes auto-adjoints (aussi appelés symétriques dans le cas euclidien). u est auto-adjoint ssi sa matrice dans une base orthonormée est symétrique. Si F est stable par u alors F^orth est stable par l'adjoint u*, et donc par u s'il est auto-adjoint. Une matrice symétrique réelle représente un endomorphisme auto-adjoint dans R^n muni de son produit scalaire usuel. Un endomorphisme est une projection orthogonale ssi c'est un projecteur et qu'il est auto-adjoint. c) Réduction des endomorphismes auto-adjoints. Théorème : si u est auto-adjoint alors toutes ses valeurs propres sont réelles, il est diagonalisable dans une base orthonormée, ses sous-espaces propres sont deux à deux orthogonaux. Corollaire : toute matrice symétrique réelle est diagonalisable et admet une base de vecteurs propres qui est orthonormée pour le produit scalaire usuel de Rn.

3 octobre (3h) d) Groupe orthogonal. Notion générale d'isométrie entre espaces métriques, transformation orthogonale définie comme un endomorphisme préservant la norme. Équivalence avec la préservation du produit scalaire. Un endomorphisme orthogonal préserve l'orthogonalité. La matrice dans une base orthonormée vérifie A^tA=I. Un élément de O(E) a 1 ou -1 comme seules valeurs propres. Son déterminant est +-1, notion d'isométrie directe, indirecte. f est dans O(E) ssi f transforme toute base orthonormée en une base orthonormée ssi il existe un base orthonormée dont l'image par f est une base orthonormée. Définition de O_n(R), SO(E), SO_n(R). La matrice de passage d'une base orthonormée à une base orthonormée est orthogonale. Une matrice de O_2(R) est soit une matrice de rotation, soit une matrice de symétrie orthogonale. Rappel sur la caractérisation d'une symétrie orthogonale. Si F est un sev stable par f de O(E), alors F^orth est stable par f. Théorème (admis) : réduction des endomorphismes orthogonaux → si f est dans O(E) il existe une base orthonormée dans laquelle la matrice de f est diagonale par blocs, avec soit des 1 ou -1 sur la diagonale, soit des blocs 2×2 représentant des rotations dans le plan d'angles différents de 0[Pi].

Chapitre IV : Espaces hermitiens 1) Formes hermitiennes, produit scalaire hermitien a) Formes sesquilinéaires (semilinéaires à gauche, linéaires à droite), formes sesquilinéaires à symétrie hermitienne (formes hermitiennes). Formes quadratiques hermitiennes. Unicité de la forme polaire, identité de polarisation. Matrice d'une forme hermitienne, rang. b) Produit hermitien, norme hermitienne, inégalités de Cauchy-Schwarz et Minkoswki. Remarque sur les notions et propriétés qui s'étendent facilement du cas euclidien au cas hermitien : orthogonalité, existence de bases orthonormées (remarque sur l'algorithme de Gauss et la décomposition en somme de modules au carré de formes linéaires indépendantes), orthonormalisation de Gram-Schmidt, projection orthogonale. Matrices hermitiennes, changement de base. Endomorphisme adjoint de f, sa matrice dans une base orthonormée est la transconjuguée de la matrice de f. Notation A* pour \Bar A^t. Groupe unitaire, matrice unitaire. Endomorphisme auto-adjoint (on dit aussi hermitien). f est hermitien ssi la matrice qui le représente dans une base orthonormée est hermitienne. Diagonalisation dans une base orthonormée d'un endomorphisme auto-adjoint, ses valeurs propres sont toutes réelles. Endomorphisme normal, matrice normale. Un endomorphisme normal est diagonalisable dans une base orthonormée. Ecriture matricielle. (NB : les derniers résultats ont été très rapidement énoncés, ils seront repris au prochain cours et démontrés).

10 octobre pas de cours

17 octobre (3h) Fin du cours sur les espaces hermitiens : orthogonalité, projection sur un sous-espace vectoriel dont on connaît une base orthonormée, groupe unitaire, diagonalisation des endomorphismes hermitiens, endomorphismes normaux, cas particuliers, diagonalisation des endomorphismes normaux, retour sur les endomorphismes orthogonaux non diagonalisables dans R

Chapitre V : Décomposition de matrices. Coût exponentiel de l’évaluation d’un déterminant par la méthode naïve et son utilisation pour la méthode de Cramer Remarque sur la méthode du pivot de Gauss et sa complexité cubique, et la complexité quand on doit résoudre K systèmes. Décomposition LU, preuve de l’existence et de l’unicité dans le cas où tous les mineurs principaux sont non nuls. Lien avec la méthode du pivot de Gauss, complexité. Existence lorsqu’on suppose juste que (n-1) mineurs principaux sont non nuls. Cas où A est juste inversible : il existe une matrice de permutation telle que PA admette une décomposition LU (sans preuve). Remarque sur la complexité. Rappel sur le critère de Sylvester (une matrice réelle symétrique ou complexe hermitienne est définie positive ssi ses mineurs principaux sont strictement positifs). Décomposition de Cholesky. Décomposition QR et corollaire pour le cas rectangulaire

24 octobre (1h30, suivies d'1h30 de soutien) Preuve de la décomposition de Cholesky, preuve de la décomposition QR. Décomposition en valeurs singulières.

Chapitre VI : Normes, rayon spectral et conditionnement d'une matrice. Normes d'une matrice, norme de Frobenius, notion de norme matricielle (exemple d'une norme de matrice qui n'est pas une norme matricielle), norme subordonnée (matrice carrée et matrice rectangulaire), propriétés des normes subordonnées, propriétés et comparaison des normes usuelles (norme de Frobenius, normes lp, lien entre norme subordonnée 2 et valeurs singulières, stabilité de la norme 2 et de la norme de Frobenius par multiplication à gauche ou à droite par une matrice unitaire, norme 2 et rayon spectral d'une matrice normale). Ces derniers résultats ont été énoncés, ils seront démontrés en TD.

31 octobre Congés

7 novembre Contrôle partiel (1h30) Sujet

14 novembre (3h) Rappel du théorème de Schur et preuve. Le rayon spectral rho(A) d'une matrice A est toujours inférieur à une norme matricielle quelconque de A. Réciproquement, pour tout epsilon et pour toute matrice A, il existe une norme subordonnée telle que ||A||⇐ rho(A)+A. Problème des erreurs d'arrondis. Conditionnement. Caractérisation et propriétés du conditionnement associé à la norme 2. Majoration de l'erreur relative pour une erreur sur le second membre, pour une erreur sur la matrice.

Chapitre VII : Méthodes itératives. Suites et itérées de matrices. Pour une matrice complexe, la convergence vers 0 de A^k quand k→+infini ⇔ lim A^kx=0 pour tout x ⇔ rho(A)<1 ⇔ il existe une norme subordonnée telle que ||A||<1. On a toujours rho(A)=lim ||A^k||^1/k. Méthodes itératives : principe général, notion de décomposition régulière (M,N). La méthode itérative associée à (M,N) converge ssi rho(M^{-1}N)<1. Cas où A est hermitienne, définie positive. Méthodes de Jacobi et Gauss-Seidel. Preuve de la convergence des deux méthodes pour une matrice à diagonale strictement dominante. Théorème de Gerschgorin. Méthode de relaxation.

21 novembre (3h) Convergence d'une méthode itérative associée à une décomposition régulière A=M-N lorsque A est hermitienne, définie positive. Application pour la méthode de relaxation et les méthodes de Jacobi et Gauss-Seidel.

Chapitre VIII : Recherche de valeurs propres. Sensibilité d'un problème aux valeurs propres (contrôle du spectre après perturbation). Méthode de la puissance. Preuve de la convergence pour une matrice diagonalisable ayant une seule valeur propre de plus grand module. Méthode QR, énoncé du résultat de convergence lorsque la matrice a toutes ses valeurs propres de modules deux à deux distincts.

Chapitre IX : Problème aux moindres carrés. Définition. Un point est solution du problème aux moindre carrés ssi il est solution de l'équation normale A^tAx=A^tb. Unicité ssi le noyau de la matrice est réduit à l'élement nul. Lien avec la projection orthogonale de b sur Im A. Utilisation de la factorisation QR pour résoudre le problème aux moindres carrés.

5 décembre (soutien, 1h30)