Cours : Simon Masnou
TD :
TP :
Note finale = max(CT, 0.49*CP+0.51*CT) (NB : les coefficients 0.49 et 0.51 sont dus à l'obligation imposée par l'administration de Lyon 1 de prendre des coefficients différents)
Il existe de nombreux ouvrages couvrant le programme du cours qu’on pourra trouver à la bibliothèque de l’université Lyon 1, parmi lesquels :
Si on préfère les documents accessibles en ligne, on pourra consulter :
6 septembre (3h) Chapitre I : Dualité en dimension finie On considère un K-espace vectoriel E de dimension finie, avec K=R ou C. Définition du dual E*, justification de dim E*=dim E. Base duale associée à une base de E : définition e_i*(e_k)=delta_i^k à l'aide du symbole de Kronecker, preuve que c'est bien une base de E*, caractérisation de chaque élément de la base duale comme projection sur un axe de coordonnées dans E. Coefficients de la décomposition dans la base duale d'un élément de E*. Détermination matricielle d’une base duale (à partir d’une base de référence). On utilise la convention suivante : si u est linéaire de E dans F munis des bases B et B', on note Mat_B’ , B (u) la matrice de l’application relativement à ces bases. Base antéduale : définition, théorème d’existence et d’unicité. Bidual, isomorphisme canonique entre E et son bidual, introduction du crochet de dualité.
Chapitre II : Formes bilinéaires, formes quadratiques 1) Formes bilinéaires a) Définitions : forme bilinéaire, forme bilinéaire symétrique, antisymétrique, alternée. Exemples (y compris en dimension infinie) Remarque sur le fait qu’on s’intéressera surtout aux formes symétriques car elles sont naturellement associées aux formes quadratiques. Applications linéaires (à gauche et à droite) associées à une forme bilinéaire. Application linéaire canonique dans le cas symétrique
13 septembre (3h) b) Représentation matricielle d'une forme bilinéaire dans une base e donnée. Lien avec la matrice de l'application linéaire associée dans les bases e et e* (base duale de e). Une forme bilinéaire est symétrique ssi sa matrice dans une base quelconque est symétrique. c) Changement de base pour les formes bilinéaires. Les matrices liées par la formule M'=P^t M P où P est une matrice de changement de base sont dites congruentes. Comparaison avec le changement de base pour les applications linéaires. d) Rang et noyau d’une forme bilinéaire symétrique définis à partir de l’application linéaire canonique associée. Le rang est aussi celui de la matrice de la forme bilinéaire. Notion de formes bilinéaires non dégénérées / dégénérées. Exemples.
e) Orthogonalité : vecteurs orthogonaux, orthogonal d’une partie, parties orthogonales, vecteurs isotropes Cône isotrope. Remarque sur la structure de cône. Il contient le noyau. Exemples où il le contient strictement. L’orthogonal d’une partie A coïncide avec l’orthogonal de Vect(A). L’orthogonal de E est le noyau de la forme bilinéaire et rang(phi)=dim E - dim E^orth. L'orthogonal de F contient toujours Ker phi. Si phi est non dégénérée et F est un sev alors dim E = dim F + dim F^orth (preuve). On admet que dans le cas général dim E + dim(E^orth \cap F) = dim F + dim F^orth. Si F est régulier i.e. F^orth \cap F={0} alors F et F^orth sont supplémentaires dans E. Rappel que dans un espace euclidien un sev F et son orthogonal F^\orth sont toujours supplémentaires. Exemple d'une forme bilinéaire pour laquelle F=F^\orth.
Théorème de représentation de Riesz pour une forme bilinéaire non dégénérée sur un espace de dimension finie.
2) Formes quadratiques a) Définitions. q est quadratique s'il existe une forme bilinéaire phi telle que q(x)=phi(x,x). Proposition et définition : il existe une unique forme bilinéaire symétrique qui vérifie cette égalité. On l’appelle la forme polaire. Identités de polarisation reliant forme polaire et forme quadratique. Corollaire : théorème de Pythagore. Exemple de détermination pratique de la forme polaire à partir d'une forme quadratique explicite.
20 septembre (3h) Représentation matricielle. Noyau, rang, cône isotrope. Forme quadratique à valeurs réelles définie positive ou définie négative. Equivalence entre (q est une forme quadratique) et (dans toute base q(x) est une fonction polynomiale homogène de degré 2 en les coordonnées de x) c) Orthogonalité, bases orthogonales. La matrice de q est diagonale dans une base orthogonale. d) Théorème de diagonalisation en base orthogonale : si q est de rang r, il existe une base dans laquelle q(x)=somme pour i allant de 1 à r des lambda_i x_i^2, avec tous les lambda_i non nuls. La matrice de q dans cette base est diag(lambda_1,…,lambda_r,0,…0). La preuve s'appuie sur le théorème de décomposition en carrés de Gauss : si q est de rang r alors q(x) est la somme pour i allant de 1 à r des lambda_i [l_i(x)]^2 où les l_i forment une famille libre de formes linéaires et les lambda_i sont non nuls. Preuve par récurrence forte. Un exemple de décomposition.
3) Classification des formes quadratiques Définition de la congruence de deux formes quadratiques. C'est une relation d'équivalence. On entend par classification l'étude des classes d'équivalence. Point de vue matricielle. Congruence de deux matrices symétriques. Deux questions : qu'est-ce que deux formes congruentes ont en commun (recherche d'invariants) ? Inversement, comment reconnaître deux formes quadratiques congruentes (notion d'invariant total) ? a) Formes quadratiques sur C : deux formes quadratiques sur C sont congruentes ssi elles ont même rang. Une forme quadratique sur C de rang r est congruente à la matrice diagonale par bloc diag(I_r, 0). b) Formes quadratiques sur R. Si q est de rang r, il existe une base et deux entiers s et t tq s+t=r et q(x)=somme de 1 à s des (x_i)^2-somme de s+1 à s+t des (x_i)^2. Théorème d'inertie de Sylvester : le couple (s,t) ne dépend pas de la base, il est unique, on l'appelle la signature. s est la dimension maximale d'un sous-espace vectoriel sur lequel q est définie positive. t est la dimension maximale d'un sous-espace vectoriel sur lequel q est définie négative. Théorème d'inertie de Sylvester en version matricielle. Tableau récapitulatif : sur C, le rang est un invariant total et la forme normale est diag(I_r, 0). Sur R, la signature est un invariant total et la forme normale est diag(I_s, -I_t, 0).
Remarque : la preuve du théorème de Sylvester a été entamée, elle sera finie au prochain cours.
27 septembre (3h) Retour sur la réduction des formes quadratiques, fin de la preuve du théorème de Sylvester.
Chapitre III : Espaces euclidiens (rappels) : produit scalaire, norme, inégalité de Cauchy-Schwarz, orthogonalité. Toute famille orthogonale est libre. Décomposition d'un vecteur dans une base orthonormée. Orthonormalisation de Gram-Schmidt et son corollaire : tout espace euclidien admet une base orthonormée. Un sous-espace euclidien et son orthogonal sont supplémentaires. Rappel sur la définition d'un projecteur dans un espace vectoriel. Projection orthogonale dans un espace euclidien : définition et caractérisation. Expression du projeté orthogonal sur un sev F dans une base orthonormée de F. Le projeté orthogonal minimise la distance à F.
4 octobre (1h30) NB : les résultats sur les endomorphismes adjoints et les endomorphismes orthogonaux étant au programme de l'UE “Algèbre 4” de L2, ils ont été simplement rappelés sans démonstration.
3) Adjoint d’un endomorphisme. a) Application adjointe d’une application linéaire entre deux espaces vectoriels, on se restreint désormais aux endomorphismes, représentation matricielle b) Endomorphismes symétriques. u est symétrique ssi sa matrice dans une base orthonormée est symétrique. Si F est stable par u alors F^orth est stable par l'adjoint u*, et donc par u s'il est auto-adjoint. Un endomorphisme est une projection orthogonale ssi c'est un projecteur et qu'il est auto-adjoint. c) Théorie spectrale des endomorphismes auto-adjoints. Théorème : si u est auto-adjoint alors toutes ses valeurs propres sont réelles, il est diagonalisable dans une base orthonormée, ses sous-espaces propres sont deux à deux orthogonaux. Corollaire : toute matrice symétrique réelle est diagonalisable et admet une base de vecteurs propres qui est orthonormée pour le produit scalaire usuel de Rn.
4) Endomorphismes orthogonaux. Notion générale d'isométrie entre espaces métriques, transformation orthogonale définie comme un endomorphisme préservant la norme. Équivalence avec la préservation du produit scalaire. Un endomorphisme orthogonal préserve l'orthogonalité. La matrice dans une base orthonormée vérifie A^tA=I. Un élément de O(E) a 1 ou -1 comme seules valeurs propres. Son déterminant est +-1, notion d'isométrie directe, indirecte. f est dans O(E) ssi f transforme toute base orthonormée en une base orthonormée ssi il existe un base orthonormée dont l'image par f est une base orthonormée. Définition de O_n(R), SO(E), SO_n(R). La matrice de passage d'une base orthonormée à une base orthonormée est orthogonale. Théorème (admis) : réduction des endomorphismes orthogonaux → si f est dans O(E) il existe une base orthonormée dans laquelle la matrice de f est diagonale par blocs, avec soit des 1 ou -1 sur la diagonale, soit des blocs 2×2 représentant des rotations dans le plan d'angles différents de 0[Pi].
Chapitre IV : Espaces hermitiens 1) Formes hermitiennes, produit scalaire hermitien a) Formes sesquilinéaires (semilinéaires à gauche, linéaires à droite), formes sesquilinéaires à symétrie hermitienne (formes hermitiennes). Formes hermitiennes positives (négatives) / définies positives (négatives).
11 octobre (1h30) Formes quadratiques hermitiennes, forme polaire, matrice d'une forme quadratique hermitienne. b) Produit scalaire hermitien, norme hermitienne. Notion d'espace hermitien. Relations entre produit scalaire hermitienne et norme (identité de polarisation, Cauchy-Schwarz, Minkowski). Noyau, cône isotrope d'une forme quadratique hermitienne. 2) Matrices hermitiennes 3) Bases orthonormées, orthogonalité. On remarque que les notions liées à l'orthogonalité vues dans le cas euclidien s'étendent facilement au cas hermitienne. Orthonormalisation de Gram-Schmidt. Un sev et son orthogonal dans un espace hermitien sont supplémentaires. Dimension de l'orthogonal d'un sous-espace vectoriel d'un espace hermitien. Biorthogonal. Décomposition d'un vecteur dans une base orthonormée à l'aide du produit scalaire (en faisant attention à l'ordre d'écriture dans le produit scalaire). Expression de la projection sur un sev F à l'aide d'une base orthonormée de F. 4) Endomorphisme adjoint d'un endomorphisme f, sa matrice dans une base orthonormée est la transconjuguée de la matrice de f. Notation A* pour \Bar A^t. 5) Endomorphismes unitaires, groupe unitaire.
18 octobre : pas de cours
25 octobre (3h) Les endomorphismes unitaires sont les endomorphismes qui transforment les bases orthonormées en bases orthonormées. 6) Endomorphismes auto-adjoints et matrices hermitiennes. Un endomorphisme est auto-adjoint ssi la matrice qui le représente dans une base orthonormée est hermitienne. Diagonalisation des endomorphismes auto-adjoints. On démontre que les valeurs propres sont réelles et on renvoie pour la suite au résultat plus général sur les matrices normales.
Endormorphismes normaux et matrices normales, lien via les bases orthonormées. Lien avec les notions de matrices symétriques réelles, antisymétriques réelles, orthogonales, unitaires, hermitiennes. Diagonalisation des endormophismes normaux dans un espace hermitien. Preuve par récurrence sur la dimension de l’espace. Remarque : le théorème est en fait une équivalence. Colloraire (le cas hermitien suffit): soit h une forme hermitienne sur un C-ev. E, soit B une base quelconque de E et A la matrice de h dans B. Alors h définit un produit scalaire hermitien si et seulement si la matrice A a toutes ses valeurs propres réelles strictement positives (on renvoie pour la preuve au livre de Grifone « Algèbre linéaire », prop. 8.19, preuve similaire à celle de la prop. 7.39)
Récapitulatif sur les résultats de diagonalisation dans C ou dans R (ou pas) pour les matrices symétriques réelles, antisymétriques réelles, hermitiennes, orthogonales, unitaires
Théorème de décomposition de Schur avec preuve par la trigonalisation standard puis l’orthonormalisation de Gram-Schmidt. Preuves directes de la diagonalisation des endomorphismes auto-adjoints et des endomorphismes unitaires via la décomposition de Schur
Chapitre V : Normes et conditionnement de matrices. Rappels sur les normes usuelles sur K^n avec K=R ou C et leurs relations d'équivalence. Norme de Frobenius sur M_mn(K). Notion de norme matricielle. La norme de Frobenius est une norme matricielle. La norme sup sur M_n(K) identifié à K^(n^2) n’est pas une norme matricielle. Norme subordonnée |||.||| (avec trois barres) sur M_n(K) à une norme ||.|| (avec deux barres) donnée sur K^n. Propriétés de la norme subordonnée. Relations d’équivalence entre les normes subordonnées infini, 2, 1 et p (c'est l’objet d’un exercice en TD). La norme de Frobenius n’est pas une norme subordonnée. Norme subordonnée sur M_m,n(K)
1er novembre : férié
8 novembre : contrôle partiel
15 novembre (3h) Propriétés des normes subordonnées infini, 1, 2, comparaison avec la norme de Frobenius (les résultats ont été énoncés, ils seront démontrés en TD). Rayon spectral. Théorème : pour toute norme matricielle ||.||, rho(A)\leq||A||. Réciproquement, pour tout eps>0 et pour toute matrice A il existe une norme subordonnée (dépendant de A) telle que |||A|||⇐rho(A)+eps. Equivalences (la suite itérée (A^k) converge vers 0) ⇔ rho(A)<1 ⇔ il existe une norme subordonnée telle que |||A|||<1. Corollaire : étant donné un vecteur x et une matrice A, pour montrer la convergence vers 0 de la suite (A^kx) il suffit de trouver une norme subordonnée telle que |||A|||<1
Conditionnement d'une matrice inversible relativement à une norme subordonnée. Propriétés générales du conditionnement (>= 1, invariant par la multiplication scalaire, le conditionnement d'un produit de matrices est contrôlé par le produit des conditionnements). On renvoie à la feuille de TD no6 pour des propriétés supplémentaires du conditionnement. Majoration de l'erreur relative pour une erreur sur le second membre. Majoration de l'erreur relative pour une erreur sur la matrice (ces deux majorations seront prouvées en TD). On énonce sans preuve le résultat général (erreurs sur la matrice et le second membre), cf les notes de cours de Raphaëlle Herbin, Thm 1.47.
Chapitre VI : Méthodes itératives pour la résolution de systèmes linéaires. Principe général, décomposition régulière A=M-N d'une matrice inversible, schéma itératif Mx_{k+1}=Nx_k + b. Matrice d'itération L=M^{-1}N. Erreur e_k=x-x_k où x est la solution de Ax=b. Théorème : une méthode itérative converge ssi sa matrice d'itération a un rayon spectral < 1. Méthode de Jacobi. Méthode de Gauss-Seidel. Théorème de Gerschgorin. Corollaire : toute matrice à diagonale strictement dominante est inversible. Proposition : Si A est à diagonale strictement dominante, les méthodes de Jacobi et Gauss-Seidel sont bien définies et convergent (la preuve sera faite au prochain cours).
22 novembre (3h) Preuve de la convergence des méthodes de Jacobi et Gauss-Seidel pour les matrices à diagonale strictement dominantes.
Chapitre VII : Décompositions de matrices. Décomposition LU sans permutation pour une matrice d'ordre n dont les déterminants mineurs principaux de 1 à (n-1) sont non nuls. Unicité lorsque la matrice est, en plus, inversible. Preuve par l'échelonnement de Gauss. Remarques numériques. Décomposition LU avec permutation. Critère de Sylvester. Toute matrice symétrique définie positive admet une décomposition LU.
29 novembre (cours-soutien, 3h) Si A admet une décomposition LU alors, pour tout k, le k-ième déterminant mineur principal est le produit des k-ième déterminants mineurs principaux de L et U. Existence d’une décomposition de Cholesky (et unicité en supposant que les coefficients diagonaux sont strictement positifs) pour toute matrice symétrique définie positive. Preuve via la décomposition LU. Remarque sur la complexité. Factorisation QR par Gram-Schmidt Evocation très brève de la factorisation QR par la méthode de Householder (il en est question dans le TP1) et de la factorisation par la méthode de Givens. Remarques sur la complexité et la stabilité numérique.
Pour toute matrice à coefficients complexes, A*A et AA* ont les mêmes valeurs propres non nulles. Elles sont réelles strictement positives. On appelle valeurs singulières leurs racines carrées (remarque sur l’abus de langage consistant à inclure parfois toutes les racines carrées des valeurs propres de A*A). Décomposition en valeurs singulières d’une matrice rectangulaire. Remarque sur le fait qu’on obtient ainsi pour toute matrice une décomposition comme somme de matrices de rang 1. Rappel sur la décomposition des matrices normales en somme de matrices de rang 1.
Chapitre VIII : Recherche de valeurs propres Sensibilité d’un problème aux valeurs propres : Soit A une matrice complexe diagonalisable, A=PDP^{-1}. Soit une norme matricielle telle que la norme de la matrice diagonale obtenue à partir d’un vecteur x est inférieure à la norme infinie du vecteur x. Soit dA une matrice. Pour tout z dans le spectre de (A + dA), il existe lambda dans le spectre de A tel que |z-lambda| ⇐ cond(P) ||dA|| où le conditionnement de P est calculé relativement à la norme matricielle choisie. Remarque sur le cas des matrices normales et le choix de la norme 2
Méthode de la puissance : énoncé et preuve de la convergence
Chapitre IX : Systèmes sur-déterminés et moindres carrés.
Définition pour un système sur-déterminé Ax=b. x est solution du problème si Ax coïncide avec la projection orthogonale de b sur Im A Si y est dans le noyau de A alors x+y est aussi solution. x est solution ssi x vérifie l'équation normale A*Ax=A*b L’équation normale admet toujours au moins une solution. Elle est unique ssi le noyau de A est réduit à {0}.
13 décembre : soutien (1h30)