.
Cours : Simon Masnou
TD :
TP : à venir
Note finale = max(CT, (CP+CT)/2)
Il existe de nombreux ouvrages couvrant les différentes parties du programme, on pourra par exemple trouver à la bibliothèque de l’université Lyon 1 les ouvrages suivants :
Si on préfère les documents accessibles en ligne, on pourra consulter :
5 septembre (3h) Chapitre I : Dualité en dimension finie On considère un K-espace vectoriel E de dimension finie, avec K=R ou C. Définition du dual E*, justification de dim E*=dim E. Base duale associée à une base de E : définition e_i*(e_k)=delta_i^k à l'aide du symbole de Kronecker, preuve que c'est bien une base de E*, caractérisation de chaque élément de la base duale comme projection sur un axe de coordonnées dans E. Coefficients de la décomposition dans la base duale d'un élément de E*. Détermination matricielle d’une base duale (à partir d’une base de référence). On utilise la convention matricielle suivante : si u est linéaire de E dans F munis des bases B et B', on note Mat_B’ , B (u) la matrice de l’application relativement à ces bases. Base antéduale : définition, théorème d’existence et d’unicité. Bidual, isomorphisme canonique entre E et son bidual, introduction du crochet de dualité.
Chapitre II : Formes bilinéaires, formes quadratiques 1) Formes bilinéaires a) Définitions : forme bilinéaire, forme bilinéaire symétrique, antisymétrique, alternée. Exemples (y compris en dimension infinie) Remarque sur le fait qu’on s’intéressera surtout aux formes symétriques car elles sont naturellement associées aux formes quadratiques.
12 septembre (3h) Applications linéaires (à gauche et à droite) associées à une forme bilinéaire. Convention : on choisit l'application gauche comme application linéaire canonique associée à une forme bilinéaire.
b) Représentation matricielle d'une forme bilinéaire dans une base e donnée. Lien avec la matrice de l'application linéaire canonique dans les bases e et e* (base duale de e). Une forme bilinéaire est symétrique ssi sa matrice dans une base quelconque est symétrique. c) Changement de base pour les formes bilinéaires. Les matrices liées par la formule M'=P^t M P où P est une matrice de changement de base sont dites congruentes. Comparaison avec le changement de base pour les applications linéaires. d) Rang et noyau d’une forme bilinéaire symétrique définis à partir de l’application linéaire canonique associée. Le rang est aussi celui de la matrice de la forme bilinéaire. Notion de formes bilinéaires non dégénérées / dégénérées. Exemples.
Théorème de représentation de Riesz pour une forme bilinéaire non dégénérée sur un espace de dimension finie.
e) Orthogonalité : vecteurs orthogonaux, orthogonal d’une partie, parties orthogonales, vecteurs isotropes Cône isotrope. Remarque sur la structure de cône. Il contient le noyau. Exemple où il le contient strictement. L’orthogonal d’une partie A coïncide avec l’orthogonal de Vect(A). L’orthogonal de E est le noyau de la forme bilinéaire et rang(phi)=dim E - dim E^orth. L'orthogonal de F contient toujours Ker phi. Si phi est non dégénérée et F est un sev alors dim E = dim F + dim F^orth (preuve). On admet que, dans le cas général, dim E + dim(E^orth \cap F) = dim F + dim F^orth. Si F est régulier i.e. F^orth \cap F={0} alors F et F^orth sont supplémentaires dans E.
19 septembre (3h) 2) Formes quadratiques a) Définitions. Une application q:E→K est une forme quadratique s'il existe une forme bilinéaire phi telle que q(x)=phi(x,x). Proposition et définition : étant donné une forme quadratique q, il existe une unique forme bilinéaire symétrique phi telle que q(x)=phi(x,x) pour tout x. On l’appelle la forme polaire. Identités de polarisation reliant forme polaire et forme quadratique. Corollaire : théorème de Pythagore. Exemple de détermination pratique de la forme polaire à partir d'une forme quadratique explicite.
Représentation matricielle. Noyau, rang, cône isotrope. Forme quadratique à valeurs réelles positive, négative, définie positive, définie négative. Equivalence entre (q est une forme quadratique) et (dans toute base q(x) est une fonction polynomiale homogène de degré 2 en les coordonnées de x) c) Orthogonalité, bases orthogonales. La matrice de q est diagonale dans une base orthogonale. d) Théorème de diagonalisation en base orthogonale : si q est de rang r, il existe une base dans laquelle q(x)=somme pour i allant de 1 à r des lambda_i x_i^2, avec tous les lambda_i non nuls. La matrice de q dans cette base est diag(lambda_1,…,lambda_r,0,…0). La preuve s'appuie sur le théorème de décomposition en carrés de Gauss : si q est de rang r alors q(x) est la somme pour i allant de 1 à r des lambda_i [l_i(x)]^2 où les l_i forment une famille libre de formes linéaires et les lambda_i sont non nuls. Preuve par récurrence forte.
3) Classification des formes quadratiques Définition de la congruence de deux matrices symétriques. Définition de la congruence de deux formes quadratiques en dimension finie à l'aide de leurs matrices dans une base quelconque. C'est une relation d'équivalence. a) Formes quadratiques sur C : deux formes quadratiques sur C sont congruentes ssi elles ont même rang. Une forme quadratique sur C de rang r admet pour matrice, dans une base appropriée, la matrice diagonale par blocs diag(I_r, 0).
26 septembre (3h) b) Formes quadratiques sur R. Si q est de rang r, il existe une base et deux entiers s et t tq s+t=r et q(x)=somme de 1 à s des (x_i)^2-somme de s+1 à s+t des (x_i)^2. Théorème d'inertie de Sylvester : le couple (s,t) ne dépend pas de la base, il est unique, on l'appelle la signature. s est la dimension maximale d'un sous-espace vectoriel sur lequel q est définie positive. t est la dimension maximale d'un sous-espace vectoriel sur lequel q est définie négative. Théorème d'inertie de Sylvester en version matricielle. Tableau récapitulatif : sur C, le rang est un invariant total et la forme normale est diag(I_r, 0). Sur R, la signature est un invariant total et la forme normale est diag(I_s, -I_t, 0).
Tableau récapitulatif de l'invariant total et de la forme normale d'une forme quadratique sur un R-ev ou sur un C-ev
Remarque sur la différence entre la décomposition en carrés d'une forme quadratique q sur R via la méthode de Gauss, et la décomposition obtenue via le théorème spectral appliqué à la matrice (symétrique réelle) de q dans une base quelconque.
Chapitre III : Espaces euclidiens (rappels) : produit scalaire, norme, distance associée, égalité du parallélogramme, identité de polarisation, inégalité de Cauchy-Schwarz. Orthogonalité. Toute famille orthogonale est libre. Décomposition d'un vecteur dans une base orthonormée. Orthonormalisation de Gram-Schmidt et son corollaire : tout espace euclidien admet des bases orthonormées. Un sous-espace euclidien et son orthogonal sont supplémentaires (la preuve par Gram-Schmidt a été vue en L2, on peut aussi démontrer la propriété en utilisant le fait que le sous-espace est régulier, cf ce qui a été dit pour les formes bilinéaires symétriques générales).
3 octobre (3h) Rappel sur la définition d'un projecteur dans un espace vectoriel. Projection orthogonale dans un espace euclidien : définition et caractérisation. Expression du projeté orthogonal sur un sev F dans une base orthonormée de F. Définition de la distance à une partie d'un espace vectoriel. Dans le cas où la partie est un sous-espace vectoriel F, d_F(x)=||x-p_F(x)||.
NB : les résultats sur les endomorphismes adjoints et les endomorphismes orthogonaux étant au programme de l'UE “Algèbre 4” de L2, ils ont été simplement rappelés sans démonstration.
3) Adjoint d’un endomorphisme. a) Application adjointe d’une application linéaire entre deux espaces vectoriels, on se restreint désormais aux endomorphismes, représentation matricielle b) Endomorphismes symétriques. u est symétrique ssi sa matrice dans une base orthonormée est symétrique. Si F est stable par u alors F^orth est stable par l'adjoint u*, et donc par u s'il est auto-adjoint. Un endomorphisme est une projection orthogonale ssi c'est un projecteur et qu'il est auto-adjoint. c) Théorie spectrale des endomorphismes auto-adjoints. Théorème : si u est auto-adjoint alors toutes ses valeurs propres sont réelles, il est diagonalisable dans une base orthonormée, ses sous-espaces propres sont deux à deux orthogonaux. Corollaire : toute matrice symétrique réelle est diagonalisable et admet une base de vecteurs propres qui est orthonormée pour le produit scalaire usuel de Rn.
4) Endomorphismes orthogonaux. Notion générale d'isométrie entre espaces métriques, transformation orthogonale définie comme un endomorphisme préservant la norme. Équivalence avec la préservation du produit scalaire. Un endomorphisme orthogonal préserve l'orthogonalité. La matrice dans une base orthonormée vérifie A^tA=I. Un élément de O(E) a 1 ou -1 comme seules valeurs propres. Son déterminant est +-1, notion d'isométrie directe, indirecte. f est dans O(E) ssi f transforme toute base orthonormée en une base orthonormée ssi il existe un base orthonormée dont l'image par f est une base orthonormée. Définition de O_n(R), SO(E), SO_n(R). La matrice de passage d'une base orthonormée à une base orthonormée est orthogonale. Théorème (admis) : réduction des endomorphismes orthogonaux → si f est dans O(E) il existe une base orthonormée dans laquelle la matrice de f est diagonale par blocs, avec soit des 1 ou -1 sur la diagonale, soit des blocs 2×2 représentant des rotations dans le plan d'angles différents de 0[Pi].
Chapitre IV : Espaces hermitiens 1) Formes hermitiennes, produit scalaire hermitien a) Formes sesquilinéaires (avec la convention suivante : semilinéaires à gauche, linéaires à droite), formes sesquilinéaires à symétrie hermitienne (formes hermitiennes). Formes hermitiennes positives (négatives) / définies positives (négatives). Formes quadratiques hermitiennes, forme polaire, matrice d'une forme quadratique hermitienne. b) Produit scalaire hermitien, norme hermitienne. Notion d'espace hermitien. Relations entre produit scalaire hermitienne et norme (identité de polarisation, Cauchy-Schwarz, Minkowski). 2) Matrices hermitiennes
10 octobre (3h) Fin du paragraphe sur les matrices hermitiennes 3) Bases orthonormées, orthogonalité. On remarque que les notions liées à l'orthogonalité vues dans le cas euclidien s'étendent facilement au cas hermitienne, ainsi que les résultats : orthonormalisation de Gram-Schmidt ; un sev et son orthogonal dans un espace hermitien sont supplémentaires ; dimension de l'orthogonal d'un sous-espace vectoriel d'un espace hermitien ; biorthogonal ; décomposition d'un vecteur dans une base orthonormée à l'aide du produit scalaire (en faisant attention à l'ordre d'écriture dans le produit scalaire) ; expression de la projection sur un sev F à l'aide d'une base orthonormée de F. 4) Endomorphisme adjoint d'un endomorphisme f, sa matrice dans une base orthonormée est la transconjuguée de la matrice de f. Notation A* pour \Bar A^t. 5) Endomorphismes unitaires, groupe unitaire. Les endomorphismes unitaires sont les endomorphismes qui transforment les bases orthonormées en bases orthonormées. 6) Endomorphismes auto-adjoints et matrices hermitiennes. Un endomorphisme est auto-adjoint ssi la matrice qui le représente dans une base orthonormée est hermitienne. Diagonalisation des endomorphismes auto-adjoints. On démontre que les valeurs propres sont réelles et on renvoie pour la suite au résultat plus général sur les matrices normales. 7) Endormorphismes normaux et matrices normales, lien via les bases orthonormées. Lien avec les notions de matrices symétriques réelles, antisymétriques réelles, orthogonales, unitaires, hermitiennes. Diagonalisation des endormophismes normaux dans un espace hermitien. Preuve par récurrence sur la dimension de l’espace. Remarque : le théorème est en fait une équivalence. Colloraire (le cas hermitien suffit): soit h une forme hermitienne sur un C-ev. E, soit B une base quelconque de E et A la matrice de h dans B. Alors h définit un produit scalaire hermitien si et seulement si la matrice A a toutes ses valeurs propres réelles strictement positives (on renvoie pour la preuve au livre de Grifone « Algèbre linéaire », prop. 8.19, preuve similaire à celle de la prop. 7.39)
Théorème de décomposition de Schur avec preuve par la trigonalisation standard puis l’orthonormalisation de Gram-Schmidt. Preuves directes de la diagonalisation des endomorphismes auto-adjoints et des endomorphismes unitaires via la décomposition de Schur
Chapitre V : Normes et conditionnement de matrices. 1) Normes dans des espaces de matrices. Rappels sur les normes usuelles sur K^n avec K=R ou C et leurs relations d'équivalence. Norme de Frobenius sur M_mn(K).
17 octobre (3h) Notion de norme matricielle. La norme de Frobenius est une norme matricielle. La norme sup sur M_n(K) identifié à K^(n^2) n’est pas une norme matricielle. Norme subordonnée |||.||| (avec trois barres) sur M_n(K) à une norme ||.|| (avec deux barres) donnée sur K^n. Propriétés de la norme subordonnée. Relations d’équivalence entre les normes subordonnées infini, 2, 1 et p (c'est l’objet d’un exercice en TD). La norme de Frobenius n’est pas une norme subordonnée. Norme subordonnée sur M_m,n(K). Propriétés des normes subordonnées infini, 1, 2 sur M_n(K), comparaison avec la norme de Frobenius (les résultats ont été énoncés, ils seront démontrés en TD). Rayon spectral. Théorème : pour toute norme matricielle ||.||, rho(A)\leq||A||. Réciproquement, pour tout eps>0 et pour toute matrice A il existe une norme subordonnée (dépendant de A) telle que |||A|||⇐rho(A)+eps. Equivalences (la suite itérée (A^k) converge vers 0) ⇔ rho(A)<1 ⇔ il existe une norme subordonnée telle que |||A|||<1. Corollaire : étant donné un vecteur x et une matrice A, pour montrer la convergence vers 0 de la suite (A^kx) il suffit de trouver une norme subordonnée telle que |||A|||<1
2) Conditionnement et sensibilité des solutions de systèmes linéaires : conditionnement d'une matrice inversible relativement à une norme subordonnée. Propriétés générales du conditionnement (>= 1, invariant par la multiplication scalaire, le conditionnement d'un produit de matrices est contrôlé par le produit des conditionnements). On renvoie à la feuille de TD no6 pour des propriétés supplémentaires du conditionnement. Majoration de l'erreur relative pour une erreur sur le second membre. Majoration de l'erreur relative pour une erreur sur la matrice (ces deux majorations seront prouvées en TD). On énonce sans preuve le résultat général (erreurs sur la matrice et le second membre), cf les notes de cours de Raphaëlle Herbin, Thm 1.47.