Les livres de Liret et Martinais de première année peuvent servir de référence pour ce cours. On les trouve à la bibliothèque, ou en version électronique (en étant connecté avec des identifiants Lyon 1) ici (algèbre) et là (analyse).
Cours du 21 janvier: Définition d'une matrice, interprétation en termes de systèmes et de fonctions. Vocabulaire: matrice carrée, matrice colonne, matrice ligne. Opérations sur les matrices: somme, produit. Interprétation du produit en terme de composition de fonctions. Le produit est associatif, mais pas commutatif (exemples). Transposée d'une matrice et propriétés: transposer deux fois ne change pas la matrice, transposer AB donne le produit de la transposée de A et de la transposée de B. Définitions des puissances d'une matrice et formule A^(i+j)=A^i A^j. Formule du binôme (énoncée mais pas encore démontrée). Pour toute paire d'entiers (i,j) et toute matrice carrée A on a A^(i+j)=A^i A^j. Formule du binôme pour deux matrices carrées qui commutent. Définition d'une matrice inversible. Propriétés des matrices inversibles: si A est inversible alors A^(-1) aussi, et (A^(-1))^(-1)=A; un produit de deux matrices inversibles est inversible et (AB)^(-1)=B^(-1)A^(-1); définition de A^m quand A est inversible et A est un entier relatif. Si A est inversible alors sa transposée aussi, et formule pour l'inverse de la transposée. Si A a une colonne nulle alors A n'est pas inversible. A est inversible ssi sa transposée est inversible. Si A a une ligne nulle alors A n'est pas inversible.
Cours du 22 janvier: lien entre résolution d'un système linéaire et équation AX=B, où A est une matrice et X,Y des matrices colonne. Définition des matrices élémentaires (dilatation, permutation, transvection - ce vocabulaire n'est pas exigible) et lien avec les opérations élémentaires sur les lignes: appliquer une opération élémentaire sur les lignes à une matrice A, c'est multiplier A à gauche par la matrice élémentaire correspondante. Remarque : les matrices élémentaires sont inversibles. Matrices échelonnées, échelonnées réduites. Définition: deux matrices sont équivalentes en lignes si on peut passer de l'une à l'autre par une suite d'opérations élémentaires sur les lignes. Théorème: toute matrice est équivalente en lignes à une matrice échelonnée réduite (l'unicité de cette matrice échelonnée réduite a été énoncée mais pas démontrée). La seule matrice échelonnée réduite et inversible dans M_n(K) est la matrice identité I_n. Critère d'inversibilité: A est inversible ssi pour tout Y AX=Y a une solution unique ssi AX=0 a une solution unique ssi A est équivalente en lignes à l'identité ssi A est un produit de matrices élémentaires. Méthode du pivot pour calculer l'inverse d'une matrice (en formant une matrice augmentée, et en faisant des opérations élémentaires sur les lignes sur la matrice augmentée). Théorème: étant données deux matrices A et B dans M_n(K), les propriétés suivantes sont équivalentes: AB=I_n; A et B sont inversibles et B=A^(-1); BA=I_n (démonstration à savoir refaire en utilisant la caractérisation des matrices inversibles énoncée un peu avant dans le cours).
Cours du 28 janvier: opérations élémentaires sur les colonnes (sans donner de détails). Résolution d'un système par la méthode du pivot de Gauss. Vocabulaire sur les matrices carrées: matrices triangulaires supérieures, triangulaires inférieures, diagonales. Théorème: une matrice triangulaire est inversible ssi ses coefficients diagonaux sont non nuls (et alors l'inverse est triangulaire et on connaît ses coefficients diagonaux). Conséquence sur les matrices diagonales: une matrice diagonale est inversible ssi ses coefficients diagonaux sont tous non nuls, et formule pour l'inverse. Matrices symétriques, antisymétriques; toute matrice carrée est somme d'une matrice symétrique et d'une matrice antisymétrique. Début du chapitre sur les fractions rationnelles (K=R ou C): définition, opérations algébriques, zéros, pôles. Degré d'une fraction rationnelle. Toute fraction rationnelle a une forme irréductible unique; toute fraction rationnelle s'écrit de façon unique sous la forme P+Q, où P est un polynôme et deg(Q) <0. Définition d'un élément simple, forme des éléments simples sur R et sur C. Énoncé du théorème de décomposition en éléments simples sur C, puis sur R (existence et unicité; la démonstration est hors programme et sera faite dans le cours d'algèbre). Premiers exemples.
Cours du 29 janvier: exemples de calcul de décomposition en éléments simples. Il faut exploiter les symétries de la fonction (parité, imparité) s'il y en a. Début du cours sur les espaces vectoriels. Définition d'un espace vectoriel (sur K=Q,R,ou C). Exemples: K^n, K[X], K(X), espaces de matrices, espaces de fonctions, espaces de suites… Définition d'un sous-espace vectoriel et exemples. L' intersection d''une famille quelconque de sous-espaces vectoriels est un sous-espace vectoriel. Par contre, une réunion de deux sous-espaces vectoriels est un espace vectoriel ssi l'un des deux est contenu dans l'autre. Définition du sous-espace vectoriel engendré par x_1,…,x_n, qu'on note Vect(x_1,…,x_n): c'est l'intersection de tous les sous-espaces vectoriels qui contiennent x_1,…,x_n. Théorème: Vect(x_1,…,x_n) est l'ensemble des vecteurs qui s'écrivent comme combinaison linéaire de x_1,…,x_n. Définition d'une famille libre. Théorème: soit (x_1,…,x_n) une famille libre et y un vecteur. Alors y appartient à Vect(x_1,…,x_n) si, et seulement si, (x_1,…,x_n,y) est liée.
Cours du 4 février: retour sur les notions de famille libre, famille génératrice, et exemples. Définition d'une base: une famille à la fois libre et génératrice. Exemples: dans R^n, R_n[X], M_{n,m}(K) (matrice E_{i,j} de la base canonique). Lemme d'échange (lemme de Steinitz) énoncé mais pas démontré (nous ferons la démonstration lors du prochain cours d'algèbre). Conséquence: le cardinal d'une partie libre (finie) d'un espace vectoriel E est toujours inférieur à celui d'une partie génératrice (finie). Deux bases d'un même espace vectoriel ont le même nombre d'éléments. Tout espace vectoriel, non réduit à {0}, ayant une partie génératrice finie admet une base (x_1,…x_n) et alors on note n=dim(E). Théorème de la base incomplète: toute famille libre peut être complétée en une base, toute partie génératrice contient une base. Si n=dim(E), alors pour toute famille (x_1,…,x_n) dans E les propriétés suivantes sont équivalentes: (i) (x_1,…,x_n) est libre; (ii) (x_1,…,x_n) est génératrice; (iii) (x_1,…,x_n) est une base (attention, ce théorème ne s'applique qu'aux familles dont le nombre d'éléments est égal à la dimension de l'espace E).
Cours du 5 février
(aucune démonstration n'est exigible): Subdivision d'un segment, pas d'une subdivision. Deux subdivisions de [a,b] étant données, il existe une troisième subdivision qui les raffine toutes les deux. Fonctions en escalier, subdivisions adaptées. Une fonction en escalier ne prend qu'un nombre fini de valeurs, une combinaison linéaire et un produit de fonctions en escalier est une fonction en escalier. Intégrale d'une fonction en escalier et propriétés (positivité, linéarité, inégalité triangulaire). Subdivisions pointées, sommes de Riemann. Somme de Darboux supérieure et inférieure; premières propriétés. Définition d'une fonction intégrable sur [a,b]: c'est une fonction bornée telle que le sup des sommes de Darboux inférieures (parmi toutes les subdivisions) coïncide avec l'inf des sommes de Darboux supérieures (parmi toutes les subdivisions). Interprétation comme “approcher l'aire entre l'axe des abscisses et le graphe de f par des sommes d'aires de rectangles”. Une fonction bornée sur [a,b] est intégrable ssi pour tout epsilon >0 il existe une subdivision pointée telle que la somme de Darboux supérieure associée à cette subdivision est majorée par la somme de Darboux inférieure + epsilon. Si f est intégrable, alors pour toute suite de subdivisions dont le pas tend vers 0 les sommes de Darboux associées convergent vers l'intégrale de f. Théorème: toute fonction continue sur un segment est intégrable. Tentatives de calcul d'intégrales à l'aide de sommes de Riemann, conclusion: il nous faut une meilleure méthode. Le cours s'est appuyé sur ce
diaporama.
Cours du 25 février : définition d'une fonction continue par morceaux. Les fonctions continues par morceaux sont bornées. Propriétés de l'intégrale des fonctions continues par morceaux: relation de Chasles, positivité, linéarité, inégalité triangulaire. L'intégrale de f sur [a,b] est comprise entre (b-a) inf(f) et (b-a) sup(f). Si f est continue par morceaux alors la fonction qui à x associe intégrale à x de f(t) dt est continue. Théorème fondamental de l'analyse: si f est continue sur [a,b] alors la fonction qui à x associe intégrale de a à x de f(t)dt est dérivable, de dérivée égale à f.
Cours du 26 février: formule d'intégration par parties, théorème de changement de variables, exemples. Intégrer (ou dériver) une fonction à valeurs complexes revient à intégrer (ou dériver) sa partie réelle et sa partie imaginaire. La dérivée de x –> e^(alpha x), où x est réel et alpha est complexe, est égale à alpha e^(alpha x). Cours d'algèbre linéaire: si E est de dimension finie et F est un sous-espace vectoriel de E alors F est de dimension finie et dim(F) est majorée par dim(E); de plus on a alors F=E ssi dim(F)=dim(E). Définition d'une somme de deux sous-espaces vectoriels, d'une somme directe. Deux sous-espaces vectoriels d'un espace vectoriel E sont en somme directe si leur intersection est réduite à {0} et leur somme est égale à E. Si F et G sont en somme directe, alors dim(F+G)=dim(F)+dim(G). Dans un espace vectoriel de dimension finie, tout sous-espace vectoriel admet un supplémentaire. Formule de Grassmann: si F et G sont deux sous-espaces vectoriels d'un espace vectoriel E de dimension finie, alors dim(F+G)=dim(F)+dim(G)-dim(F intersection G).
Cours du 4 mars : Critère: deux sous-espaces F et G d'un ev de dimension finie sont en somme directe si, et seulement si, dim(F+G)=dim(F)+dim(G). Dans un ev de dimension finie, deux sous-ev F et G sont supplémentaires si, et seulement si, dim(F)+dim(G)=dim(E) et F intersecté avec G est réduit à {0}. Preuve du lemme de Steinitz (qui avait été énoncé mais pas démontré). Preuve du théorème de décomposition en éléments simples sur C par un argument de dimension. Description des suites solutions d'une relation de récurrence linéaire d'ordre 2 dans C (discussion selon les racines du polynôme caractéristique).
Cours du 5 mars : Suites satisfaisant une relation de récurrence linéaire d'ordre 2, cas réel. Début du chapitre sur les applications linéaires : définition d'une application linéaire, discussion de plusieurs exemples. Définition du noyau et de l'image d'une application linéaire.
Théorème : si phi est une application linéaire de E vers F, et G un sous-espace vectoriel de F, alors phi^(-1)(G) est un sous-espace vectoriel de E. En particulier, le noyau de phi est un sous-espace vectoriel de E. Tout cela a nécessité des rappels sur l'injectivité, la surjectivité, ainsi que les notions d'image directe et réciproque d'un ensemble par une fonction. Ensuite nous avons évoqué divers calculs classiques d'intégrales, en nous basant sur ce
diaporama : polynômes trigonométriques, fractions rationnelles, fractions rationnelles en sin,cos (les règles de Bioche ont été énoncées et sont admises).
en colle attention à éviter de donner des calculs trop techniques (comme le sont certains des calculs du diaporama utilisé comme support pour cette séance).
Cours du 11 mars : Dans tout le résumé de cours E,F sont des ev de dimension finie et f une application linéaire de E dans F. l'image par f d'un sous-espace vectoriel de E est un sous-espace vectoriel de F. Lien entre injectivité et noyau: une application linéaire est injective si, et seulement si, son noyau est réduit à {0}. Lien avec la notion de famille génératrice: l'image par f d'une famille génératrice de E est une famille génératrice de Im(f). f est surjective ssi l'image de toute famille génératrice est génératrice ssi il existe une famille génératrice de E dont l'image est une famille génératrice de F. f est injective ssi l'image de toute famille libre est une famille libre ssi il existe une base de E dont l'image est libre dans F. Définition du rang de f: c'est la dimension de Im(f). Si f est injective l'image d'une base de E est une base de Im(f) donc rang(f)=dim(E). Si f est un isomorphisme alors son application réciproque est une application linéaire.
Cours du 12 mars : Dans tout le résumé de cours E,F sont des ev de dimension finie et f une application linéaire de E dans F. Si rang(f)=dim(E) alors f est injective. Si dim(E)=dim(F) alors f est bijective ssi f est injective ssi f est surjective. Théorème du rang: on a toujours rang(f)+dim(ker(f))=dim(E). En particulier, si dim(E)<dim(F) alors f ne peut pas être surjective, et si dim(E)>dim(F) alors f ne peut pas être injective. On insiste sur le fait que si f est un isomorphisme alors nécessairement dim(E)=dim(F). Chapitre d'analyse sur les comparaisons entre fonctions: définition de f=o(g) au voisinage de a, f~g au voisinage de a. Ces deux définitions ont été données dans le cas d'une fonction g ne s'annulant pas au voisinage de a sauf peut-être en a, et exprimées en termes de propriétés du quotient f/g. On a f(x) ~ g(x) au voisinage de a ssi f(x)-g(x)= o(g(x)) au voisinage de a. Quelques propriétés élémentaires de ces notions. Si f est dérivable en a alors on a f(x)=f(a)+(x-a) f'(a)+o(x-a). Si f~g en a alors f et g ont même signe au voisinage de a. Début d'un bref chapitre sur les fonctions de classe C^k : définition, exemple d'une fonction dérivable qui n'est pas de classe C^1. Formule de Leibniz pour la dérivée k-ième d'un produit de deux fonctions de classe C^k.
Cours du 18 mars : Critère de dérivabilité d'une fonction réciproque, et formule pour la dérivée. Application aux cas de arcsin, arccos, arctan, dont nous avons revu la définition et quelques propriétés (formule pour la dérivée, monotonie). Formule de Taylor-Young (pour une fonction n fois dérivable). Énoncé de la formule de Taylor-Lagrange, qui n'a pas encore été démontrée.
Cours du 19 mars : Preuve de la formule de Taylor-Lagrange. Enoncé et preuve de la formule de Taylor avec reste intégral. Remarque: les formules de Taylor-Young et Taylor avec reste intégral se généralisent aux fonctions à valeurs complexes, pas la formule de Taylor-Lagrange (l'égalité des accroissements finis n'est déjà pas toujours vérifiée pour des fonctions à valeurs complexes). Début du cours sur les développements limités: partie régulière, reste. Unicité de la partie régulière. Développement limité d'une somme, d'un produit, d'une composée. Théorème d'intégration des développements limités. Les développements limités classiques, à connaître: e^x, 1/(1-x), 1/(1+x), ln(1-x), ln(1+x), arctan(x), sin(x), cos(x). Un exemple : développement de tan(x) à l'ordre 5 en 0.
Cours du 25 mars : Développement limité à connaître : (1+x)^alpha en 0 (obtenu à partir de la formule de Taylor-Young). Si f est paire tous les termes de degré impair d'un DL de f en 0 sont nuls, si f est impaire tous les termes de degré pair sont nuls. Plusieurs exemples de calculs de développements limités, entre autre sin(tan(x)) et tan(sin(x)) à l'ordre 5 en 0. Applications des développements limités au calcul de limite. Début de l'application à l'étude locale des fonctions.
Cours du 26 mars: exemples d'application de DL à l'étude locale de fonctions (équation de la tangente et position du graphe par rapport à la tangente). Exemples de développements asymptotiques (aucune théorie sur les développements asymptotiques n'a été traitée en cours). Algèbre linéaire: si (e_1,…,e_n) est une base d'un ev E, et (f_1,,…,f_n) est une famille d'éléments d'un ev F, alors il existe une unique application linéaire phi telle que phi(e_i)=f_i pour tout i dans {1,…,n}. Tous les K-espaces vectoriels de dimension n sont isomorphes à K^n. Tout sous-ev de dimension k d'un ev E de dimension n est le noyau d'une application linéaire surjective à valeurs dans K^(n-k). Définition de la matrice d'une application linéaire dans une base, lien avec le calcul d'une application linéaire (exprimer f(x) dans la base B', c'est calculer AX, où A est la matrice de f de B dans B' et X est le vecteur colonne énumérant les coordonnées de X dans la base B). Formule liant la matrice d'une composée et le produit de matrices.
Cours du 1er avril : Matrice de passage: la matrice de passage de B à B' est la matrice de l'identité de B' dans B; autrement dit, c'est la matrice dont les colonnes sont les vecteurs de B', écrits dans la base B. La matrice de passage de B à B' est inversible, et son inverse est la matrice de passage de B' à B. Formule de changement de base pour des applications linéaires. Exemples. Matrices équivalentes, matrices semblables; ce sont deux relations d'équivalence.
Cours du 2 avril : Définition d'une matrice diagonalisable A. Lien avec l'existence d'une base de vecteurs propres ayant A comme matrice dans une base donnée (aucune connaissance théorique sur la diagonalisabilité n'est exigible). Rang d'une matrice. Deux matrices de Mn,m(K) ont même rang ssi elles sont équivalentes. Une matrice et sa transposée ont même rang. Trace d'une matrice carrée. Tr(AB)= Tr(BA) pour toutes matrices A et B de Mn(K); conséquence: deux matrices semblables ont la même trace. Définition de la trace d'un endomorphisme. Si A est dans M_{n,p}(K), rg(A) ≤ min(n,p). rg(A)=0 ssi A=0. Si A est carrée, A est inversible ssi rg(A)=n. Projecteurs : si F et G sont deux sev supplémentaires dans E, notion de projection p_F sur F parallèlement à G. C'est une application linéaire. p_F+p_G=id. Im(p_F)=F, ker(p_F)=G. p_F^2=p_F, p_G^2=p^G, p_G\circ p_F = p_F\circ p_G =0. Un projecteur de E est un endomorphisme p tel que p^2=p. Alors Im(p) et ker(p) sont supplémentaires dans E, et p est la projection sur Im(p) parallèlement à ker(p) (preuve à connaître). Le rang d'un projecteur est égal à sa trace. Définition d'une symétrie vectorielle. Lien avec les projecteurs.
Cours du 8 avril : F=ker(s-id) et G=ker(s+id) sont supplémentaires dans E et s=s_F. Exemple. Début du chapitre sur les équations différentielles linéaires. Définitions générales. Cas d'une équation homogène y'+a(x)y=0 avec a continue sur un intervalle I, à valeurs dans K=R ou C. L'ensemble des solutions est un sev de C^1(I,K). Les solutions sont les fonctions $x\mapsto \lambda e^{-A(x)}$, où A est une primitive de a sur I. Exemples. Cas d'une équation complète y'+a(x)y=b(x), avec a et b continues sur I. Les solutions s'obtiennent en ajoutant une solution particulière à la solution générale de l'équation homogène.
Cours du 9 avril : Équations différentielles d'ordre 2 à coefficients constants: forme des solutions de l'équation homogène en fonction des racines de l'équation caractéristique (la démonstration est hors-programme). Exemples. Les solutions de l'équation homogène forment un espace vectoriel de dimension 2; existence et unicité d'une solution satisfaisant des conditions initiales données (i.e. y(t_0)=lambda et y'(t_0)=mu). Équations avec second membre: les solutions s'écrivent comme somme d'une solution particulière et d'une solution de l'équation homogène. Cas particulier d'un second membre de la forme polynôme fois exponentielle: existence et forme d'une solution particulière de la forme polynôme fois exponentielle.