Licence de mathématiques première année (2019-2020) -- Fondamentaux des Mathématiques II

Nouvelles Modalités de Contrôle des Connaissances

Note_UE = 0.25*Note_CC1+0.25*Note_CC2+0.25*Note_DM1+0.25*Note_(CT1 et CT2)+ points bonus.

Cours

Enseignant : Khaled Saleh (mél)

Notes de cours

Avancement du cours

21 janvier : [Chapitre 1: Matrices] Définitions. Sommes de matrices et propriétés (associativité, commutativité, inverse). Multiplication par un scalaire et propriétés. Matrices élémentaires. Produit de matrices et propriétés: distributivité (démo à connaître), associativité (démo à connaître). Non commutativité du produit. Produit par blocs. Matrice identité. Puissances d'une matrice carrée.

22 janvier : [Chapitre 1: Matrices] Exemples de calculs de puissances de matrices carrées. Matrices nilpotentes. Formule du binôme de Newton. Factorisation de A^p-B^p (démo à connaître). Inverse d'une matrice carrée et propriétés: unicité de l'inverse (démo à connaître), inverse d'un produit (démo à connaître). Opérations élémentaires (OE) sur les lignes et les colonnes d'une matrices nxp. Matrices associées à ces opérations. Méthode du pivot de Gauss: transformation d'une matrice en une matrice échelonnée (en lignes) réduite par des OE sur les lignes. Utilisation de la méthode du pivot de Gauss (sur les lignes) pour calculer l'inverse d'une matrice carrée: un exemple a été vu en cours.

4 février : [Chapitre 1: Matrices] Matrices triangulaires. Elles sont inversibles ssi tous les termes diagonaux sont non nuls. Transposition de matrices et propriétés de la transposition vis-à-vis des opérations usuelles. Matrices symétriques et anti-symétriques. Théorème: toute matrice carrée est somme d'une matrice symétrique et d'une matrice anti-symétrique et cette décomposition est unique (démo à connaître). Trace des matrices carrées et propriétés de la trace vis-à-vis des opérations usuelles. [Chapitre 2: Equations différentielles linéaires] EDL du premier ordre à coefficients constants et résolution.

5 février : [Chapitre 2: EDL] Condition initiale pour une EDL du 1er ordre à coefficients constants. EDL du premier ordre sous forme résolue: (E) y'-a(t)y=b(t), t ∈ I avec a,b des fonctions continues sur I. Résolution de l'équation homogène associée (H). Structure de l'ensemble des solutions de (E): S_E=S_H+y_p, on obtient l'ensemble des solutions de (E) en ajoutant à une solution particulière l'ensemble des solutions de (H). Recherche de solutions particulières (solution évidente, théorème de superposition des solutions, méthode de la variation de la constante).

12 février : [Chapitre 2: EDL] y'-a(t)y=b(t), t ∈ I. Condition initiale: il existe une unique solution telle que y(t0)=y0. Deux solutions qui coïncident en un point sont égales. EDL du premier ordre sous forme générale: (E) a(t)y'+b(t)y=c(t), t ∈ I avec a pouvant s'annuler sur I. On résout sur les intervalles où a ne s'annule pas, puis on recolle les solutions de manière dérivable. Condition initiale y(t0)=y0. Pas de résultat général sur l'existence ou l'unicité des solutions. EDL du second ordre à coefficients constants: ay“+by'+cy=d(t). Résolution de ay”+by'+cy=0. Solutions complexes, solutions réelles. Recherche de solutions particulières de ay“+by'+cy=d(t) si d(t)=P(t)exp(mt) avec P polynôme. Exemples sans et avec condition initiale.

18 février : [Chapitre 3: Espaces vectoriels] Structures de groupe et d'espace vectoriel. Exemples d'espaces vectoriels. Combinaisons linéaires. Sous-espaces vectoriels (sev). Sev engendré par une partie d'un espace vectoriel. Sous-espaces vectoriels en somme directe. F et G sont en somme directe ssi F∩G = {0} (démo à connaître).

19 février : [Chapitre 3: Espaces vectoriels] Sous-espaces vectoriels supplémentaires. Exemples. Familles libres, génératrices et bases. Soit (x_i) une famille de vecteurs, elle est liée ssi l'un au moins des vecteurs est CL des autres (démo à connaître). Soit (x_i) une famille libre de E et x∈E. Alors (x_i)∪{x} est libre ssi x∉vect(x_i) (démo à connaître). Théorème des degrés échelonnés (démo à connaître).

26 février : [Chapitre 3: Espaces vectoriels] Théorème de recollement (démo à connaître): Soit un E un espace vectoriel, F et G deux sev de E. Soit (f_i) une base de F et (g_j) une base de E. Alors: (f_i)∪(g_j) est génératrice de E ssi E=F+G, (f_i)∪(g_j) est libre dans E ssi F et G sont en somme directe, (f_i)∪(g_j) est une base de E ssi F et G sont supplémentaires. Espaces vectoriels de dimension finie (définition: il existe une famille génératrice finie). Théorème: si (x_1,..,x_m) est une famille génératrice finie, alors toute famille libre a au plus m éléments. Théorème de la base incomplète: dans un ev de dim finie: de toute famille génératrice finie, on peut extraire une base. On peut compléter toute famille libre en une base, en sélectionnant des vecteurs dans une famille génératrice quelconque. Sous-espaces vectoriels en dimension finie: Si E est de dim finie et F sev de E alors F est de dim finie et dim F ≤ dim E. De plus F=E ssi dim F = dim E. Si F,G sont deux sev de dim finie alors: dim(F⊕G)= dim F + dim G. dim(F+G)=dim F +dim G -dim(F∩G). F et G sont supplémentaires ssi F∩G = {0} et dim E = dim F + dim G. Hyperplan en dimension finie n (sev de dim n-1). Si x∉H alors E=H⊕vect(x).

26 février : [Chapitre 4: Intégration sur un segment] Définition d'une fonction en escalier. Subdivision adaptée. Subdivision plus fine qu'une autre. Si f et g sont en escalier, f+g, fxg, |f| sont en escalier.

10 mars : [Chapitre 4: Intégration sur un segment] Intégrales des fonctions en escalier et propriétés (linéarité, positivité, relation de Chasles). Croissance : f≥g ⇒ ∫f ≥∫g (démo à connaître). Inégalité triangulaire: |∫f|≤∫|f| (démo à connaître). Définition de l'intégrale de Riemann. Pour f bornée, e(f) (resp. E(f)) est l'ensemble des fonctions en escalier ≤ f (resp. ≥ f). On a sup{∫φ,φ∈e(f)} ≤ inf{∫ψ,ψ∈E(f)}. On dit qu'une fonction est Riemann-intégrable sur [a,b] si ces deux bornes sont égales. L'intégrale de f sur [a,b] est alors la valeur commune de ces deux bornes. Propriétés de l'intégrale de Riemann (linéarité, positivité, relation de Chasles, croissance, inégalité triangulaire). Théorème (admis): une fonction continue par morceaux sur un segment peut être uniformément approchée par des fonctions en escalier. Conséquence: les fonctions continues par morceaux sont Riemann-intégrables. Remarque: ce ne sont pas les seules fonctions Riemann-intégrables. Inégalité de la moyenne (démo à connaître): pour f,g continues par morceaux |∫fg|≤ sup|f| x ∫|g|. Intégrale des fonctions continues. Théorème: une fonction continue positive d'intégrale nulle est nulle et réciproquement (démo à connaître).

11 mars : [Chapitre 4: Intégration sur un segment] On appelle valeur moyenne de f sur [a,b] le réel μ=(∫f)/(b-a). Théorème: une fonction continue atteint sa valeur moyenne (démo à connaître). Définition d'un produit scalaire. L'application (f|g)=∫fg est un produit scalaire sur l'espace des fonctions continues sur [a,b]. Inégalité de Cauchy-Schwarz (démo à connaître): ∫fg ≤ (∫f²)^½ (∫g²)^½. Inégalité de Minkowski : ∫(f+g)²)^½ ≤ (∫f²)^½ +(∫g²)^½. Théorème fondamental de l'analyse réelle (démo à connaître). Sommes de Riemann: définition. Application pour le calcul de la limite d'une somme à l'aide d'une intégrale et pour le calcul d'une intégrale à l'aide de la limite d'une somme.

17 mars (en confinement) : [Chapitre 4: Intégration sur un segment] Convergence des sommes de Riemann pour les fonctions de classe C^1 (démo à connaître). Intégrale des fonctions à valeurs complexes: ∫f = ∫Re(f)+ i∫Im(f). Propriétés: linéarité, relation de Chasles, inégalité triangulaire:|∫f|≤∫|f| (ce sont des modules !).

18 mars (en confinement) : [Chapitre 5: Applications linéaires] Définition d'une application linéaire (AL). Ensemble des AL de E dans F: L(E,F). Endomorphismes, formes linéaires. Exemples. L(E,F) est un espace vectoriel. La composée de deux AL est une AL. La bijection réciproque d'une AL bijective est une AL. Isomorphismes, automorphismes. L'ensemble des automorphismes sur E, GL(E) est un groupe pour la loi de composition. Noyau et image d'une AL. Soit u∈L(E,F), u injective ⇔ Ker u ={0}, u surjective ⇔ Im u = F (démo à connaître). Image d'une famille par une AL (démo à connaître): si (x_i) est libre et u injective alors (u(x_i)) est libre. Si (x_i) est génératrice et u surjective alors (u(x_i)) est génératrice. Si (x_i) est une base et u un isomorphisme alors (u(x_i)) est une base. Théorème noyau-image: soit u∈L(E,F), soit S un supplémentaire de Ker u dans E, alors la restriction de u à S est un isomorphisme de S dans Im u. Détermination d'une AL à partir d'une base: théorème fondamental de l'algèbre linéaire: Soit E,F deux K-ev, soit (e_i)_{i∈I} une base de E. Pour toute famille (f_i)_{i∈I} de vecteurs de F, il existe une unique AL u∈L(E,F) telle que u(e_i)=f_i, pour tout i∈I. Corollaire: deux AL qui coïncident sur une base de E sont égales. Image d'une base par une AL: soit (e_i) une base de E et u∈L(E,F). Alors u injective ⇔ (u(x_i)) est libre, u surjective ⇔ (u(x_i)) est génératrice, u est un isomorphisme ⇔ (u(x_i)) est une base de F. Détermination d'une AL à partir d'une somme directe: On suppose E=⊕E_i. Pour tout i on se donne une AL u_i:E_i→F. Alors il existe une unique AL u∈L(E,F) dont la restriction à chaque sev E_i coïncide avec u_i.

23 mars (en confinement) : [Chapitre 5: Applications linéaires] Soit E=F⊕G. Défintion du projecteur sur G parallèlement à F: c'est l'unique endomorphisme p∈L(E) telle que p|F=0 et p|G=Id. On a ker p=F et Im p=G. Un projecteur p vérifie E= Ker p ⊕ Im p (réciproque fausse !). Le projecteur sur F parralèlement à G est Id-p. Caractérisation des projecteurs: p∈L(E) est un projecteur ⇔ pop=p. Symétrie par rapport à G parallèlement à F. C'est l'unique endomorphisme s∈L(E) tel que s|F=-Id et s|G=Id. On a F=Ker(s+Id) et G=Ker(s-Id). -s est la symétrie par rapport à F parallèlement à G. Si p est le projecteur sur G parallèlement à F et s la symétrie par rapport à G parallèlement à F alors s=2p-Id. Caractérisation des symétries: s∈L(E) est une symétrie ⇔ sos=Id.

24 mars (en confinement) : [Chapitre 5: Applications linéaires] Applications linéaires en dimension finie. Soit u∈L(E,F) et (e_i) une base de E. Alors Im u=Vect{u(e_i)}. On appelle rang de u∈L(E,F) et on note rg(u) la dimension de Im u. On a rg(u) ≤ dim E et rg(u) ≤ dim F. Théorème: soit E,F de dimensions finies et u∈L(E,F). Alors u injective ⇔ rg(u)=dim E, u surjective ⇔ rg(u)=dim F, u est un isomorphisme ⇔ rg(u)=dim E = dim F. Soit E,F de dimensions finies, E et F sont isomorphes ⇔ dim E= dim F. Soit E,F de dimensions finies alors dim L(E,F)= dim E x dim F. Théorème: Soit E,F de dimensions finies et u∈L(E,F), on suppose dim E= dim F, alors u injective ⇔ u surjective ⇔ u bijective. Théorème du rang. Soit E,F deux K-ev avec E de dimension finie. Alors dim E= dim Ker u + rg(u).

6 avril (en confinement): [Chapitre 6: Fonctions circulaires et hyperboliques réciproques]. Théorème: Soit I un intervalle de R, une fonction f:I→R continue et strictement monotone réalise une bijection de I dans J=f(I) qui est un intervalle. De plus, sa bijection réciproque f¯¹:J→I est continue, strictement monotone de même monotonie que f. Théorème: Soit f continue strictement monotone sur I, soit J=f(I). On suppose f dérivable sur I. Alors f¯¹:J→I est dérivable en y∈J ssi f'(x)≠0 avec x=f¯¹(y), et on a (f¯¹)'(y)=1/f'(x)=1/f'(f¯¹(y)). Si f' ne s'annule pas sur I, alors f¯¹ est dérivable sur J et (f¯¹)'=1/(f'of¯¹). Application aux fonctions circulaires réciproques: arcsin, arccos, arctan. A connaître: domaines de définition de ces fonctions, allure de leur graphe, valeurs particulières (à savoir retrouver avec un cercle trigo) domaine de dérivabilité, expression de la dérivée. Application aux fonctions hyperboliques réciproques: à lire mais non exigibles.

7 avril (en confinement): [Chapitre 7: Fractions rationnelles]. Rappels sur les polynômes: définition, degré, somme, produit, multiplication par un scalaire. (K[X],+,x) est un anneau commutatif. (K[X],+,.) est un espace vectoriel. Autres opérations: composition, dérivation, conjugaison. Comportement du degré vis-a-vis de ces opérations. Arithmétique des polynômes: divisibilité, division euclidienne, Pgcd. Racines, multiplicité, polynômes irréductibles. Les polynômes irréductibles dans C[X] sont les polynômes de degré 1. Les polynômes irréductibles dans R[X] sont les polynômes de degré 1 et les polynômes de degré 2 de discriminant strictement négatif. Factorisation en produits de polynômes irréductibles unitaires (dans R et dans C). Dans C[X], tous les polynômes sont scindés. Fractions rationnelles: définition, degré, forme irréductible, zéros et pôles. Fonction rationnelle associée à la fraction rationnelle réelle F=P/Q, domaine de définition: R\{α_1,..,α_n} où {α_1,..,α_n} sont les racines réelles de Q. Si α_i est une racine de multiplicité k de Q et de multiplicité l≥k de P alors la fonction rationnelle est prolongeable par continuité en α_i (dans ce cas la fraction rationnelle n'est pas sous forme irréductible). Une fonction rationnelle est infiniment dérivable sur son domaine de définition. Décomposition en éléments simples de P/Q lorsque Q est scindé et lorsque Q ne l'est pas (forme à connaître). Recherche pratique de la décomposition en éléments simples d'une fraction rationnelle donnée. Exemples d'applications: calcul de sommes, de primitives de fractions rationnelles, étude de branches infinies de fonctions rationnelles.

18 avril (en confinement): [Chapitre 8: Calcul de primitives]. Primitives usuelles. Intégration par partie, changement de variable. Primitive des fractions rationnelles. Primitives des fractions rationnelles en (sin,cos) (règles de Bioches) et en (sh,ch). Primitives des fractions rationnelles en x et √(ax²+bx+c).

4 mai (en confinement): [Chapitre 9: Représentation matricielle des applications linéaires] Soit E de dim finie p et F de dim finie n. Si B est une base de E et C est une base de F, et si u: E→F est une application linéaire. Alors la matrice de u relativement aux bases B et C est la matrice Mat_{C,B}(u) (avec la base de F avant la base de E !) de M_{n,p}(K) dont les colonnes sont les coordonnées des vecteurs de B exprimés dans la base C. L'application u → Mat_{C,B}(u) est un isomorphisme de L(E,F) dans M_{n,p}(K). Application linéaire canoniquement associée à une matrice. Matrice d'un endomorphisme. Exemples importants: matrices de l'application identité, d'une homothétie, d'une rotation. Matrice d'un projecteur p dans une base adaptée à la décomposition E = Ker p ⊕ Imp p. Image d'un vecteur par une application linéaire: y=u(x) ssi Y=AX où X la matrice colonne représentant x dans B, Y la matrice colonne représentant y dans C et A=Mat_{C,B}(u). Matrice et composition d'applications linéaires Mat(vou)=Mat(v)xMat(u)(preuve à connaître). Isomorphisme et matrice représentative. Soit u:E→F et A=Mat_{C,B}(u). Alors u est un isomorphisme (dans ce cas dim E = dim F et A est carrée) ssi A est inversible. On a alors A^{-1}=Mat_{B,C}(u^{-1}). Calcul du noyau et de l'image d'une application linéaire à l'aide de sa matrice représentative. Changements de base. Matrice de passage: Soit E de dim finie, B une base de E et B' une autre base de E. On appelle matrice de passage de B à B' la matrice P_{B,B'} de l'application Id: (E,B')→ (E,B). Les colonnes de P_{B,B'} sont les vecteurs de B' exprimés dans la base B. P_{B,B'} est inversible d'inverse P_{B',B}. Soit x∈E et X la matrice colonne représentant x dans B, X' la matrice colonne représentant x dans B'. Alors X=P_{B,B'}X' (preuve à connaître). Matrices équivalentes (resp. semblables). Elles représentent la même app. linéaire (resp. le même endomorphisme) dans des bases différentes. Lien avec les matrices de passage. Ce sont des relations d'équivalence. Application au calcul des puissances d'une matrice, à l'aide d'une matrice semblable plus simple. Rang d'une matrice = rang de toute application linéaire représentée par cette matrice. A et B sont équivalentes ssi rg(A)=rg(B). Une matrice de rang r se ramène par opérations élémentaires à la matrice J_r. Résolution de systèmes linéaires. Ecriture matricielle : chercher X tq AX=Y. Classification de l'ensemble des solutions en fonction de rg(A). Méthode de résolution par pivot de Gauss.

Travaux dirigés

Feuilles d'exercices :

Avancement des TD

Evaluations

Ressources

Livres :

Cours de Mathématiques (A Soyeur, E. Capaces, E. Vieillard-Baron)

Aussi (livres disponibles à la BU) : Dunod, Licence 1re année MIAS-MASS-SM, Algèbre 1re année et Analyse 1ère année (François Liret et Dominique Martinais). Cours avec exercices corrigés.

Pour s'entraîner:

Cours et exercices: Le site Exo7.

 
 
Valid XHTML 1.0 Valid CSS Driven by DokuWiki