Progression au second semestre

Progression au second semestre

  1. Analyse asymptotique
  2. Espaces vectoriels
  3. Dimension
  4. Intégration
  5. Dénombrement
  6. Applications linéaires
  7. Probabilités
  8. Séries numériques
  9. Matrices et applications linéaires
  10. Variables aléatoires
  11. Permutations
  12. Déterminant
  13. Espaces préhilbertiens réels
  1. Analyse asymptotique
    1. Relations de comparaison pour les fonctions
      1. Equivalence, négligeabilité, dominations. Lien entre ces relations. Exemple des croissances comparées.
      2. Règles de calcul
      3. Equivalence par encadrement. Le signe et la limite sont conservées par encadrement
    2. Développements limités
      1. Définition, troncature, unicité, lien avec les équivalents.
      2. Fonctions paires, fonctions impaires
      3. Développements limités à l'ordre 0 et 1.
      4. Lemme : si \(F'=f\) et \(f(x)=o(x^n)\) lorsque \(x\to 0\) et \(F(0)=0\), alors \(F(x)=o(x^{n+1})\). Primitivation des développements limités. *Dérivation des développements limités*. Formule de Taylor-Young
      5. Développements limités usuels
      6. *Opérations sur les petits o des puissances de \(x\) au voisinage de 0 : \(o(x^p)o(x^n)=o(x^{p+n})\), etc.* Opérations sur les développements limités : somme, produit, composition, quotient
    3. Applications et exemples
      1. Etude locale des fonctions. Position par rapport à une tangente. Condition suffisante d'extremum local.
      2. Etude au voisinage de l'infini, développement asymptootique, position par rapport à une asymptote.
      3. Exemple de développement limité d'une réciproque
      4. Formule de Stirling (admise), série harmonique (admis).
  2. Espaces vectoriels
    1. Espaces vectoriels
      1. Structure de \(\mathbb K\)-espace vectoriel, \(\lambda x=0_E\iff (\lambda=0_{\mathbb K}\text{ ou }x=0_E)\), combinaisons linéaires (éventuellement infinies)
      2. Exemples : espaces vectoriels de fonctions, de suites, \(\mathbb K[X]\), matrices, \(\mathbb K\), produit d'espaces vectoriels
      3. Restriction des scalaires.
    2. Sous-espaces vectoriels
      1. Définition, tout sous-espace vectoriel contient le vecteur nul. Caractérisation
      2. Exemples : sous-espace nul, \(\mathbb K_n[X]\) dans \(\mathbb K[X]\), \(\mathcal C(I,\mathbb K)\) dans \(\mathcal F(I,\mathbb K)\), droites vectoriel, plans dans \(\mathbb K^3\)
      3. Intersection d'une famille de sous-espaces vectoriels
      4. Sous-espace vectoriel engendré par une partie (ou par une famille). Caractérisation. *Opérations sur les «Vect».*
    3. Familles de vecteurs
      1. Familles génératrices. Toute sur-famille d'une famille génératrice est génératrice. Enlever un vecteur à une famille génératrice.
      2. Familles et parties libres. Toute sous-famille d'une famille libre est libre. Ajouter d'un vecteur à une famille libre. Liberté des familles de polynômes de degrés distincts.
      3. Bases, coordonnées
      4. Bases canoniques de \(\mathbb K^n\), \(\mathbb K_n[X]\), \(\mathbb K[X]\), matrices.
    4. Sommes de sous-espaces vectoriels
      1. Somme de deux sous-espaces vectoriels, somme de deux "Vect". La concaténation de familles génératrices de deux s.e.v. engendre leur somme.
      2. Sous-espaces vectoriels en somme directe, caractérisations. La concaténation de deux familles libres de deux s.e.v. en somme directe est libre. Bases adaptées.
      3. Sous-espaces supplémentaires. Construction de s.e.v. supplémentaires à l'aide d'une base de l'espace. *Tout supplémentaire de \(F\cap G\) dans \(F\) est un supplémentaire de \(G\) dans \(F+G\).*
  3. Dimension
    1. Espaces vectoriels de dimension finie
      1. On peut compléter toute famille (finie) libre en une base en "piochant" dans une famille (finie) génératrice. Théorème de la base extraite.
      2. Espaces vectoriels de dimension finie. Exemples. Théorème de la base incomplète. Existence de base.
    2. Dimension des espaces vectoriels de dimension finie
      1. Deux bases finies ont le même cardinal. Un espace vectoriel qui a une base finie ne peut pas aussi avoir une base infinie.
      2. Définition de la dimension. Exemples de référence.
      3. Familles libres et familles génératrices en dimension \(n\). Application aux familles de polynômes de degrés échelonnés.
      4. Dimension d'un produit fini d'espaces vectoriels de dimension finie
    3. Dimension des sous-espaces vectoriels
      1. Dimension d'un sous-espace vectoriel, cas d'égalité. Droites, plans. Sous-espaces vectoriels de \(\mathbb R^2\) et de \(\mathbb R^3\)
      2. Dimension d'une somme directe. Existence d'un supplémentaire, dimension commune des supplémentaires (en dimension finie), codimension.
      3. Formule de Grassmann. Caractérisation des couples de sous-espaces vectoriels supplémentaires
      4. Rang d'une famille de vecteurs. Majorations du rang d'une famille et cas d'égalité.
  4. Intégration
    1. Compléments d'analyse
      1. Continuité uniforme, théorème de Heine. Exemple des fonctions lipschitziennes.
      2. Norme de la convergence uniforme.
      3. Subdivisions d'un segment, exemples, *subdivision plus fine que deux subdivisions données*.
      4. Fonctions en escaliers, *l'espace vectoriel \(\mathcal E([a,b],\mathbb K)\)*.
      5. Fonctions continues par morceaux sur un segment, *l'espace vectoriel \(\mathcal C_m([a,b],\mathbb K)\). Valeur absolue d'une fonction continue par morceaux.*
      6. Le théorème d'approximation
    2. Intégrale des fonctions en escaliers
      1. Définition
      2. Propriétés
    3. Intégrale des fonctions continues par morceaux
      1. Définition
      2. Propriétés. Définition de la moyenne d'une fonction continue par morceaux sur un segment. Stricte positivité.
    4. Intégrale fonction de sa borne supérieure
      1. Intégrales orientées.
      2. Dérivation de \(x\mapsto \int_a^x f(t)\mathrm dt\) pour \(f\) continue. Calcul d'une intégrale au moyen de primitive. Existence de primitive pour les fonctions continues, *application : construction des fonctions usuelles transcendantes*. Nouvelle démonstration de la stricte positivité.
    5. Sommes de Riemann
      1. Cas des fonctions continues par morceaux
      2. Cas des fonctions lipsschitziennes
    6. Formules de Taylor globales
      1. Formule de Taylor avec reste intégral à l'ordre \(n\) pour une fonction de classe \(\mathcal C^{n+1}\)
      2. Inégalité de Taylor-Lagrange
      3. Application au développement en série de l'exponentielle
  5. Dénombrement
    1. Cardinal d'un ensemble fini
      1. Lemmes sur les ensembles {1,...,n} et les applications entre eux
      2. Ensembles finis, définition du cardinal, cohérence de la définition. Cardinal de \(\{x\in\mathbb Z, a\le x\le b\}\)
      3. Injection, surjections et inégalités entre les cardinaux. Principe des tiroirs. Pour une application entre ensembles finis de même cardinal, l'injectivité équivaut à la surjectivité. Si \(E\) est fini et \(A\subset E\), alors \(A\) est finie et \(|A|\le |E|\), cas d'égalité.
      4. Opérations sur les ensembles finis :
        1. Unions disjointes et unions quelconques d'ensembles finis. Lemme des bergers.
        2. Produit d'ensembles finis
        3. Ensemble des applications d'un ensemble fini dans un autre
        4. Ensemble des parties d'un ensemble fini
    2. Listes et combinaisons
      1. Dénombrement de \(p\)-listes d'éléments distincts, dénombrement d'injections, de permutations
      2. Dénombrement de \(p\)-combinaisons. Applications : démonstrations combinatoires des formules de Pascal et du binôme de Newton.
  6. Applications linéaires
    1. Généralités
      1. Linéarité, caractérisation, image du vecteur nul. L'espace vectoriel \(\mathcal L(E,F)\), composition, bilinéarité de la composition, isomorphismes, isomorphisme réciproque.
      2. Images et images réciproques de sous-espaces vectoriels. Noyau et image. Caractérisation de l'injectivité. *\(f\left(\mathrm{Vect}(x_1,\dots,x_p)\right)=\mathrm{Vect}(f(x_1),\dots,f(x_p))\)*, l'image d'une famille génératrice est une famille génératrice de l'image. Image d'une base par un isomorphisme.
      3. Applications linéaires de rang fini. Rang. Invariance par composition par un isomorphisme.
    2. Détermination d'une application linéaire
      1. Une application linéaire est déterminée par l'image d'une famille génératrice. Définition d'une application linéaire sur une somme directe \(E_1\oplus E_2\). Définition d'une application linéaire par l'image d'une base. Caractérisation de l'injectivité et de la surjectivité de cette application linéaire. Classification à isomorphisme près des espaces vectoriels de dimension finie par leur dimension.
      2. Injectivité et surjectivité des applications linéaires entre espaces vectoriels de même dimension finie. Inversibilité à gauchet et à droite des endomorphismes en dimension finie.
      3. Dimension de \(\mathcal L(E,F)\) lorsque \(E\) et \(F\) sont de dimension finie.
    3. Endomorphismes
      1. Identité \(\mathrm{Id}_E\), homothéties, anneau \(\mathcal L(E)\), notation \(uv\) pour \(u\circ v\), notation \(u^k\) où \(k\) est un entier naturel, non commutativité en dimension \(\ge 2\).
      2. Automorphismes, groupe linéaire \(\mathrm{GL}(E)\), notation \(u^k\) où \(k\) est un entier relatif.
      3. Projecteurs et symétries. Caractérisation des idempotents et des involutions.
    4. Théorème du rang
      1. Toute application linéaire induit un isomphisme de tout supplémentaire de son noyau sur son image Théorème du rang
      2. *Nouvelle démonstration de la formule de Grassmann*
    5. Formes linéaires et hyperplans
      1. Formes linéaires. Formes coordonnées relatives à une base
      2. Hyperplans (noyau d'une forme linéaire non nulle) Supplémentaires des hyperplans, supplémentaires des droites. Caractérisation des hyperplans par leur dimension, en dimension finie. Équation en dimension finie. Comparaison des équations d'un même hyperplan.
      3. Intersection d'un nombre fini d'hyperplans. Tout sous-espace vectoriel de codimension \(p\) est l'intersection de \(p\) hyperplans. Exemples des droites de \(\mathbb R^2\), des droites et des plans de \(\mathbb R^3\)
    6. Sous-espaces affines des espaces vectoriels
      1. Structure affine d'un espace vectoriel, points et vecteurs. Translation. Relation de Chasles.
      2. Sous-espace affine, direction, hyperplan affine. Intersection de sous-espaces affines.
      3. Ensemble des solutions de l'équation \(u(x)=a\) où \(u\) est une application linéaire. Retour sur les équations différentielles linéaires, les systèmes linéaires, l'interpolation polynomiale, les suites arithmético-géométriques.
  7. Probabilités sur un univers fini
    1. Espaces probabilisés finis
      1. Mesure de probabilité sur un univers fini, espace probabilisé fini, événement presque certain, presque impossible.
      2. Propriétés des probabilités : probabilité de la réunion de deux événements, du complémentaire d'un événement, croissance, etc
      3. Exemple de la mesure de probabilité uniforme
      4. Formule des probabilités totales (version 1). Systèmes complets d'événements.
    2. Construction de mesures de probabilités
      1. Une mesure de probabilité est déterminée par sa valeur sur les événements élémenaires. Distribution de probabilités
      2. Existence d'une mesure de probabilités, pour une distribution donnée.
      3. Mesures de probabilités uniformes, binomiales, de Bernoulli
    3. Probabilités conditionnelles
      1. Probabilité conditionnelle, formule des probabilités composées, *représentation graphique à l'aide d'un arbre*
      2. Formule des probabilités totales, formules de Bayes, exemples
    4. Événements indépendants
      1. Couples d'événements indépendants, lien avec les probabilités conditionnelles
      2. Famille finie d'événements mutuellement indépendants, lien avec l'indépendance deux à deux. Indépendance et passage aux complémentaires.
  8. Séries numériques
    1. Généralités
      1. Série \(\sum u_n\) de terme général \(u_n\). Sommes partielles, convergence, divergence. Somme \(\sum_{n=0}^{+\infty} u_n\) et restes \(\sum_{n=N+1}^{+\infty} u_n\) d'une série convergente.
      2. Linéarité de la somme
      3. Divergence grossière
      4. Séries géométriques, *série exponentielle, série harmonique*
      5. Lien suite-série, la suite \((u_n)\) et la série \(\sum (u_{n+1}-u_n)\) ont même nature
    2. Séries à termes positifs
      1. Une série à termes positifs *à partir d'un certain rang* converge si et seulement si la suite de ses sommes partielles est majorée
      2. Si \(0\le u\le v\), la convergence de \(\sum v_n\) implique celle de \(\sum u_n\).
      3. Si \(u\ge 0\) et \(v\ge 0\) et \(u_n\sim v_n\), alors \(\sum u_n\) et \(\sum v_n\) sont de même nature. *Si \(u_n\sim v_n\) et si \(v\) est de signe constant à partir d'un certain rang, alors \(\sum u_n\) et \(\sum v_n\) sont de même nature*.
      4. Comparaison série-intégrale dans le cas monotone. Applications aux séries de Riemann. Fin de la preuve de la formule de Stirling.
    3. Séries à termes non nécessairement positifs
      1. Convergence absolue. La convergence absolue implique la convergence.
      2. Critère spécial des séries alternées
      3. Si \(u\) est une suite complexe, \(v\) une suite réelle à termes positifs, si \(u=O(v)\), et si \(\sum v_n\) converge, alors \(\sum u_n\) est absolument convergente.
  9. Matrices et applications linéaires
    1. Matrices et applications linéaires
      1. Matrice d'une application linéaire dans des bases
        1. Matrice \(\mathrm{Mat}_e(v_1,\dots,v_p)\) d'une famille de vecteurs dans une base, matrice \(\mathrm{Mat}_{e,f}(u)\) d'une application linéaire dans un couple de bases. Isomorphisme \(u\mapsto \mathrm{Mat}_{e,f}(u)\).
        2. Matrice de l'image d'un vecteur par une application linéaire, matrice d'une composée, lien entre matrices inversibles et isomorphismes. Cas particulier des endomorphismes.
      2. Application linéaire canoniquement associée à une matrice
        1. Noyau, image et rang d'une matrice. Les colonnes engendrent l'image, les lignes donnent un système d'équation du noyau. Caractérisation de l'inversibitilité d'une matrice carrée par son image, ou son noyau, ou son rang. Une matrice carrée est inversible si et seulement si elle est inversible à gauche (resp. à droite).
      3. Blocs
        1. Théorème du produit par blocs (démonstration non exigible)
        2. Matrices triangulaires par blocs, interprétation (sous-espace stable). Matrices triangulaires, interprétation. Inversibilité et inverse d'une matrice triangulaire (par blocs).
      4. Compléments sur le rang
        1. Lien entre rang d'une application linéaire et rang d'une matrice qui la représente
        2. Lien entre rang d'une famille de vecteurs et rang d'une matrice qui la représente
    2. Changement de base, équivalence, similitude
      1. Matrice de passage.
        1. Matrice de changement de base \(P_{\mathcal B}^{\mathcal C}\), inversibilité et inverse des matrices de passage. *Toute matrice inversible est une matrice de passage*.
        2. Changement de base pour un vecteur, pour une application linéaire, pour un endomorphisme. *Exemple : calcul d'un projecteur*.
      2. Matrices équivalentes et rang.
        1. Matrices \(J_r\). Toute application linéaire de rang \(r\) a pour matrice \(J_r\) dans des bases convenables
        2. Équivalence des matrices, interprétation géométrique. Une matrice est de rang \(r\) si et seulement si elle est équivalente à \(J_r\). Invariance du rang par transposition.
        3. Rang d'une matrice extraite. Caractérisation du rang par les matrices carrées extraites
      3. Matrices semblables et trace.
        1. Matrices semblables, interprétation géométrique, *exemples des matrices idempotentes*.
        2. Trace d'une matrice carrée, trace d'un produit, invariance par similitude
        3. Trace d'un endomorphisme en dimension fini, trace d'un projecteur
      4. Calcul du rang : les opérations élémentaires sur les lignes conservent le noyau, celles sur les colonnes conservent l'image, toutes conservent le rang. Application au calcul du rang
  10. Variables aléatoires sur un espace probabilisé fini
    1. Variable aléatoire, loi d'une variable aléatoire
      1. Variables aléatoires \(X:\Omega\to E\) sur un univers fini, ensemble des valeurs \(X(\Omega)\). Exemples : indicatrice d'un événement, constante. Événements associés : \((X\in B)\), opérations sur ces événement, système complet associé à \(X\). Opérations sur les variables aléatoires réelles.
      2. Loi \(P_X\) d'une variable aléatoire \(X:\Omega\to E\). La loi \(P_X\) est déterminée par les \(P(X=x)\) pour \(x\in X(\Omega)\).
      3. Loi de l'image d'une variable aléatoire par une fonction.
      4. Indépendance de deux variables aléatoires (ou plus). Lemme des coalitions. Somme de variables aléatoires de Bernoulli indépendantes de même paramètre.
    2. Espérance
      1. Définition : \(E(X)=\sum_{\omega\in\Omega} X(\omega)P(\{\omega\})\). Formule de transfert. Cas particulier de la formule de transfert pour un couple.
      2. Linéarité, positivité, croissance. La variable aléatoire \(X-E(X)\) est centrée.
      3. Espérance du produit de deux variables réelles indépendantes
      4. Inégalité de Markov : si \(X\ge 0\) et \(a\gt 0\), alors \(a P(X\ge a)\le E(X)\)
    3. Variance, écart type, covariance
      1. Variance, écart type.
      2. Premières propriétés de la variance. Variance de $aX+b$. La variable aléatoire \(\frac{X}{\sigma(X)}\) est réduite, \(\frac{X-E(X)}{\sigma(X)}\) est centrée réduite.
      3. Covariance. Variables décorrélées. Lien avec l'indépendance. Variance d'une somme, cas de variables décorrélées.
      4. Inégalité de Bienaymée Chebychev
    4. Lois usuelles
      1. Loi uniforme \(\mathcal U([\!| a,b|\!])\), espérance et variance.
      2. Loi de Bernoulli \(\mathcal B(p)\). Lien avec l'indicatrice d'un événement. Espérance et variance.
      3. Loi binomiale \(\mathcal B(n,p)\). Espérance et variance. Nombre de succès lors de \(n\) épreuve de Bernoulli indépendantes.
  11. Permutations
    1. Permutations d'un ensemble fini. Caractérisation. Notation. Non commutativité du groupe symétrique d'un ensemble de plus de trois éléments
    2. Points fixes et support d'un permutation. Le support est stable. Permutations à supports disjoints.
    3. Orbites d'une permutation. Elles forment une partition du domaine. Si l'orbite de $x$ sous $\sigma$ a $p$ éléments, alors elle est égale à $\{x,\sigma(x),\dots,\sigma^{p-1}(x)\}$.
    4. Cycles. Un cycle possède une unique orbite non triviale, et elle est égale à son support.
    5. La décomposition en cycles disjoints
    6. Transposition. Décomposition en produit de transposition.
    7. Signature, groupe alterné
  12. Déterminant
    1. Forme multi-linéaire alternée sur un espace vectoriel
      1. *applications multi-linéaires, calcul de \(f\left(\sum_{i_1} \lambda_{i_1,1}x_{i_1},\dots,\sum_{i_p} \lambda_{i_p,p}x_{i_p}\right)\), formes multi-linéaire alternées*
      2. antisymétrie, effet d'une permutation
      3. annulation sur les familles liées.
    2. Déterminant d'une famille de vecteurs dans une base \(e\)
      1. Existence et unicité en dimension \(n\) d'une forme \(n\)-linéaire alternée \(\det_e\), telle que \(\det_e(e)=1\). Toute forme \(n\)-linéaire alternée est un multiple de \(\det_e\). Expression du déterminant en fonction des coordonnées. Interprétation en dimension 2 ou 3 comme une aire orientée ou un volume orienté.
      2. Comparaison de \(\det_e\) et \(det_{e'}\). Caractérisation des bases
      3. Orientation d'un espace vectoriel réel de dimension finie
    3. Déterminant d'un endomorphisme
      1. Définition. Déterminant d'un composé.
      2. Caractérisation des automorphismes.
    4. Déterminant d'une matrice carrée.
      1. Définition. Déterminant d'un produit. Caractérisation des matrices inversibles.
      2. Déterminant d'une transposée.
      3. Description des formes \(\mathcal M_n(\mathbb K)\to\mathbb K\) multilinéaire et alternées par rapport aux colonnes (resp. lignes).
    5. Calcul de déterminants
      1. Effet des opérations élémentaires
      2. Déterminant d'une matrice triangulaire, puis d'une matrice triangulaire par blocs
      3. *Mineur, caractérisation du rang*. Cofacteur. Développement par rapport à une ligne ou à une colonne
      4. Déterminant de Vandermonde
    6. Comatrice \(\mathrm{Com}(A)\).
      1. Relation \(A{}^t\mathrm{Com}(A)={}^t\mathrm{Com}(A)=\det(A)I_n\)
      2. Expression de l'inverse d'une matrice inversible.
      3. Matrices à coefficients entiers dont l'inverse est à coefficients entiers
  13. Espaces préhilbertiens réels

    1. Produit scalaire

      1. Produit scalaire, espace préhilbertien, espace euclidien. Notation \(\langle x,y\rangle\), \((x|y)\), \(x\cdot y\).
      2. Exemples : produit scalaire canonique sur \(\mathbf R^n\), produit scalaire \((f,g)\mapsto \int fg\) sur \(\mathcal C([a,b],\mathbf R)\). *Produit scalaire \((A,B)\mapsto \mathrm{tr}({}^t AB)\) sur \(\mathcal M_{n,p}(\mathbf R)\)*.
    2. Norme associée à un produit scalaire

      1. *Définition d'une distance, d'une norme. Distance associée à une norme*.
      2. Norme associée à un produit scalaire, distance associée.
      3. Inégalité de Cauchy-Schwarz, cas d'égalité.
      4. Inégalité triangulaire, cas d'égalité.
      5. Formule de polarisation : \(2\langle x,y\rangle=\|x+y\|^2-\|x\|^2-\|y\|^2\).
    3. Orthogonalité
      1. Vecteurs orthogonaux, orthogonal d'une partie (et premières propriétés de \(F\mapsto F^{\perp}\)).
      2. Famille orthogonale, orthonormale (ou orthonormée). Toute famille orthogonale de vecteurs non nuls est libre.
      3. Théorème de Pythagore.
      4. Supplémentaire orthogonal d'un sous-espace de dimension finie. Dimension de l'orthogonal dans un espace euclidien. Propriétés de \(F\mapsto F^{\perp}\).
      5. Bases orthonormées. Existence de bases orthonormées dans un espace euclidien et théorème de la base orthonormée incomplète.
      6. Coordonnées dans une base orthonormale. Expression du produit scalaire et de la norme.
    4. Projection orthogonale sur un sous-espace de dimension finie

      1. Projection orthogonale $p_F$ sur un sous-espace de dimension finie $F$. Lien entre $p_F$ et $p_{F^\perp}$. Expression du projeté dans une base orthonormale ou orthogonale. Supplémentaire orthogonal d'un sous-espace de dimension finie en dimension quelconque.
      2. Distance d'un vecteur à un sous-espace vectoriel de dimension finie.
      3. Projeté orthogonal sur l'hyperplan orthogonal à un vecteur non nul. Distance à un tel hyperplan.
      4. Orthogonalisation de Gram-Schmidt : $y_{k+1}=p_{\mathrm{Vect}(x_1,\dots,x_k)^\perp}(x_{k+1})=x_{k+1}-p_{\mathrm{Vect}(x_1,\dots,x_k)}(x_{k+1})$. Propriétés : le drapeau associé aux $y_k$ est égal au drapeau associé aux $x_k$ (en particulier, si les $x_k$ sont linéairement indépendants, les $y_k$ le sont aussi) et la famille des $y_k$ est orthogonale.