Calcul différentiel
OptimisationEdit
Si f est une fonction différentiable sur ℝ (ou un intervalle ouvert) et que x est un maximum local ou un minimum local de f, alors la dérivée de f en x est nulle. Les points où f'(x) = 0 sont appelés points critiques ou points stationnaires (et la valeur de f en x est appelée valeur critique). Si f n’est pas supposée être partout différentiable, alors les points où elle ne l’est pas sont également désignés comme points critiques.
Si f est deux fois différentiable, alors inversement, un point critique x de f peut être analysé en considérant la dérivée seconde de f en x :
- si elle est positive, x est un minimum local ;
- si elle est négative, x est un maximum local ;
- si elle est nulle, alors x pourrait être un minimum local, un maximum local, ou ni l’un ni l’autre. (Par exemple, f(x) = x3 a un point critique à x = 0, mais il n’a ni un maximum ni un minimum à cet endroit, alors que f(x) = ± x4 a un point critique à x = 0 et un minimum et un maximum, respectivement, à cet endroit.)
C’est ce qu’on appelle le test de la dérivée seconde. Une autre approche, appelée test de la dérivée première, consiste à considérer le signe des f’ de chaque côté du point critique.
Prendre les dérivées et résoudre les points critiques est donc souvent un moyen simple de trouver des minima ou maxima locaux, ce qui peut être utile en optimisation. Par le théorème des valeurs extrêmes, une fonction continue sur un intervalle fermé doit atteindre ses valeurs minimale et maximale au moins une fois. Si la fonction est différentiable, les minima et maxima ne peuvent se produire qu’aux points critiques ou aux points extrêmes.
Cela a également des applications dans l’esquisse de graphiques : une fois que les minima et maxima locaux d’une fonction différentiable ont été trouvés, un tracé approximatif du graphique peut être obtenu à partir de l’observation qu’il sera soit croissant, soit décroissant entre les points critiques.
En dimensions supérieures, un point critique d’une fonction à valeur scalaire est un point auquel le gradient est nul. Le test de la dérivée seconde peut encore être utilisé pour analyser les points critiques en considérant les valeurs propres de la matrice hessienne des dérivées partielles secondes de la fonction au point critique. Si toutes les valeurs propres sont positives, alors le point est un minimum local ; si toutes sont négatives, il s’agit d’un maximum local. S’il y a quelques valeurs propres positives et quelques valeurs propres négatives, alors le point critique est appelé « point de selle », et si aucun de ces cas ne se vérifie (c’est-à-dire que certaines des valeurs propres sont nulles), alors le test est considéré comme non concluant.
Calcul des variationsModifié
Un exemple de problème d’optimisation est : Trouver la courbe la plus courte entre deux points sur une surface, en supposant que la courbe doit aussi se trouver sur la surface. Si la surface est un plan, alors la courbe la plus courte est une ligne. Mais si la surface est, par exemple, en forme d’œuf, alors le chemin le plus court n’est pas immédiatement évident. Ces chemins sont appelés géodésiques, et l’un des problèmes les plus fondamentaux du calcul des variations consiste à trouver les géodésiques. Voici un autre exemple : Trouver la plus petite surface remplissant une courbe fermée dans l’espace. Cette surface est appelée une surface minimale et elle aussi peut être trouvée en utilisant le calcul des variations.
PhysiqueEdit
Le calcul est d’une importance vitale en physique : de nombreux processus physiques sont décrits par des équations impliquant des dérivées, appelées équations différentielles. La physique s’intéresse particulièrement à la façon dont les quantités changent et évoluent dans le temps, et le concept de la « dérivée temporelle » – le taux de changement dans le temps – est essentiel pour la définition précise de plusieurs concepts importants. En particulier, les dérivées temporelles de la position d’un objet sont significatives en physique newtonienne :
- la vitesse est la dérivée (par rapport au temps) du déplacement d’un objet (distance par rapport à la position initiale)
- l’accélération est la dérivée (par rapport au temps) de la vitesse d’un objet, c’est-à-dire la dérivée seconde (par rapport au temps) de la position d’un objet.
Par exemple, si la position d’un objet sur une ligne est donnée par
x ( t ) = – 16 t 2 + 16 t + 32 , {\displaystyle x(t)=-16t^{2}+16t+32,\,\!}.
alors la vitesse de l’objet est
x ˙ ( t ) = x ′ ( t ) = – 32 t + 16 , {\displaystyle {\dot {x}}(t)=x'(t)=-32t+16,\,\!}.
et l’accélération de l’objet est
x ¨ ( t ) = x ″ ( t ) = – 32 , {\displaystyle {\ddot {x}}(t)=x »(t)=-32,\,\!}
qui est constant.
Equations différentiellesEditer
Une équation différentielle est une relation entre un ensemble de fonctions et leurs dérivées. Une équation différentielle ordinaire est une équation différentielle qui relie les fonctions d’une variable à leurs dérivées par rapport à cette variable. Une équation différentielle partielle est une équation différentielle qui relie des fonctions de plus d’une variable à leurs dérivées partielles. Les équations différentielles apparaissent naturellement dans les sciences physiques, dans la modélisation mathématique et dans les mathématiques elles-mêmes. Par exemple, la deuxième loi de Newton, qui décrit la relation entre l’accélération et la force, peut être exprimée sous la forme d’une équation différentielle ordinaire
F ( t ) = m d 2 x d t 2 . {\displaystyle F(t)=m{\frac {d^{2}x}{dt^{2}}.}
L’équation de la chaleur en une variable d’espace, qui décrit comment la chaleur se diffuse à travers une tige droite, est l’équation différentielle partielle
∂ u ∂ t = α ∂ 2 u ∂ x 2 . {\displaystyle {\frac {\partial u}{\partial t}}=\alpha {\frac {\partial ^{2}u}{\partial x^{2}}}.}
Dans ce cas, u(x,t) est la température de la tige en position x et au temps t et α est une constante qui dépend de la vitesse de diffusion de la chaleur à travers la tige.(2-3¡)-(3+2)
Théorème de la valeur moyenneModifié
avec a < b {\displaystyle a<b}
il existe un c ∈ ( a , b ) {\displaystyle c\in (a,b)}
avec f ′ ( c ) = f ( b ) – f ( a ) b – a {\displaystyle f'(c)={\tfrac {f(b)-f(a)}{b-a}}}.
.
Le théorème de la valeur moyenne donne une relation entre les valeurs de la dérivée et les valeurs de la fonction originale. Si f(x) est une fonction à valeur réelle et que a et b sont des nombres avec a < b, alors le théorème de la valeur moyenne dit que sous des hypothèses douces, la pente entre les deux points (a, f(a)) et (b, f(b)) est égale à la pente de la droite tangente à f en un point c quelconque entre a et b. En d’autres termes,
f ′ ( c ) = f ( b ) – f ( a ) b – a . {\displaystyle f'(c)={\frac {f(b)-f(a)}{b-a}}.}
En pratique, ce que fait le théorème de la valeur moyenne est de contrôler une fonction en termes de sa dérivée. Par exemple, supposons que f a une dérivée égale à zéro en chaque point. Cela signifie que sa ligne tangente est horizontale en chaque point, donc la fonction devrait également être horizontale. Le théorème de la valeur moyenne prouve que cela doit être vrai : la pente entre deux points quelconques du graphique de f doit être égale à la pente de l’une des lignes tangentes de f. Toutes ces pentes sont nulles, donc toute ligne allant d’un point du graphique à un autre point aura également une pente nulle. Mais cela signifie que la fonction ne se déplace ni vers le haut ni vers le bas, et qu’il doit donc s’agir d’une ligne horizontale. Des conditions plus compliquées sur la dérivée conduisent à des informations moins précises mais toujours très utiles sur la fonction d’origine.
Polynômes de Taylor et séries de TaylorModifier
La dérivée donne la meilleure approximation linéaire possible d’une fonction en un point donné, mais celle-ci peut être très différente de la fonction originale. Une façon d’améliorer l’approximation est de prendre une approximation quadratique. Autrement dit, la linéarisation d’une fonction à valeur réelle f(x) au point x0 est un polynôme linéaire a + b(x – x0), et il peut être possible d’obtenir une meilleure approximation en considérant un polynôme quadratique a + b(x – x0) + c(x – x0)2. Une meilleure approximation encore pourrait être un polynôme cubique a + b(x – x0) + c(x – x0)2 + d(x – x0)3, et cette idée peut être étendue à des polynômes de degré arbitrairement élevé. Pour chacun de ces polynômes, il devrait y avoir un meilleur choix possible des coefficients a, b, c, et d qui rend l’approximation aussi bonne que possible.
Au voisinage de x0, pour a le meilleur choix possible est toujours f(x0), et pour b le meilleur choix possible est toujours f'(x0). Pour c, d, et les coefficients de degré supérieur, ces coefficients sont déterminés par les dérivées supérieures de f. c devrait toujours être f »(x0)/2, et d devrait toujours être f »'(x0)/3 ! L’utilisation de ces coefficients donne le polynôme de Taylor de f. Le polynôme de Taylor de degré d est le polynôme de degré d qui s’approche le mieux de f, et ses coefficients peuvent être trouvés par une généralisation des formules ci-dessus. Le théorème de Taylor donne une limite précise sur la qualité de l’approximation. Si f est un polynôme de degré inférieur ou égal à d, alors le polynôme de Taylor de degré d est égal à f.
La limite des polynômes de Taylor est une série infinie appelée série de Taylor. La série de Taylor est fréquemment une très bonne approximation de la fonction originale. Les fonctions qui sont égales à leur série de Taylor sont appelées fonctions analytiques. Il est impossible que des fonctions présentant des discontinuités ou des angles aigus soient analytiques ; de plus, il existe des fonctions lisses qui ne sont pas non plus analytiques.
Théorème de la fonction impliciteModifier
Certaines formes géométriques naturelles, comme les cercles, ne peuvent pas être dessinées comme le graphe d’une fonction. Par exemple, si f(x, y) = x2 + y2 – 1, alors le cercle est l’ensemble de toutes les paires (x, y) telles que f(x, y) = 0. Cet ensemble est appelé l’ensemble zéro de f, et n’est pas le même que le graphique de f, qui est un paraboloïde. Le théorème de la fonction implicite convertit les relations telles que f(x, y) = 0 en fonctions. Il stipule que si f est continuellement différentiable, alors autour de la plupart des points, l’ensemble zéro de f ressemble à des graphes de fonctions collés ensemble. Les points où ce n’est pas vrai sont déterminés par une condition sur la dérivée de f. Le cercle, par exemple, peut être collé à partir des graphes des deux fonctions ± √1 – x2. Au voisinage de chaque point du cercle, sauf (-1, 0) et (1, 0), l’une de ces deux fonctions a un graphe qui ressemble au cercle. (Il se trouve que ces deux fonctions rencontrent aussi (-1, 0) et (1, 0), mais cela n’est pas garanti par le théorème de la fonction implicite.)
Le théorème de la fonction implicite est étroitement lié au théorème de la fonction inverse, qui énonce quand une fonction ressemble aux graphes de fonctions inversibles collés ensemble.