BACCALAUREAT NET

 

Les logarithmes

Au départ, Napier (1550-1617) se propose de simplifier les calculs trigonométriques intervenant en astronomie; en 1614, il publie une table de logarithmes à sept décimales, sous le titre: Description des merveilleuses règles des logarithmes et de leur usage dans l’une et l’autre trigonométrie, aussi bien que dans tout calcul mathématique . Un second traité, publié en 1619, explique la construction des tables de logarithmes. La définition des logarithmes s’appuie sur la comparaison de deux mouvements, l’un uniforme, l’autre où la vitesse est à chaque instant proportionnelle au chemin parcouru. En outre, des inégalités interpolatoires sont établies. En particulier, Napier montre que, pour tout nombre réel x appartenant à l’intervalle ]0, 1[,

ce qui permet de calculer les logarithmes des nombres voisins de 1. Il prouve aussi que, si 0 Sx S y .

ce qui permet d’interpoler les logarithmes.

Briggs (1561-1631) perfectionne la construction des logarithmes: d’une part, il met en évidence l’importance de la relation fonctionnelle:

d’autre part, il perçoit l’avantage des logarithmes décimaux. En 1617, il publie une table à quatorze décimales. Il utilise la correspondance entre une suite arithmétique et une suite géométrique. Il calcule les logarithmes des nombres voisins de 1 par extractions successives de racines carrées.

L’extraction des racines carrées est facilitée par un algorithme employant des différences successives, ce qui revient à la relation:

Une nouvelle étape est franchie par Grégoire de Saint-Vincent (1584-1667), qui met en relation les logarithmes avec les aires limitées par une hyperbole. Mercator (1620-1687) et Newton (1642-1727) obtiennent indépendamment le développement en série.

En outre, il donne une méthode permettant de calculer les logarithmes népériens à partir de la série (1), grâce à des manipulations ingénieuses portant sur cette série.

Ainsi, la théorie des logarithmes met en jeu des concepts importants:

– elle contribue à l’élaboration de la notion de fonction: Newton et Leibniz (1646-1716) conçoivent clairement la fonction logarithme, et utilisent la relation:

Jean Bernoulli (1667-1748) développe le calcul sur les fonctions exponentielles et logarithmes, d’une importance capitale en analyse, en particulier dans la résolution des équations différentielles;

– les notions de cinématique employées par Napier sont reprises et généralisées par Newton pour fonder le calcul différentiel (méthode des fluxions);

– les développements obtenus par Briggs pour j1 + x sont généralisés par Newton (développement du binôme, développements en série entière);

– les problèmes d’interpolation sont à la base des travaux de Gregory (1638-1675) et de ceux de Newton sur les différences finies;

– enfin, on trouve un exposé synthétique des fonctions exponentielles et logarithmes dans l’Introduction à l’analyse des infiniment petits , publiée en 1748 par Euler (1707-1783); ce dernier dégage en outre le lien entre les fonctions exponentielles réelles et les fonctions circulaires, grâce à la théorie des fonctions exponentielles et logarithmes complexes [cf. EXPONENTIELLE ET LOGARITHME].

Recherche de solutions approchées d’équations numériques

Méthode de dichotomie

Soit g une fonction numérique continue et strictement monotone sur un intervalle [a , b ], telle que g (a )g (b ) S 0. Il existe alors un élément a de [a , b ] et un seul tel que g (a) = 0. On peut trouver des valeurs approchées de a par l’algorithme suivant: supposons par exemple g (a ) O 0 et g (b ) S 0; posons a 0 = a , b 0 = b , et:

Si g (c 0) D 0, on pose a 1 = a 0 et b 1 = c 0; sinon, on pose a 1 = c 0 et b 1 = b 0. Par récurrence, on construit une suite ([a n , b n ]) d’intervalles emboîtés telle que, pour tout entier naturel n , on ait g (a n ) O 0, g (b n ) D 0 et:

Les suites (a n ) et (b n ) sont adjacentes, et elles convergent toutes deux vers a. En outre, pour tout entier naturel n , a appartient à l’intervalle [a n ,b n ].

Dès le XVIe siècle, cette méthode est employée pour séparer les racines d’une équation algébrique. La convergence n’est pas très rapide; c’est pourquoi cette méthode n’est pas utilisée lorsqu’on désire obtenir a avec une grande précision.

En revanche, le méthode de dichotomie a eu une importance considérable dans le développement des concepts fondamentaux de l’analyse:

– Lagrange (1736-1813), dans La Théorie des fonctions analytiques (1797), utilise une variante de cette méthode pour démontrer le principe fondamental du calcul différentiel, suivant lequel une fonction admettant une dérivée positive est croissante; ce principe est à la base de la formule de Taylor.

– Bolzano (1781-1848), dans Une preuve analytique ... (1817) et Cauchy (1789-1857), dans son Cours d’analyse à l’École polytechnique (1821), utilisent la dichotomie pour démontrer le théorème des valeurs intermédiaires.

– L’école de Weierstrass (1815-1897) utilise systématiquement la dichotomie pour démontrer les théorèmes fondamentaux sur les fonctions continues (existence d’un maximum, continuité uniforme). Ces résultats reposent sur le théorème suivant, dit de Bolzano-Weierstrass: de toute suite bornée de nombres réels, on peut extraire une suite convergente.

Méthode d’interpolation linéaire (ou "regula falsi")

Sous les mêmes hypothèses que précédemment, on cherche une valeur approchée b de y en interpolant g sur l’intervalle [a ,b ] par une fonction affine f, et en définissant b par la relation f(b) = 0. Cette méthode a été utilisée par Viète (1540-1603) et par Descartes (1596-1650), dans le cas des équations algébriques. La majoration de l’erreur a été effectuée par Lagrange.

Cette méthode est peu employée seule car elle ne conduit pas à un processus itératif qui soit à la fois commode et performant.

Méthode des tangentes (ou de Newton)

L’école d’Alexandrie, et en particulier Archimède, utilise fréquemment des encadrements des racines carrées d’un nombre entier par des nombres rationnels. À cet effet, on utilise l’algorithme d’Euclide de divisions successives. Héron d’Alexandrie part d’une autre idée. Pour approcher ja , il écrit a sous la forme a = r 2 + b , où r est le plus grand des entiers p tels que p 2 D a . Ainsi, ja = r j1 + (b /r 2). Il approche j1 + (b /r 2) par 1 + (b /2r 2). D’où la valeur approchée suivante:

On itère alors ce processus. Plus précisément, on pose:

et, pour tout entier naturel n ,

La convergence de la suite (u n ) vers ja est extraordinairement rapide. Ainsi, lorsque a = 2, u 0 = 1, u 1 = 1,5, u 2 = 1,416 666 66..., u 3 = 1,414 215 68..., u 4 = 1,414 213 56...

Cette rapidité peut être prévue grâce aux encadrements suivants: on prouve d’abord que |u 2 _ j2| D 1/400. Par ailleurs, pour tout entier naturel n ,

En particulier, u 4 et u 5 fournissent respectivement des approximations de j 2 à 10-11 près et à 10-23 près.

Cette méthode est incomparablement supérieure à la méthode encore enseignée (pour des raisons inconnues) dans les lycées et collèges français, laquelle repose sur une décomposition en tranches de deux chiffres.

La méthode de Héron est reprise par Newton dans son traité Principes mathématiques de la philosophie naturelle . Lors de l’étude du mouvement des planètes, il est amené à rechercher des solutions approchées de l’équation de Kepler x = a + e sin x , où e S 1. Plus généralement, pour chercher des solutions approchées de l’équation g (x ) = 0, on part d’une valeur initiale c et l’on prend pour valeur approchée l’abscisse b du point d’intersection avec Ox de la tangente au graphe de g au point d’abscisse c . On a:

on itère alors ce processus, grâce aux relations:

Cette méthode est connue sous le nom de méthode de Newton-Raphson. Cauchy fut le premier à préciser les conditions portant sur g assurant la convergence du processus (Cours d’analyse paru en 1821).

La convergence est extrêmement rapide: on peut prouver qu’elle est de l’ordre de k (2n ). Il convient de remarquer que, si l’on applique la méthode de Newton à la résolution de l’équation x 2 _ a = 0, on obtient précisément l’algorithme:

Méthode des approximations successives

Un autre problème célèbre, dû à Ptolémée (128-168), est celui de la recherche de valeurs approchées de sin 10. (Ce problème apparaît dans la construction de tables trigonométriques.) Dans l’Almageste , Ptolémée calcule sin 720 et sin 600; il en déduit sin 120 puis, par dichotomies successives, sin 10 30H et sin 45H. Il effectue enfin une interpolation linéaire pour obtenir une valeur approchée de sin 10. Cette méthode fournit une valeur approchée à 10 -6 près. Les progrès de l’astronomie ont amené les mathématiciens arabes à améliorer cette précision. Vers 1400, al-Kashi, astronome à l’observatoire de Samarcande, part de la relation sin 3 x = 3 sin x _ 4 sin3 x . Connaissant sin 30, il en déduit sin 10, en résolvant par approximations successives l’équation:

Plus précisément, on pose u 0 = 0 et, pour tout entier naturel n , ici aussi, la convergence est extrêmement rapide, ainsi ,on peut montrer a priori que le nombre u 3 fournit une approximation de sin 10 à 10 -10 près. En effet,

Cette méthode est reprise par Viète en 1600 et par Wallis en 1660, pour la résolution des équations algébriques.

Là encore, c’est Cauchy qui a précisé les hypothèses assurant la convergence du processus. Voici l’énoncé général: soient I un intervalle fermé de R et f une application de I dans lui-même. On suppose que f est contractante, c’est-à-dire qu’il existe un nombre réel positif k strictement inférieur à 1 tel que, pour tout couple (x , y ) de points de I,

Dans ces conditions, l’application f admet un point fixe a et un seul; en outre, pour tout élément c de I, la suite (u n ), définie par les relations u n + 1 = f (u n ) et u 0 = c , converge vers a . Enfin, pour tout entier naturel non nul p , en particulier, la condition (2) est satisfaite lorsque f est dérivable sur I et que.

Ainsi, la pente des tangentes au graphe de f gouverne la rapidité de convergence.

Supposons maintenant que l’on veuille résoudre par cette méthode une équation de la forme g (x ) = 0, où g est de classe C1 sur un intervalle J de R, sachant qu’il existe un élément a de J et un seul tel que g (a) = 0; on suppose en outre que g H(a) R 0. L’idée consiste à écrire l’équation g (x ) = 0 sous la forme f (x ) = x , où on choisit a de telle sorte que, sur un voisinage I de a , | g H (x ) + a | soit le plus petit possible; on applique à f la méthode des approximations successives. En particulier, ce procédé peut être employé pour une équation déjà mise sous la forme f (x ) = x , mais pour laquelle la convergence est trop lente. On dit alors qu’on effectue une accélération de convergence par ajustement linéaire.

Le cas idéal est celui où, à chaque pas de l’itération, f J(u n ) est nul; on peut s’y ramener en modifiant à chaque pas le facteur a . On obtient alors l’algorithme suivant pour résoudre l’équation g (x ) = 0. On pose u 0 = c ; il convient donc de prendre a 0 = _ g H(u 0). Par suite, et plus généralement on retombe alors sur la méthode de Newton.

Néanmoins, lorsque l’expression de g H est compliquée, la méthode de Newton est d’emploi peu commode. Il est alors préférable d’effectuer une accélération de convergence immuable.

La méthode des approximations successives, issue du calcul numérique, a été employée par Picard (1856-1941), pour la recherche des solutions des équations différentielles. Au cours du XXe siècle, son champ d’application est élargi à tous les secteurs de l’analyse: équations implicites, équations aux dérivées partielles, traitement numérique des matrices, topologie algébrique, etc. On utilise à cet effet l’énoncé suivant: soit (A , d ) un espace métrique et f une application de A dans lui-même, telle que la série des rapports de Lipschitz l( f n ) converge. Alors l’application f a un point fixe a et un seul. En outre, pour tout élément c de A, la suite (u n ) définie par les relations u n + 1 = f (u n ) et u 0 = c converge vers a . Enfin, pour tout entier naturel non nul p ,

Lorsque f est contractante, l(f n ) D k n , et on retrouve le cas classique. Mais l’énoncé précédent est plus précis; par exemple, dans le cas des équations différentielles, la convergence est d’ordre M n /n !.

Comparaison des méthodes précédentes

Il convient ici, comme dans tous les problèmes de calcul numérique, de distinguer trois niveaux:

– celui de l’existence et de l’unicité des solutions, problème d’analyse mathématique;

– celui de la rapidité de convergence des processus d’approximation, problème d’analyse numérique;

– celui de la performance du processus, c’est-à-dire du temps total (et donc du coût) nécessaire pour effectuer le calcul avec un matériel donné et une précision donnée, problème de calcul numérique et d’informatique.

Il faut en effet remarquer qu’un algorithme peut être plus rapidement convergent qu’un autre, tout en étant moins performant. Ainsi, la convergence d’un processus par trichotomie est d’ordre 1/3n , tandis que celle d’un processus par dichotomie est d’ordre 1/2n ; cependant, la dichotomie est plus performante car, à chaque pas, elle nécessite moins de calculs.

Bien entendu, lorsque le calcul de g H est simple, la méthode de Newton est la plus performante. Dans le cas contraire, on emploie une méthode d’approximations successives (avec éventuellement accélération de convergence). Cependant, ces méthodes ne sont performantes que dans la mesure où la valeur initiale c est assez proche de la racine. Pour obtenir de telles valeurs, on utilise couramment une dichotomie ou une interpolation linéaire.

Valeurs approchées d’une fonction en un point

Pour calculer les valeurs des fonctions transcendantes élémentaires, Newton puis Euler utilisent les développements en série entière de ces fonctions. On en trouve de nombreux exemples dans l’Introduction à l’analyse infinitésimale . La méthode suivie par Euler est de type expérimental: pour obtenir la somme d’une série numérique convergente avec vingt décimales, il calcule les termes successifs en s’arrêtant au premier terme inférieur à 10-20. En particulier, il calcule le nombre e avec vingt-trois décimales.

Dans le cas où la série donnée ne converge pas assez rapidement, Euler effectue des transformations sur cette série pour accélérer la convergence: il applique de tels procédés au calcul de log(1 + x ) et de Arctg x . En particulier, il obtient des méthodes très efficaces pour le calcul approché du nombre p, qu’il obtient avec cent vingt décimales. En voici les premières.

Dans La Théorie des fonctions analytiques , Lagrange reprend les calculs précédents mais il établit des majorations des restes des séries considérées. De telles majorations ont joué un rôle important dans la construction du concept de convergence des séries, comme il apparaît dans le Cours d’analyse déjà cité de Cauchy.

Développements asymptotiques

Dès la fin du XVIIe siècle se pose le problème de l’évaluation des restes des séries convergentes et des sommes partielles des séries divergentes. Le premier cas se présente lors du calcul des sommes de séries convergeant lentement, telles que les séries de termes généraux 1/n 2 et 1/n 3. Le second cas apparaît à propos de l’étude de la série harmonique de terme général 1/n et du calcul des probabilités, lequel nécessite l’emploi de grands nombres, notamment n ! et Cp n .

Newton, Jean Bernoulli et Stirling (1692-1770) résolvent ces problèmes sur des exemples. Euler en 1732 et Maclaurin en 1742, indépendamment, étudient le cas général. Un exposé synthétique, suivi de nombreuses applications, est donné par Euler dans les Institutiones calculi differentialis (1755). Bien entendu, la convergence des processus mis en jeu est traitée de manière expérimentale. Jacobi (1804-1851) et Cauchy établissent des majorations du reste de la formule d’Euler-Maclaurin. D’autres applications de cette formule sont dues à Abel (1802-1829), Gauss (1777-1855), Tchebychev (1821-1894) et Hermite (1822-1901).

Pour les séries convergentes, on obtient le résultat suivant: soit f une fonction indéfiniment dérivable sur [1, +d[ à valeurs complexes, intégrable sur cet intervalle ainsi que ses dérivées jusqu’à l’ordre 2 r + 1. Si, en outre, chacune de ces dérivées est négligeable devant la précédente, la série de terme général f (n ) converge, et où les nombres bn sont les nombres de Bernoulli, définis par la relation.

En particulier, b0 = 1, b1 = _ 1/2, b2p+1 = 0 si p P 1, b2 = 1/6, b4=_1/30, b6 = 1/42, b8 = _ 1/30, b10 = 5/66.

Euler détermine ainsi la somme de la série de terme général 1/n 3 à la précision 10-10, en calculant seulement la somme des douze premiers termes et en évaluant le reste par la formule sommatoire. Une méthode directe aurait nécessité le calcul de plus de soixante-dix mille termes.

Pour les séries divergentes, le résultat est analogue: on suppose que f et ses dérivées jusqu’à l’ordre 2 h _ 1 ne sont pas intégrables, tandis que les dérivées de l’ordre 2 h à l’ordre 2 r + 1 le sont. Si, en outre, chacune de ces dérivées est négligeable devant la précédente, la série de terme général f (n ) diverge, et il existe un nombre complexe c tel que.

En appliquant cette formule à la série harmonique, Euler obtient la relation:

Il en déduit facilement g avec quinze décimales ,une méthode directe, consistant à calculer,nécessiterait le calcul de 5 Z 1014 termes.

De même, en appliquant la formule sommatoire à la série de terme général log n , on obtient la formule de Stirling.Euler obtient plus généralement un développement asymptotique de log G(x ).

La notion de développement asymptotique n’a pas été clarifiée avant la fin du XIXe siècle. Une confusion a eu lieu entre développements asymptotiques et développements en série. Poincaré (1854-1912) et Borel (1871-1956) codifièrent l’emploi des premiers. On trouve un exposé synthétique dans les Leçons sur les séries divergentes (1901) de Borel.

Notons enfin que le calcul numérique a joué un rôle important dans l’obtention de développements asymptotiques pour les fonctions arithmétiques, et en particulier dans l’évaluation du nombre p(n ) de nombres premiers inférieurs à n . Ainsi, Legendre a conjecturé que p(n ) est de l’ordre de Gauss a amélioré cette hypothèse, en comparant expérimentalement p(n ) au logarithme intégral de n , défini par la relation.

Par une méthode très performante de calcul approché des intégrales, à laquelle son nom est resté attaché, il obtient la relation, Il compare ensuite ce nombre à p(2 Z 105) _ p(105). Ces conjectures ont été à l’origine des travaux de Tchebychev, d’Hadamard et de La Vallée-Poussin. On a maintenant démontré (cf. théorie des NOMBRES - Théorie analytique des nombres) que

Interpolation des fonctions

Comme nous l’avons signalé, l’interpolation linéaire était déjà utilisée par l’école d’Alexandrie. C’est Briggs qui systématisa l’emploi de l’interpolation pour l’établissement des tables de logarithmes et des tables trigonométriques, via le calcul des différences finies. Gregory et Newton étendirent le calcul des différences finies aux fonctions quelconques. Newton distingue le cas des pas constants du cas général, où il introduit la notion de différence divisée. L’étude de l’interpolation d’une fonction par un polynôme de degré inférieur à un entier donné est approfondie par Lagrange, en liaison avec celle des opérateurs aux différences finies, pour laquelle il introduit la notion fondamentale de série génératrice. Enfin, Laplace (1749-1827) étudie systématiquement ces séries et les applique dans des secteurs très variés (calcul des probabilités, équations aux différences finies, combinatoire).

Tous les calculs précédents sont de type formel. Cependant, Cauchy évalue l’erreur commise en remplaçant une fonction f définie sur un intervalle [a , b ] par le polynôme P interpolant f en des points a0, a1, ..., an .

À propos d’une question de mécanique (régulateur de Watt), Tchebychev est amené à rechercher l’optimisation de l’approximation de f par P, n étant donné. Cela revient à choisir les points a0, a1, ..., an de sorte que soit le plus petit possible. On se ramène par homothétie et translation au cas où a = _ 1 et b = 1. Il convient alors de prendre pour N l’unique polynôme Tn tel que Tn (cos t ) = cos nt . Les valeurs de a0, a1, ..., an s’en déduisent. Pour un exposé de la théorie de l’interpolation, se reporter à l’article: approximation et représentation des FONCTIONS.

Nombres attachés à une fonction

Le calcul approché des dérivées par utilisation des différences finies est élaboré par Newton et Euler.

Pour le calcul approché de l’intégrale I d’une fonction f sur un intervalle [a , b ], la méthode consiste à introduire une subdivision (a 0, a 1, ..., a p ) de [a , b ] et à remplacer, sur chaque intervalle [a j , a j+1 ], la fonction f par un polynôme interpolateur de degré n . Posons a = a j et b = a j+1 ,.

– Le cas où n = 1 (déjà employé par l’école d’Alexandrie sur des exemples d’exhaustion) est connu sous le nom de méthode des trapèzes.

Le cas où n = 2 est connu sous le nom de méthode de Simpson (1743), mais il apparaît déjà chez Cavalieri en 1639. Cela revient à écrire (formule des trois niveaux).

Le cas où n = 3 est utilisé par Newton. Cela revient à écrire les erreurs sur I sont respectivement de l’ordre de 1/p 2, 1/p 4 et 1/p 4.

– Le cas général a été étudié par Newton et Cotes (1682-1716).

Une méthode plus élaborée est mise au point par Euler; elle s’appuie sur la formule d’Euler-Maclaurin. La méthode de Gauss (1814) consiste à optimiser l’erreur commise sur lorsqu’on interpole f ; elle fait intervenir les polynômes de Legendre (cf. analyse NUMÉ- RIQUE).

Il convient de souligner que, dans ces dernières méthodes, les concepts fondamentaux de l’analyse, en particulier l’intégration par parties, prennent le relais de l’intuition géométrique, laquelle inspirait les méthodes élémentaires.

Approximation des fonctions

Le problème consiste à approcher une fonction f sur un intervalle [a , b ] par des fonctions se prêtant mieux au calcul.

Au XVIIe siècle, on a utilisé l’interpolation par des polynômes de petit degré. Avec Newton et Leibniz apparaît l’emploi de développements en série entière. L’optimisation de telles approximations a fait l’objet de nombreux travaux: méthode des moindres carrés (Legendre, 1805, et Gauss, 1809), développement en série de polynômes de Tchebychev, théorie de la meilleure approximation uniforme (Bernstein et La Vallée-Poussin).

Un autre courant s’est développé à partir des travaux de Fourier (1768-1830), engagés dès 1807, et exposés dans la Théorie analytique de la chaleur (1822). Fourier approche les fonctions périodiques par des polynômes trigonométriques. Ces travaux ont conduit à l’étude de la meilleure approximation en moyenne quadratique et des développements en séries de fonctions orthogonales (cf. approximation et représentation des FONCTIONS et polynômes ORTHOGONAUX).

Paradoxalement, ce sont les problèmes de calcul numérique concernant les cordes vibrantes et la propagation de la chaleur qui ont amené à élargir le champ des fonctions. Les travaux de Dirichlet (1829) et de Riemann (1854) sur l’intégration et sur les séries trigonométriques, et même ceux de Cantor sur les ensembles de points (1871) y puisent leur origine.

Bien d’autres secteurs mathématiques mettent en jeu de manière essentielle le calcul numérique. Citons par exemple la résolution des systèmes linéaires, l’inversion des matrices, la recherche des vecteurs propres et des valeurs propres, la résolution des équations différentielles et des équations aux dérivées partielles, l’optimisation.

 

Précédant