Les
logarithmes
Au départ, Napier
(1550-1617) se propose de simplifier les calculs trigonométriques intervenant
en astronomie; en 1614, il publie une table de logarithmes à sept décimales,
sous le titre: Description des merveilleuses règles des logarithmes et de leur
usage dans l’une et l’autre trigonométrie, aussi bien que dans tout calcul
mathématique . Un second traité, publié en 1619, explique la construction des
tables de logarithmes. La définition des logarithmes s’appuie sur la
comparaison de deux mouvements, l’un uniforme, l’autre où la vitesse est à chaque
instant proportionnelle au chemin parcouru. En outre, des inégalités
interpolatoires sont établies. En particulier, Napier montre que, pour tout
nombre réel x appartenant à l’intervalle ]0, 1[,
ce qui permet de
calculer les logarithmes des nombres voisins de 1. Il prouve aussi que, si 0 Sx
S y .
ce qui permet
d’interpoler les logarithmes.
Briggs (1561-1631)
perfectionne la construction des logarithmes: d’une part, il met en évidence
l’importance de la relation fonctionnelle:
d’autre part, il perçoit
l’avantage des logarithmes décimaux. En 1617, il publie une table à quatorze
décimales. Il utilise la correspondance entre une suite arithmétique et une
suite géométrique. Il calcule les logarithmes des nombres voisins de 1 par
extractions successives de racines carrées.
L’extraction des
racines carrées est facilitée par un algorithme employant des différences
successives, ce qui revient à la relation:
Une nouvelle étape
est franchie par Grégoire de Saint-Vincent (1584-1667), qui met en relation les
logarithmes avec les aires limitées par une hyperbole. Mercator (1620-1687) et
Newton (1642-1727) obtiennent indépendamment le développement en série.
En outre, il donne
une méthode permettant de calculer les logarithmes népériens à partir de la
série (1), grâce à des manipulations ingénieuses portant sur cette série.
Ainsi, la théorie
des logarithmes met en jeu des concepts importants:
– elle contribue à
l’élaboration de la notion de fonction: Newton et Leibniz (1646-1716)
conçoivent clairement la fonction logarithme, et utilisent la relation:
Jean Bernoulli
(1667-1748) développe le calcul sur les fonctions exponentielles et
logarithmes, d’une importance capitale en analyse, en particulier dans la
résolution des équations différentielles;
– les notions de cinématique
employées par Napier sont reprises et généralisées par Newton pour fonder le
calcul différentiel (méthode des fluxions);
– les
développements obtenus par Briggs pour j1 + x sont généralisés par Newton
(développement du binôme, développements en série entière);
– les problèmes
d’interpolation sont à la base des travaux de Gregory (1638-1675) et de ceux de
Newton sur les différences finies;
– enfin, on trouve
un exposé synthétique des fonctions exponentielles et logarithmes dans
l’Introduction à l’analyse des infiniment petits , publiée en 1748 par Euler
(1707-1783); ce dernier dégage en outre le lien entre les fonctions
exponentielles réelles et les fonctions circulaires, grâce à la théorie des
fonctions exponentielles et logarithmes complexes [cf. EXPONENTIELLE ET
LOGARITHME].
Recherche
de solutions approchées d’équations numériques
Méthode
de dichotomie
Soit g une fonction
numérique continue et strictement monotone sur un intervalle [a , b ], telle
que g (a )g (b ) S 0. Il existe alors un élément a de [a , b ] et un seul tel
que g (a) = 0. On peut trouver des valeurs approchées de a par l’algorithme
suivant: supposons par exemple g (a ) O 0 et g (b ) S 0; posons a 0 = a , b 0 =
b , et:
Si g (c 0) D 0, on
pose a 1 = a 0 et b 1 = c 0; sinon, on pose a 1 = c 0 et b 1 = b 0. Par
récurrence, on construit une suite ([a n , b n ]) d’intervalles emboîtés telle
que, pour tout entier naturel n , on ait g (a n ) O 0, g (b n ) D 0 et:
Les suites (a n )
et (b n ) sont adjacentes, et elles convergent toutes deux vers a. En outre,
pour tout entier naturel n , a appartient à l’intervalle [a n ,b n ].
Dès le XVIe siècle,
cette méthode est employée pour séparer les racines d’une équation algébrique.
La convergence n’est pas très rapide; c’est pourquoi cette méthode n’est pas
utilisée lorsqu’on désire obtenir a avec une grande précision.
En revanche, le
méthode de dichotomie a eu une importance considérable dans le développement
des concepts fondamentaux de l’analyse:
– Lagrange
(1736-1813), dans La Théorie des fonctions analytiques (1797), utilise une
variante de cette méthode pour démontrer le principe fondamental du calcul
différentiel, suivant lequel une fonction admettant une dérivée positive est
croissante; ce principe est à la base de la formule de Taylor.
– Bolzano
(1781-1848), dans Une preuve analytique ... (1817) et Cauchy (1789-1857), dans
son Cours d’analyse à l’École polytechnique (1821), utilisent la dichotomie
pour démontrer le théorème des valeurs intermédiaires.
– L’école de
Weierstrass (1815-1897) utilise systématiquement la dichotomie pour démontrer
les théorèmes fondamentaux sur les fonctions continues (existence d’un maximum,
continuité uniforme). Ces résultats reposent sur le théorème suivant, dit de
Bolzano-Weierstrass: de toute suite bornée de nombres réels, on peut extraire
une suite convergente.
Méthode
d’interpolation linéaire (ou "regula falsi")
Sous les mêmes
hypothèses que précédemment, on cherche une valeur approchée b de y en
interpolant g sur l’intervalle [a ,b ] par une fonction affine f, et en
définissant b par la relation f(b) = 0. Cette méthode a été utilisée par Viète
(1540-1603) et par Descartes (1596-1650), dans le cas des équations
algébriques. La majoration de l’erreur a été effectuée par Lagrange.
Cette méthode est
peu employée seule car elle ne conduit pas à un processus itératif qui soit à
la fois commode et performant.
Méthode des
tangentes (ou de Newton)
L’école
d’Alexandrie, et en particulier Archimède, utilise fréquemment des encadrements
des racines carrées d’un nombre entier par des nombres rationnels. À cet effet,
on utilise l’algorithme d’Euclide de divisions successives. Héron d’Alexandrie
part d’une autre idée. Pour approcher ja , il écrit a sous la forme a = r 2 + b
, où r est le plus grand des entiers p tels que p 2 D a . Ainsi, ja = r j1 + (b
/r 2). Il approche j1 + (b /r 2) par 1 + (b /2r 2). D’où la valeur approchée
suivante:
On itère alors ce
processus. Plus précisément, on pose:
et, pour tout
entier naturel n ,
La convergence de
la suite (u n ) vers ja est extraordinairement rapide. Ainsi, lorsque a = 2, u
0 = 1, u 1 = 1,5, u 2 = 1,416 666 66..., u 3 = 1,414 215 68..., u 4 = 1,414 213
56...
Cette rapidité peut
être prévue grâce aux encadrements suivants: on prouve d’abord que |u 2 _ j2| D
1/400. Par ailleurs, pour tout entier naturel n ,
En particulier, u 4
et u 5 fournissent respectivement des approximations de j 2 à 10-11 près et à
10-23 près.
Cette méthode est
incomparablement supérieure à la méthode encore enseignée (pour des raisons inconnues)
dans les lycées et collèges français, laquelle repose sur une décomposition en
tranches de deux chiffres.
La méthode de Héron
est reprise par Newton dans son traité Principes mathématiques de la
philosophie naturelle . Lors de l’étude du mouvement des planètes, il est amené
à rechercher des solutions approchées de l’équation de Kepler x = a + e sin x ,
où e S 1. Plus généralement, pour chercher des solutions approchées de
l’équation g (x ) = 0, on part d’une valeur initiale c et l’on prend pour valeur
approchée l’abscisse b du point d’intersection avec Ox de la tangente au graphe
de g au point d’abscisse c . On a:
on itère alors ce
processus, grâce aux relations:
Cette méthode est
connue sous le nom de méthode de Newton-Raphson. Cauchy fut le premier à
préciser les conditions portant sur g assurant la convergence du processus
(Cours d’analyse paru en 1821).
La convergence est
extrêmement rapide: on peut prouver qu’elle est de l’ordre de k (2n ). Il
convient de remarquer que, si l’on applique la méthode de Newton à la
résolution de l’équation x 2 _ a = 0, on obtient précisément l’algorithme:
Méthode
des approximations successives
Un autre problème
célèbre, dû à Ptolémée (128-168), est celui de la recherche de valeurs
approchées de sin 10. (Ce problème apparaît dans la construction de tables
trigonométriques.) Dans l’Almageste , Ptolémée calcule sin 720 et sin 600; il
en déduit sin 120 puis, par dichotomies successives, sin 10 30H et sin 45H. Il
effectue enfin une interpolation linéaire pour obtenir une valeur approchée de
sin 10. Cette méthode fournit une valeur approchée à 10 -6 près. Les progrès de
l’astronomie ont amené les mathématiciens arabes à améliorer cette précision.
Vers 1400, al-Kashi, astronome à l’observatoire de Samarcande, part de la relation
sin 3 x = 3 sin x _ 4 sin3 x . Connaissant sin 30, il en déduit sin 10, en
résolvant par approximations successives l’équation:
Plus précisément,
on pose u 0 = 0 et, pour tout entier naturel n , ici aussi, la convergence est
extrêmement rapide, ainsi ,on peut montrer a priori que le nombre u 3 fournit
une approximation de sin 10 à 10 -10 près. En effet,
Cette méthode est
reprise par Viète en 1600 et par Wallis en 1660, pour la résolution des
équations algébriques.
Là encore, c’est
Cauchy qui a précisé les hypothèses assurant la convergence du processus. Voici
l’énoncé général: soient I un intervalle fermé de R et f une application de I
dans lui-même. On suppose que f est contractante, c’est-à-dire qu’il existe un
nombre réel positif k strictement inférieur à 1 tel que, pour tout couple (x ,
y ) de points de I,
Dans ces
conditions, l’application f admet un point fixe a et un seul; en outre, pour
tout élément c de I, la suite (u n ), définie par les relations u n + 1 = f (u
n ) et u 0 = c , converge vers a . Enfin, pour tout entier naturel non nul p ,
en particulier, la condition (2) est satisfaite lorsque f est dérivable sur I
et que.
Ainsi, la pente des
tangentes au graphe de f gouverne la rapidité de convergence.
Supposons
maintenant que l’on veuille résoudre par cette méthode une équation de la forme
g (x ) = 0, où g est de classe C1 sur un intervalle J de R, sachant qu’il
existe un élément a de J et un seul tel que g (a) = 0; on suppose en outre que
g H(a) R 0. L’idée consiste à écrire l’équation g (x ) = 0 sous la forme f (x )
= x , où on choisit a de telle sorte que, sur un voisinage I de a , | g H (x )
+ a | soit le plus petit possible; on applique à f la méthode des
approximations successives. En particulier, ce procédé peut être employé pour
une équation déjà mise sous la forme f (x ) = x , mais pour laquelle la
convergence est trop lente. On dit alors qu’on effectue une accélération de
convergence par ajustement linéaire.
Le cas idéal est
celui où, à chaque pas de l’itération, f J(u n ) est nul; on peut s’y ramener
en modifiant à chaque pas le facteur a . On obtient alors l’algorithme suivant
pour résoudre l’équation g (x ) = 0. On pose u 0 = c ; il convient donc de
prendre a 0 = _ g H(u 0). Par suite, et plus généralement on retombe alors sur
la méthode de Newton.
Néanmoins, lorsque
l’expression de g H est compliquée, la méthode de Newton est d’emploi peu
commode. Il est alors préférable d’effectuer une accélération de convergence
immuable.
La méthode des
approximations successives, issue du calcul numérique, a été employée par
Picard (1856-1941), pour la recherche des solutions des équations
différentielles. Au cours du XXe siècle, son champ d’application est élargi à
tous les secteurs de l’analyse: équations implicites, équations aux dérivées
partielles, traitement numérique des matrices, topologie algébrique, etc. On
utilise à cet effet l’énoncé suivant: soit (A , d ) un espace métrique et f une
application de A dans lui-même, telle que la série des rapports de Lipschitz l(
f n ) converge. Alors l’application f a un point fixe a et un seul. En outre,
pour tout élément c de A, la suite (u n ) définie par les relations u n + 1 = f
(u n ) et u 0 = c converge vers a . Enfin, pour tout entier naturel non nul p ,
Lorsque f est
contractante, l(f n ) D k n , et on retrouve le cas classique. Mais l’énoncé
précédent est plus précis; par exemple, dans le cas des équations
différentielles, la convergence est d’ordre M n /n !.
Comparaison des
méthodes précédentes
Il convient ici,
comme dans tous les problèmes de calcul numérique, de distinguer trois niveaux:
– celui de
l’existence et de l’unicité des solutions, problème d’analyse mathématique;
– celui de la
rapidité de convergence des processus d’approximation, problème d’analyse
numérique;
– celui de la
performance du processus, c’est-à-dire du temps total (et donc du coût)
nécessaire pour effectuer le calcul avec un matériel donné et une précision
donnée, problème de calcul numérique et d’informatique.
Il faut en effet
remarquer qu’un algorithme peut être plus rapidement convergent qu’un autre,
tout en étant moins performant. Ainsi, la convergence d’un processus par
trichotomie est d’ordre 1/3n , tandis que celle d’un processus par dichotomie
est d’ordre 1/2n ; cependant, la dichotomie est plus performante car, à chaque
pas, elle nécessite moins de calculs.
Bien entendu,
lorsque le calcul de g H est simple, la méthode de Newton est la plus
performante. Dans le cas contraire, on emploie une méthode d’approximations
successives (avec éventuellement accélération de convergence). Cependant, ces
méthodes ne sont performantes que dans la mesure où la valeur initiale c est
assez proche de la racine. Pour obtenir de telles valeurs, on utilise
couramment une dichotomie ou une interpolation linéaire.
Valeurs
approchées d’une fonction en un point
Pour calculer les
valeurs des fonctions transcendantes élémentaires, Newton puis Euler utilisent
les développements en série entière de ces fonctions. On en trouve de nombreux
exemples dans l’Introduction à l’analyse infinitésimale . La méthode suivie par
Euler est de type expérimental: pour obtenir la somme d’une série numérique
convergente avec vingt décimales, il calcule les termes successifs en
s’arrêtant au premier terme inférieur à 10-20. En particulier, il calcule le
nombre e avec vingt-trois décimales.
Dans le cas où la
série donnée ne converge pas assez rapidement, Euler effectue des
transformations sur cette série pour accélérer la convergence: il applique de
tels procédés au calcul de log(1 + x ) et de Arctg x . En particulier, il
obtient des méthodes très efficaces pour le calcul approché du nombre p, qu’il
obtient avec cent vingt décimales. En voici les premières.
Dans La Théorie des
fonctions analytiques , Lagrange reprend les calculs précédents mais il établit
des majorations des restes des séries considérées. De telles majorations ont
joué un rôle important dans la construction du concept de convergence des
séries, comme il apparaît dans le Cours d’analyse déjà cité de Cauchy.
Développements
asymptotiques
Dès la fin du XVIIe
siècle se pose le problème de l’évaluation des restes des séries convergentes
et des sommes partielles des séries divergentes. Le premier cas se présente
lors du calcul des sommes de séries convergeant lentement, telles que les
séries de termes généraux 1/n 2 et 1/n 3. Le second cas apparaît à propos de
l’étude de la série harmonique de terme général 1/n et du calcul des
probabilités, lequel nécessite l’emploi de grands nombres, notamment n ! et Cp
n .
Newton, Jean
Bernoulli et Stirling (1692-1770) résolvent ces problèmes sur des exemples.
Euler en 1732 et Maclaurin en 1742, indépendamment, étudient le cas général. Un
exposé synthétique, suivi de nombreuses applications, est donné par Euler dans
les Institutiones calculi differentialis (1755). Bien entendu, la convergence
des processus mis en jeu est traitée de manière expérimentale. Jacobi
(1804-1851) et Cauchy établissent des majorations du reste de la formule
d’Euler-Maclaurin. D’autres applications de cette formule sont dues à Abel (1802-1829),
Gauss (1777-1855), Tchebychev (1821-1894) et Hermite (1822-1901).
Pour les séries
convergentes, on obtient le résultat suivant: soit f une fonction indéfiniment
dérivable sur [1, +d[ à valeurs complexes, intégrable sur cet intervalle ainsi
que ses dérivées jusqu’à l’ordre 2 r + 1. Si, en outre, chacune de ces dérivées
est négligeable devant la précédente, la série de terme général f (n )
converge, et où les nombres bn sont les nombres de Bernoulli, définis par la
relation.
En particulier, b0
= 1, b1 = _ 1/2, b2p+1 = 0 si p P 1, b2 = 1/6, b4=_1/30, b6 = 1/42, b8 = _
1/30, b10 = 5/66.
Euler détermine
ainsi la somme de la série de terme général 1/n 3 à la précision 10-10, en
calculant seulement la somme des douze premiers termes et en évaluant le reste
par la formule sommatoire. Une méthode directe aurait nécessité le calcul de
plus de soixante-dix mille termes.
Pour les séries
divergentes, le résultat est analogue: on suppose que f et ses dérivées jusqu’à
l’ordre 2 h _ 1 ne sont pas intégrables, tandis que les dérivées de l’ordre 2 h
à l’ordre 2 r + 1 le sont. Si, en outre, chacune de ces dérivées est
négligeable devant la précédente, la série de terme général f (n ) diverge, et
il existe un nombre complexe c tel que.
En appliquant cette
formule à la série harmonique, Euler obtient la relation:
Il en déduit
facilement g avec quinze décimales ,une méthode directe, consistant à
calculer,nécessiterait le calcul de 5 Z 1014 termes.
De même, en
appliquant la formule sommatoire à la série de terme général log n , on obtient
la formule de Stirling.Euler obtient plus généralement un développement
asymptotique de log G(x ).
La notion de
développement asymptotique n’a pas été clarifiée avant la fin du XIXe siècle.
Une confusion a eu lieu entre développements asymptotiques et développements en
série. Poincaré (1854-1912) et Borel (1871-1956) codifièrent l’emploi des
premiers. On trouve un exposé synthétique dans les Leçons sur les séries
divergentes (1901) de Borel.
Notons enfin que le
calcul numérique a joué un rôle important dans l’obtention de développements
asymptotiques pour les fonctions arithmétiques, et en particulier dans
l’évaluation du nombre p(n ) de nombres premiers inférieurs à n . Ainsi,
Legendre a conjecturé que p(n ) est de l’ordre de Gauss a amélioré cette
hypothèse, en comparant expérimentalement p(n ) au logarithme intégral de n ,
défini par la relation.
Par une méthode
très performante de calcul approché des intégrales, à laquelle son nom est
resté attaché, il obtient la relation, Il compare ensuite ce nombre à p(2 Z
105) _ p(105). Ces conjectures ont été à l’origine des travaux de Tchebychev,
d’Hadamard et de La Vallée-Poussin. On a maintenant démontré (cf. théorie des
NOMBRES - Théorie analytique des nombres) que
Interpolation
des fonctions
Comme nous l’avons
signalé, l’interpolation linéaire était déjà utilisée par l’école d’Alexandrie.
C’est Briggs qui systématisa l’emploi de l’interpolation pour l’établissement
des tables de logarithmes et des tables trigonométriques, via le calcul des
différences finies. Gregory et Newton étendirent le calcul des différences
finies aux fonctions quelconques. Newton distingue le cas des pas constants du
cas général, où il introduit la notion de différence divisée. L’étude de
l’interpolation d’une fonction par un polynôme de degré inférieur à un entier
donné est approfondie par Lagrange, en liaison avec celle des opérateurs aux
différences finies, pour laquelle il introduit la notion fondamentale de série
génératrice. Enfin, Laplace (1749-1827) étudie systématiquement ces séries et
les applique dans des secteurs très variés (calcul des probabilités, équations
aux différences finies, combinatoire).
Tous les calculs
précédents sont de type formel. Cependant, Cauchy évalue l’erreur commise en
remplaçant une fonction f définie sur un intervalle [a , b ] par le polynôme P
interpolant f en des points a0, a1, ..., an .
À propos d’une
question de mécanique (régulateur de Watt), Tchebychev est amené à rechercher
l’optimisation de l’approximation de f par P, n étant donné. Cela revient à
choisir les points a0, a1, ..., an de sorte que soit le plus petit possible. On
se ramène par homothétie et translation au cas où a = _ 1 et b = 1. Il convient
alors de prendre pour N l’unique polynôme Tn tel que Tn (cos t ) = cos nt . Les
valeurs de a0, a1, ..., an s’en déduisent. Pour un exposé de la théorie de
l’interpolation, se reporter à l’article: approximation et représentation des
FONCTIONS.
Nombres attachés
à une fonction
Le calcul approché
des dérivées par utilisation des différences finies est élaboré par Newton et
Euler.
Pour le calcul
approché de l’intégrale I d’une fonction f sur un intervalle [a , b ], la
méthode consiste à introduire une subdivision (a 0, a 1, ..., a p ) de [a , b ]
et à remplacer, sur chaque intervalle [a j , a j+1 ], la fonction f par un
polynôme interpolateur de degré n . Posons a = a j et b = a j+1 ,.
– Le cas où n = 1
(déjà employé par l’école d’Alexandrie sur des exemples d’exhaustion) est connu
sous le nom de méthode des trapèzes.
Le cas où n = 2 est
connu sous le nom de méthode de Simpson (1743), mais il apparaît déjà chez
Cavalieri en 1639. Cela revient à écrire (formule des trois niveaux).
Le cas où n = 3 est
utilisé par Newton. Cela revient à écrire les erreurs sur I sont respectivement
de l’ordre de 1/p 2, 1/p 4 et 1/p 4.
– Le cas général a
été étudié par Newton et Cotes (1682-1716).
Une méthode plus
élaborée est mise au point par Euler; elle s’appuie sur la formule
d’Euler-Maclaurin. La méthode de Gauss (1814) consiste à optimiser l’erreur
commise sur lorsqu’on interpole f ; elle fait intervenir les polynômes de
Legendre (cf. analyse NUMÉ- RIQUE).
Il convient de
souligner que, dans ces dernières méthodes, les concepts fondamentaux de
l’analyse, en particulier l’intégration par parties, prennent le relais de
l’intuition géométrique, laquelle inspirait les méthodes élémentaires.
Approximation des
fonctions
Le problème
consiste à approcher une fonction f sur un intervalle [a , b ] par des
fonctions se prêtant mieux au calcul.
Au XVIIe siècle, on
a utilisé l’interpolation par des polynômes de petit degré. Avec Newton et
Leibniz apparaît l’emploi de développements en série entière. L’optimisation de
telles approximations a fait l’objet de nombreux travaux: méthode des moindres
carrés (Legendre, 1805, et Gauss, 1809), développement en série de polynômes de
Tchebychev, théorie de la meilleure approximation uniforme (Bernstein et La
Vallée-Poussin).
Un autre courant
s’est développé à partir des travaux de Fourier (1768-1830), engagés dès 1807,
et exposés dans la Théorie analytique de la chaleur (1822). Fourier approche
les fonctions périodiques par des polynômes trigonométriques. Ces travaux ont
conduit à l’étude de la meilleure approximation en moyenne quadratique et des
développements en séries de fonctions orthogonales (cf. approximation et
représentation des FONCTIONS et polynômes ORTHOGONAUX).
Paradoxalement, ce
sont les problèmes de calcul numérique concernant les cordes vibrantes et la
propagation de la chaleur qui ont amené à élargir le champ des fonctions. Les
travaux de Dirichlet (1829) et de Riemann (1854) sur l’intégration et sur les
séries trigonométriques, et même ceux de Cantor sur les ensembles de points
(1871) y puisent leur origine.
Bien d’autres
secteurs mathématiques mettent en jeu de manière essentielle le calcul
numérique. Citons par exemple la résolution des systèmes linéaires, l’inversion
des matrices, la recherche des vecteurs propres et des valeurs propres, la
résolution des équations différentielles et des équations aux dérivées partielles,
l’optimisation.