Archive for the 'mathschoses' Category

vrac sur la topologie issue des structures linéaires de Tim Maudlin

Tuesday, November 8th, 2011

pontcardinet_450.JPG
(via anniceris)
en attendant d’avoir le papier en question (celui-là si un hasardeux lecteur a l’accès académique adéquat… got it ! ), la vidéo de Tim Maudlin à propos de la topologie de structures linéaires qu’il propose comme fondation au concept d’espace temps relativiste (ce qui me reste à comprendre).
(à lire : time travel and modern physics par Frank Arntzenius et Tim Maudlin, Stanford Encyclopedia of Philosophy)

j’ai pompé quelques unes de ses slides ici pour essayer d’y réfléchir :

Axioms

A linear structure is set S together with \Lambda a set of subsets of S called the “lines” of S that satisfy
- LS1 minimality axiom : each “line” contains at least two points
- LS2 segment axiom : every “line” \lambda admits of a linear order among its points such that a subset of \lambda is itself a “line” if and only if it is an interval of that linear order
- LS3 point splicing axiom : if \lambda and \mu are “lines” that have in common only a single point p that is an endpoint of both, then \lambda \union \mu is a line provided that no lines inthe set (\lambda \union \mu) - p have a point in \lmabda and a point in \mu
- LS4 completion axiom : any linearly ordered set \sigma such that all and only the closed intervals in the order are “closed lines” is a line

Non uniqueness of order

according to the first set og axioms, every line can be represented by a linear order among its point. NBut evidently ther are two such linear orders that will do the job, one the inverse of the other. Each will imply the same intervals and do the same structure of “segments” ( a “segment of a “line” \lmabda is a subset of \lambda that is a “line”)

Neighborhoods
a set \Sigma is a “neighborhood” of a point p iff every “line” with p as an endpoint has a “segment” with p as an “endpoint” in \sigma

Open Sets
- a set \Sigma in a Linear Structure is an “open set” iff it is a “neighborhood” of all of its members.
(la différence avec la topologie standard, est qu’alors, le voisinage est défini comme un ouvert contenant le point : c’est ça en fait qui m’interpelle. ça semble en effet tellement plus intéressant d’adopter la démarche inverse)

Thm
The collection of “open sets” in a Linear Structure satisfies the aims of standard topology : the “open sets” are open sets !

–>> Directed Linear Structures
–> all and only directed intervals in a linear order are “segments” of a “line”etc..
-> splicing axiom ; final point and initial point

-> def outward neigborhood, outward open sets

—> de tout ça il déduit que c’est la topologie adaptée à l’espace-temps relativiste (lorentzian pseudo-metrique) maximal set of event forms such a set to intuitively form a line

s90_img_4201_450.JPG

une histoire de tribus

Tuesday, March 15th, 2011

Je ne sais pas depuis combien de générations on torture des étudiants qui n’ont grosso modo qu’un besoin très appliqué avec la définition des probabilités sur univers et tribus. Pour ma part, j’avais toujours considéré cette matière assez mesquine, me plaignant qu’il s’agissait surtout d’interprétation subjective d’énoncés en langage naturel, jusqu’à ce que j’en enseigne un cours introductif à la suite d’un cours d’intégration (de Lebesgue), cela prenait enfin tout son sens (entre autre permettre toutes les nuances de gris entre le 0 et le 1) et justifiait notamment cette histoire de tribus.
En résumé cela donne quelque chose comme ça : pour permettre l’intégration d’une fonction au sens de Lebesgue, il suffit que *les conditions de régularité* qui permettent l’intégration au sens classique soient vérifiées en dehors d’ensembles qui seraient négligeables pour l’intégrale (toutes les théories d’intégration définissent l’intégrale comme limite de sommes finies d’aires, l’idée géniale de Lebesgue étant de discrétiser au niveau de l’ensemble des valeurs prises par la fonction à intégrer puisque ce sont les valeurs singulières qui peuvent éventuellement poser problème, et non le domaine d’intégration, cela date du tournant XIXième-XXième). Il faut alors trouver un moyen de mesurer le domaine d’intégration pour définir ce qui est négligeable de ce qui ne l’est pas, si les valeurs problématiques de la fonctions sont prises sur un ensemble négligeable ou pas. On en vient alors, pour travailler dans le cadre des réels, à généraliser la notion d’intervalle. C’est ce que l’on va faire en définissant l’ensemble des Boréliens : la tribu borélienne (d’Emile Borel 1898).
Les boréliens, ce sont tous les ensembles que l’on peut construire à partir des intervalles ouverts à l’aide d’opérations élémentaires : passage au complémentaire, union (et donc intersection par passage au complémentaire) de famille dénombrable. Ainsi à chaque borélien on peut associer sa mesure c’est à dire un nombre positif qui peut être nul ou infini et qui a la propriété de σ-additivité : pour toute famille dénombrable la mesure de l’union des éléments de cette famille est la somme des mesures. (la mesure de Lebesgue est tout simplement la taille de l’intervalle, la mesure d’un ensemble de point isolés est nulle, c’est par essence ce genre d’ensembles qui seront appelés négligéables)
Une tribu en général, c’est une classe définie sur un ensemble (en proba on parlera de l’univers) qui vérifie simplement les trois propriétés suivantes : elle n’est pas vide (elle contient l’ensemble vide ainsi que l’univers par la seconde propriété), elle est stable par passage au complémentaire, elle est stable par union dénombrable.

Donc pour ce qui est des probas dans le cadre le plus général. On se place dans un espace des états : univers des possibles, c’est l’ensemble de tous les résultats possibles de l’expérience aléatoire que l’on considère. Un évènement c’est une partie de l’univers, le résultat d’une expérience aléatoire. On définit alors la probabilité comme étant une application de la tribu des évènements définis sur l’univers à valeurs dans l’intervalle [0,1] telle que la probabilité de l’univers entier (c’est à dire la certitude) vaut 1 et pour deux évènements incompatibles (d’intersection nulle), la probabilité de l’union (l’un ou l’autre), est la somme de leurs probabilités respectives. Ainsi, la probabilité d’un évènement, c’est un nombre entre 0 et 1 qui indique le degré de vraisemblance a priori de cet évènement, on peut l’imaginer comme la limite de la fréquence de réalisation de cet évènement si on pouvait reproduire indéfiniment l’expérience.

Pour les étudiants que les considérations algébriques ne concernent pas vraiment, je pense que l’on peut simplement commencer par le cas discret fini en explicitant l’ensemble des parties de l’univers et mentionner le concept de tribu comme généralisation au cas non dénombrable. On voit en suivant cette démarche que le concept de tribu est le cadre absolument adapté à ce cas, puisque cela correspond exactement au passage des sommes à l’intégration.

Tout et plus encore !

Tuesday, February 22nd, 2011

tout et plus encore

Voilà, il sort : Tout et plus encore, de David Foster Wallace ! Je suis über proud d’avoir un iota participé à l’aventure de la traduction, superbe, de Thomas Chaumont.
Je dis par là tout le bien que je pense de ce livre.

optimisation avec (une seule) contrainte pour les fonctions de 2 variables, lagrangien et hessienne bordée

Monday, December 6th, 2010

comme promis dans les commentaires au post précédent sur l’optimisation sans contrainte, un petit topo rapide sur le cas avec contrainte. J’ai toujours un peu l’impression de faire du reverse engineering sur mes propres connaissances et la façon sont les choses sont présentées en général dans les documents académiques, surtout dans le cas où, comme ici, la notion est principalement utilisée en tant qu’outil appliqué, en l’occurence à l’économie.

****
j’avais publié puis dé-publié ce post parce que j’avais fait une bêtise, je m’étais arrếtée au cas contrainte linéaire, pour laquelle le lagrangien ne présente aucun intérêt.
Il faut que je mène le calcul réel pour la condition du second ordre, en calculant le long de la contrainte et prenant en compte la valeur de λ obtenue grâce aux conditions du premier ordre. J’espère retomber sur l’expression du déterminant de la hessienne bordée.
Donc en attendant, je publie en l’état, et en guise d’auto-flagellationn je réprime le jeu de mot hyper vulgaire que j’avais mis dans le titre.
****

On veut optimiser f(x,y) sous la contrainte g(x,y)=0.
Supposons que l’on peut paramétrer par (x(t),y(t)) la courbe de niveau correspondant à g(x,y)=0, quitte à passer localement par des fonctions implicites (ce qui demande un gradient non nul pour g). Le problème se ramène alors à optimiser la fonction F(t) = f(x(t),y(t)). Par dérivation de g et F, on obtient :
     ∂g/∂x (x(t), y(t)).x’(t) + ∂g/∂y (x(t), y(t)).y’(t) = 0 car g est constante par définition le long de sa courbe de niveau d’une part (et que le gradient est orthogonal à la courbe de niveau enfin zut quoi !),
     et d’autre part ∂f/∂x (x(t0), y(t0)).x’(t0) + ∂f/∂y (x(t0), y(t)0).y’(t0) = 0 pour un certain t0 qui permet d’atteindre l’extremum recherché.
Ainsi les gradients de g et de f sont tous les deux orthogonaux à (x’(t0),y’(t0)), soit, colinéaires, d’où l’idée de Lagrange d’introduire λ tel que :
     ∇f(x0,y0) = λ ∇g(x0,y0) et g(x0,y0)=0 au point qui permet de réaliser un extremum.
“Élégamment” noté L (x,y,λ) := f(x,y) - λg(x,y) et la condition nécéssaire du premier ordre d’optimum devient donc ∇ L (x0,y0,λ) = 0 .

Reste à déterminer une condition suffisante, et l’on retrouve l’étude de la convexité. À partir du développement limité à l’ordre 2 obtenu dans le post précédent, et avec le même raisonnement dans le cas d’un minimum pour fixer les idées, il faut donc que le terme d’ordre 2 soit positif le long de la courbe de niveau autour de l’extremum: ∂²f/∂x².(x0, y0) h² + 2.∂²f/∂x∂y (x0, y0) . hk + ∂²f/∂y² (x0, y0) . k² > 0. Il suffit ensuite d’expliciter les accroissements qui permettent de rester sur la courbe de niveau : fonction implicite (ou statique comparative) on a : dy = - ∂g/∂y / ∂g/∂x dx que l’on injecte dans le terme d’ordre 2 en tant que k (et h = dx), puis multiplié par (∂g/∂x)² et divisé par dx² on obtient la condition suffisante du second ordre :
     ∂²f/∂x² . (∂g/∂x)² - 2.∂²f/∂x∂y . ∂g/∂y . ∂g/∂x + ∂²f/∂y² . (∂g/∂y)² > 0
et dans le cas d’un maximum :
     ∂²f/∂x² . (∂g/∂x)² - 2.∂²f/∂x∂y . ∂g/∂y . ∂g/∂x + ∂²f/∂y² . (∂g/∂y)² < 0
…. et c’est là que l’on observe que cette expression est justement l’opposée du déterminant de la matrice hessienne bordée du Lagrangien.
La bonne blague.
Il me reste à comprendre si lorsque l’on exprime tout ceci en terme de convexité du Lagrangien, cela repose uniquement sur ces “élégances” d’écriture, ou sur une réalité géométrique sous-jascente que je ne saisis pas encore ne serait-ce dans le cas de 2 variables. Subjectivité disait-il.

optimisation sans contrainte, dans le cas d’une fonction de 2 variables

Monday, November 22nd, 2010

Je me suis un peu clarifié les idées sur l’optimisation sans contrainte pour les fonctions de 2 variables, et voilà l’approche qui me semble la plus économe en terme de notions à introduire (et aussi la plus “naturelle” peut-être).

. L’idée est de commencer par obtenir le plus simplement possible un developpement limité à l’ordre 2 pour une fonction f(x,y).
on part d’un développement limité à l’ordre 2 pour une fonction d’une variable :
on pose g(t) = f(x+th, y+tk)

on calcule g’(t) = lim_{Δt->0} [ f(x + (t+Δt)h , y + (t+Δt)k) - f(x+th, y+tk) ] / Δt
= lim [ f(x + (t+Δt)h , y + (t+Δt)k) - f(x+th, y+ (t+Δt)k )]/(Δt.h) . h +
[ f(x + t h , y + (t+Δt)k) - f(x+th, y + t k )]/(Δt.k) . k
= ∂f/∂x (x+th, y+tk) . h + ∂f/∂y (x+th, y+tk) . k

en procédant de même pour la dérivée seconde (+ schwarz), on obtient :
g”(t) = ∂²f/∂x² (x+th, y+tk) . h² + 2.∂²f/∂x∂y (x+th, y+tk) . hk ∂²f/∂y² (x+th, y+tk) . k²

on écrit le dl de g à l’ordre 2 pour t=1 et t=0
g(1) = g(0) + g’(0) + 1/2 g”(0) + reste

soit en terme de f :
f(x+h, y+k) = f(x,y) + ∂f/∂x (x, y) . h + ∂f/∂y (x, y) . k + 1/2 (∂²f/∂x² (x, y) . h² + 2.∂²f/∂x∂y (x, y) . hk + ∂²f/∂y² (x, y) . k² ) + reste

. passons à la recherche d’extremum :
au niveau d’un point stationnaire le gradient est nul, voir mon petit topo de la dernière fois, ou encore deux façons de le faire sentir :
- on “voit” que le plan tangent est plat comme en 1D la tangente était de pente nulle
- ou plus simple peut-être, au niveau d’un point (x_0,y_0) qui permet l’extremum on fixe par exemple y_0 et on se retrouve avec le cas 1D : si on fait varier localement x, h(x,y_0) a forcément aussi un point critique en x_0, d’où la première dérivée partielle nulle. idem pour la seconde.

le dl obtenu précédemment nous donne alors, dans le cas d’un minimum pour fixer les idées, en négligeant le reste :
∂²f/∂x². h² + 2.∂²f/∂x∂y (x, y) . hk ∂²f/∂y² (x, y) . k² > 0

. il faut alors procéder à l’étude du signe de la forme quadratique : A h² + 2B hk + C k²
on pose λ = h/k, cela revient à l’étude de : A λ² + 2B λ + C
et on obtient le thm de Lagrange en regardant le signe de ce polynôme.

. on peut ensuite introduire les notions de concavité convexité en faisant le parallèle avec ce que l’on sait pour 1 variable.

(L’idée de l’étude du Hessien peut au besoin, dériver de cela comme une généralisation/automatisation)

gradient, plan tangent, courbes de niveau (et fonctions implicites)…

Saturday, November 6th, 2010

à chaque fois ça me puzzle, pourtant c’est évident !
le gradient est normal à la courbe de niveau, tout simplement parce que c’est leur raison d’être : la courbe de niveau indique le chemin sur une surface qui permet de rester à valeur constante, le gradient est le vecteur qui indique la variation (et qui plus est, la direction de plus forte variation). - ça c’est pour la philosophie -

si on fait un développement limité, pour X dans Rn, t un réel et v un vecteur de Rn, on a f(x+tv) = f(x) + t∇f(x).v + reste , sur la courbe de niveau on a justement f(x+tv) = f(x) donc ∇f(x) est orthogonal à v, pour tout v tel que x+tv est sur la courbe de niveau - ça c’est pour l’analyse -

mais ce qui me puzzle vraiment, plus précisément, c’est la relation avec le plan tangent, certainement du fait de mon inculture géométrique, j’en ai toujours été très complexée.

les dérivées partielles correspondent séparément à la pente de la tangente le long de la courbe donnée par l’intersection de la surface définie par l’équation de la fonction et du plan obtenu fixant la variable qu’on ne va pas dériver au point considéré. ex : z = f(x,y) pour x0 et y0, l’intersection de la surface représentant f et du plan y = y0 est la courbe donnée par la fonction qui à x associe f(x,y0), la tangente à cette courbe en x0 sera donnée par :
z = f(x0,y0) + δf⁄δx (x0,y0) (x -x0 )
de même, la tangeante à la courbe de la fonction qui à y associe f(x0,y) en y0 sera donnée par :
z = f(x0,y0) + δf⁄δy (x0,y0) (y -y0 )
le plan déterminé par les deux tangentes est alors donné par :
z = f(x0,y0)+ δ f⁄δx (x0,y0) (x -x0 ) + δ f⁄δ y (x0,y0) (y -y0 )
(ce qui signifie en gros qu’une fonction de R² sera dérivable si ce plan constitue une bonne approximation locale de la fonction, et pas uniquement dans les directions x et y)
de l’équation du plan tangeant, on tire donc son vecteur normal : (δf⁄δx, δf⁄δy, -1) soit ( ∇f(x), -1) .

plantangent_450.jpg

Par ailleurs, intéressons-nous aux courbes de niveau, c’est à dire, pour a donné, l’ensemble des points du plan (x,y) tels que f(x,y) = a. Le théorème des fonctions implicites nous dit justement que si les dérivées partielles de f existent et sont continues dans un voisinage d’un point (x0,y0) de la courbe de niveau a avec la dérivée partielle en y non nulle, on sait qu’il existe des voisinages U de x0 et V de y0 et une unique fonction y(x) de U dans V tels que f(x,y(x))=a. De plus, cette fonction y est différentiable et satisfait y’(x) = - δf(x,y(x))⁄δx / δf(x,y(x))⁄δy. Ceci nous donne le vecteur directeur de la tangente à la ligne de niveau en (x0,y0) : (1, - δf(x,y(x))⁄δx / δf(x,y(x))⁄δy) *. Par ailleurs la projection sur le plan (x,y) du vecteur normal au plan tangent est donné tout simplement par le gradient (δf(x,y(x))⁄δx , δf(x,y(x))⁄δy), on voit bien qu’il est alors orthogonal à la ligne de niveau ! la boucle est bouclée.

(il n’est bien sûr jamais trop tard pour réaliser aussi qu’en 1D, l’équation de la tangente est donné par y = f’(x0)(x-x0) + f(x0), elle a bien pour vecteur directeur (1,f’(x0)) et pour vecteur normal (f’(x0), -1).)
(* oui et donc l’équation de la tangente à la courbe de niveau est bien l’intersection du plan tangent avec le plan (x0y), reporter dans l’équation du plan tangent z=0 )

(référence de tout cela et copyright du stéréogramme - quelle bonne idée ! - , -il y en a d’autres dans le livre-, toujours l’excellentissime “Analyse au fil de l’histoire” de E. Hairer et G. Wanner)

Je me sens mieux.

naturel, le logarithme (+ qqes trucs sur les séries entières)

Friday, September 24th, 2010

En général, je crois savoir que l’on introduit le logarithme soit en le posant comme inverse de l’exponentielle, soit comme primitive de 1/x pour peu que la notion soit connue, puis on déroule ses propriétés. Quel dommage ! C’est se priver d’un joli frisson à peu de frais !

J’ai un souvenir des mathématiques scolaires absolument neutre, mais je me rappelle la grande illumination qui m’est tombée dessus au premier cours d’algèbre en première année de fac : un monde s’ouvrait à moi. Tout est dans ce petit exemple, je crois. À la lointaine époque où j’ai fréquenté le lycée, j’ai reçu les mathématiques comme une série d’outils, connectés en surface, mais à l’univers tellement décousu qu’il n’en avait que peu de substance. C’était passer à coté de toute la force, de tout le potentiel créatif qui y réside. Se dire simplement qu’on aimerait étudier les implications d’un énoncé comme “je décide d’appeler logarithme une fonction qui transforme le produit en somme”, c’est un tout autre paradigme qu’une description de l’outil et de ses fonctionnalités. Forcément, je retrouve mes dadas favoris, il s’agit peut-être exactement de reconnecter le sujet et l’objet.

(edit nov : j’ai retrouvé mes books de maths de terminale… et le chapître sur le logarithme commence par un TP plutôt pas mal fait sur l’étude de fonctions qui transforment le produit en somme… dont acte !)

***

On appelle logarithme une fonction qui transforme le produit en somme.
C’est tout. De là découle tout le reste.
Donc, on appelle logarithme une fonction l telle que l(x.y) = l(x) + l(y) (1), d’ailleurs c’est de là que vient le nom de logarithme : raison entre les nombres.
On pose z = y/x. de (1), on a l(z) = l(x) + l(z/x), soit l(z/x) = l(z) - l(x).
On pose x=y=1, de (1), on a l(1) = l(1) + l(1), d’où l(1) = 0.
De (1), on a aussi en posant x=y : l(x²) = 2 l(x).
On peut aussi par exemple établir sans fatigue : l(x.y.z) = l(x.y) + l(z) = l(x) + l(y) + l(z), ce qui nous donne, en posant x = x1/3.x1/3.x1/3, l(x1/3) = (1/3) l(x). De manière générale : l(xm/n) = (m/n)l(x).
Puis, s’il existe un réel a tel que l(a)=1, alors on a l(ax) = x, d’où il vient que l est la fonction inverse de la fonction exponentielle ax, l est un logarithme de base a.

En ce qui concerne le lien avec l’aire sous l’hyperbole y = 1/x : soient a et b quelconques positifs, on peut se convaincre (quitte à faire explicitement le changement de variables dans l’intégrale), que par exemple, l’aire sous la courbe entre 1 et a est la même que celle entre b et a.b (on dilate par b dans une direction, on comprime de 1/b dans l’autre) donc Aire (1->a.b) = Aire(1->b) + Aire (b->ab) = Aire (1->b) + Aire(1->a). Soit en posant l(a) = Aire(1->a), on a bien l(a.b) = l(a) + l(b) : c’est bien un logarithme.
On peut ensuite poser e comme le nombre tel que Aire (1->e) = 1.

Faisons un petit tour de plus afin de recoller d’autres bouts : retrouver le développement en série entière de ln (1+x) et celui de e.
Tout d’abord, le développement de 1/(1+x) en série géométrique : pour x tel que |x|<1 on pose 1/(1+x) = 1+δ (2) où δ est le reste de l’approximation par 1. On a alors : 1 = 1 + δ + x + x.δ , soit en négligeant le terme x.δ, δ est approximé par -x. L’expression (2) peut alors se réecrire 1/(1+x) = 1 -x + δ (un nouveau δ à approximer), en répétant le procédé ci-dessus, on trouve δ proche de , puis par récurrence, la série géométrique : 1 - x + x² - x³ + x⁴ - x⁵…. (Viète 1593). En intégrant cette série terme à terme, on obtient bien le développement de ln(1+x) au voisinage de 0.
Cela étant dit, il est possible de retrouver uniquement avec des considérations de surface la valeur de l’intégrale d’un monôme xα pour α>0 entre 0 et un réel B : (Fermat 1636) on choisit un θ < 1 mais proche de 1.On va approximer l'aire sous la courbe xα par la somme des aires des rectangles :
1er rectangle : θ.B -> B de hauteur Bα; d’aire (B - θ.B).Bα = B ( 1 - θ) Bα
2nd rectangle : θ².B -> θ.B de hauteur (θ.B)α d’aire (θ.B - θ².B).(θ.B)α = B ( 1 - θ) θα+1Bα;
3ième rectangle : θ³.B -> θ².B de hauteur (θ².B)α; d’aire (θ².B - θ³.B).(θ².B)α = B ( 1 - θ) θ2α+2Bα; etc.
En additionnant tout, on obtient : Bα+1 ( 1 - θ) ( 1 + θα+1 + θ2 α+2 ….) soit la somme d’une série géométrique de raison θα+1, on a alors l’expression Bα+1 ( 1 - θ)/( 1 - θα+1) (*). Pour 1-θ = ε proche de 0, on a ε/(1 - (1-ε)α+1) équivalent à 1/α+1 (en développant par le binôme de Newton (1-ε)α+1 et éliminant les termes supérieurs au degré 1). Notre surface est alors en valeur approchée par le haut : Bα+1 / (α+1). On réitère le procédé en approximant par en dessous avec les rectangles de hauteur (θ.B), (θ².B) et on retombe sur la même expression, c’est donc une valeur exacte.
Ainsi, on calcule l’aire “sous” la série géométrique entre 0 et x, et on obtient bien le développement en série de ln (1+x) = x - x²/2 + x³/3 - x⁴/4 + x⁵/5 ….. (Mercator 1668)
Pour terminer, on peut retourner vers ex. Calculons ln(1+x/N)N à l’aide de la série de Mercator : ln(1+x/N)N = N . ln( 1+x/N) = N.(x/N -x²/2N …) qui tend vers x lorsque N tend vers ∞, or on définit justement ex comme la limite ( 1+x/N)N… (**)

(j’ai bien conscience que ces paragraphes nécessitent papier stylo)

Voilà, on a le logarithme néperien, logarithme naturel.

Tout ceci n’étant qu’une version édulcorée de ce que l’on peut trouver dans le super exquis et inépuisable “l’analyse au fil de l’histoire” de E. Hairer et G. Wanner, chez Springer. (un aperçu sur google books)
(franchement, je ne pensais pas que je serais encore capable à mon âge de m’émerveiller sur le logarithme)


* au cas où : retrouver la somme d’une série géométrique Sn= 1 + q + q² + … + qn : on multiplie par (1-q) de chaque coté, les termes s’annulent 2 à 2 sauf le premier et le dernier : Sn ( 1- q ) = 1 - qn+1.

** Rappelons que le nombre d’Euler; e, est obtenu comme la limite quand N tend vers ∞ de ( 1+1/N)N. Puis d’une part, en développant (1+x/N)N par le binôme de Newton on a la série 1 + x + x²/2! + x³/3! … D’autre part, en posant M = x.N (avec x rationnel, on peut ne considérer que les N et M entiers), on a ( 1+x/N)N = ( 1+1/M)Mx soit pour M tendant vers ∞ e à la puissance x, ex.

saisir la transition

Thursday, June 24th, 2010

Je n’ose écrire la sublimation.
Je lis des choses que je ne comprends pas. Je les relis, encore, presque à vouloir hypnotiser les signes sur le papier ou l’écran. À force, je sais que des barrières mentales vont céder, et je crois, bien qu’il s’agisse de mathématiques, qu’il est plus question d’intégration que de compréhension. Pas de grand éclair, pas d’eureka soudain, enfin peut-être mais ce n’est pas obligatoire, c’est bien la subjectivation de la connaissance. Beaucoup de latences sont parfois nécéssaires, admettre qu’il faut laisser les concepts évoluer et faire leur chemin seul, sans être consciemment focalisée dessus. Mais ne pas oublier non plus de reprendre régulièrement le chemin des signes, les faire jouer, voir si la route est enfin ouverte, sinon, forcer un peu pour aller un peu plus loin, la route risque de se perdre sans cela. Ce qui hier me semblait totalement étranger, alienisant, éventuellement contre-intuitif, réussit à former un système cohérent et au final tellement intégré que toute cette période transitoire où je me trouvais vaseuse, mal-à-l’aise dans un brouillard conceptuel, elle-même s’évapore. Belle tentation d’oublier cette confusion dérangeante, pourtant est-ce l’occasion de piocher dans ce souvenir-là un salut possible version perdons-nous connaissance ?
Je sais aussi que l’étape suivante serait de se préparer pour le transmettre, même si j’ai peu de chance de mettre en pratique cet enseignement-là un jour.

confusion.jpg

En attendant, je n’ai pas arrangé l’état de mon audition à la Bascule hier soir, au concert à l’électricité sérieusement enlevée de Napalm Jazz, ainsi que des légendaires Gendarmerie.

Wallace, Bolzano, Weierstrass et le paradoxe de Zénon

Tuesday, May 4th, 2010

J’ai la chance d’aider - pour ce qui est de la terminologie et usages mathématiques français - le traducteur de “Everything & more, a compact history of ∞” de David Foster Wallace. Ça me permet la primeur d’un texte vraiment drôle et érudit qui donne des lettres de noblesse rock’n'roll et sexy à l’histoire du concept d’infini en mathématiques. C’est plein de passion et tout-à-fait accessible aux non-matheux, les parties techniques sont soigneusement balisées d’un “Si vous êtes intéressé”. Ceci étant, il arrive parfois que le soucis de vulgarisation desserve, à mon sens, la clarté du propos. C’est l’un de ces points que je voudrais reprendre ici, sans vouloir effrayer quiconque, quelque chose de très très résumé, juste pour mon bien-être spirituel.
Zénon d’Élée (Ve siècle av. J.-C) est un antique trouble-fête grec qui osa aborder de front la question de l’infini tandis que ses contemporains (et leurs descendants) avaient remisé l’idée au rayon néfaste pour la santé mentale.
Parmi les paradoxes de Zénon, prenons celui de la dichotomie : une pierre lancée sur un arbre doit parcourir, avant d’atteindre sa cible, la moitié du chemin qui les sépare, puis encore la moitié de la distance restante, puis la moitié de ce qui reste, etc. Elle doit donc occuper une infinité de positions avant d’atteindre l’arbre, chaque étape se faisant en un temps non nul. Puisqu’on peut toujours diviser le parcours restant en deux moitiés dont la première prend toujours un peu de temps à parcourir, avant de reconsidérer le problème et de recommencer le raisonnement précedent, la pierre ne peut jamais arriver jusqu’à l’arbre. On voit à merveille ici l’intrication de l’infini et du continu, je me souviens encore du délicieux frisson ressenti lorsqu’on m’a enseigné cela : la continuité offrait un espace à toutes les galipettes imaginables.
Entre lui et Cantor (le héraut de l’infini), 23 siècles d’histoire mathématique qui évitent plus ou moins d’aborder le concept, permettant malgré tout, de creuser, petit à petit, une voie à l’intuition. 2300 ans en quète de rigueur aussi, et c’est Bolzano puis Weierstrass, qui, dans l’élan mathématique de leur époque (le 19ème donc), ont donné des définitions sans biais des limites et de la continuité. Wallace utilise la continuité d’une manière pas forcément évidente pour aborder le paradoxe de Zénon, je trouve plus simple de rephraser cela en terme de limite d’une suite infinie, avec la définition rigoureuse (ce qu’il -DFW- n’a pas fait apparemment pour se démarquer des démonstrations approximatives) . La définition “ε, δ” qui est alors “ε, N” de la limite d’une suite infinie c’est la suivante : une suite un tend vers une limite l quand n tend vers l’infini, si pour tout écart de tolérance ε, il existe un rang fini N à partir duquel, pour tout n>N, un est proche de l à ε près.

Reprenons notre pierre et lançons-la contre un arbre. L’expérience nous montre qu’elle met un certain temps pour réaliser son trajet que pour simplifier nous prendrons égal à 1 et confrontons ceci au raisonnement de Zénon. Nous supposons alors qu’elle parcourt la moitié de la distance à l’arbre en un temps égal à 1/2 , le quart suivant en 1/4 puis le huitième ensuite en 1/8 etc. au bout de n itérations, il lui faut 1/2n supplémentaire pour effectuer son petit bout de chemin, son trajet a alors duré (1/2 + 1/4 + 1/8 ….+ 1/2n) sachant que la distance restant jusqu’à l’arbre correspond à un trajet de 1/2n exactement.
Pour prouver qu’on va bien parvenir à la cible malgré la dichotomie, il faut montrer qu’au final l’addition indéfinie de tous ces petits temps tend vers la valeur de 1. On considère la suite des sommes partielles Sn = 1/2 + 1/4 + 1/8 +…+ 1/2n (donc Sn+1 = Sn + 1/2n+1 ) et on veut montrer que lorsque n tend vers l’infini, la valeur de Sn tend vers 1. Telle qu’on a construit la suite Sn, on voit bien que Sn + 1/2n = 1 puisqu’on lui rajoute justement la dernière moitié que l’on s’apprêterait à couper en deux à l’itération suivante. Donc montrer que Sn tend vers 1 est équivalent à montrer que (1-1/2n) tend vers 1 aussi, soit simplement que 1/2n tend vers 0. Ce qui est immédiat avec un tout petit peu d’arithmétique : si l’on veut 1/2n < ε, ε étant voué à devenir aussi petit que nécéssaire, on a : 1/ε < 2n, on passe aux logarithmes on obtient une condition sur n : n > ln(1/ε) / ln(2). Par exemple avec ε = 0.0001, on a n > 13, c’est à dire que pour n > N = 13, Sn est proche au dix-millième de 1. On aura beau rajouter une infinité de petits termes 1/214 + 1/215 + … etc., tout ce que l’on fera c’est de se rapprocher encore et encore de 1 ; les sommes partielles en constituant une approximation que l’on peut toujours ajuster (via N) de manière arbitrairement précise (ε), la somme totale (série) — donc pour l’indice n décrivant l’ensemble (infini) des entiers naturels — valant 1 exactement.
C’est beau, non ?
Bon si vous n’avez rien suivi, pas de panique, il faut quand même à Wallace presque 200 pages pour arriver là.

vieux démons que j’aimais

Tuesday, December 8th, 2009

(vagues d’ego vagues réminiscences décousues name dropping substance dripping)
Hasards toujours, convergences j’espère, je relis des maths. Oh de la vulgarisation, rien de plus. Ceci menant à cela, je lis enfin le fameux Gödel, Escher, Bach (GEB) sur lequel, depuis les 10 ans qu’il siégeait quelque part dans ma bibliothèque, je m’étais à plusieurs reprises endormie. D’ailleurs, quasi 10 ans que j’ai quitté ce monde-là.
Et voilà l’impression d’être à la maison, aussi de mesurer un peu tous les efforts que j’ai faits depuis, n’étant plus dans ce monde-là pour m’intégrer à un autre, pragmatique, social … parfois tentations de capituler … ce qui n’est possible à aucun niveau de toute façon.
Pour rattraper Gödel, j’ai pris Logicomix, qui bédéïse l’histoire des logiciens autour de Bertrand Russell et Ludwig Wittgenstein. Russell (relativement succinte bio wikipedia français ) est un type énorme, incroyable, mathématicien, philosophe, prix nobel, militant pacifiste, défenseur de l’amour libre ; ce que je ne comprends pas, c’est pourquoi on ne le connait pas plus en France (contrairement à Wittgentstein ). J’ai d’ailleurs appris qu’il avait crée en 1927 avec sa femme de l’époque, Dora, une école qui reposait sur un principe de liberté afin d’encourager naturellement maturité et auto-discipline. (dans la bédé, cette expérience est présentée comme un échec, peut-être plus dû aux personnalités des Russells).
À la fois étrange et intéressant parti-pris de Logicomix, d’aborder les logiciens sous l’angle de la folie. Vieux démons que j’ai fuis. J’ai toujours pas mal fui toutes les maths discrètes en fait, ainsi que la logique. Ça m’énervait. Je trouvais ça à la fois vain et essentiel et tellement essentiel que ça me faisait peur — tandis que la continuité était tellement délicieuse — .
Dans le GEB, il y a ce passage (ouverture chap. 4) qui résume bien ce qui avait fini par être pour moi une application directe de cet effroi : (traduction à l’arrache by cibi, mon exemplaire is in English)

(au chapitre II), nous avons vu comment le sens — du moins dans le contexte relativement simple des systèmes formels — naît lorsqu’il y a un isomorphisme (*cb: grosso modo correspondance un à un*) entre des symboles régis par des règles et les choses du monde réel. Plus cet isomorphisme est complexe, plus nous aurons généralement besoin d’équipement — hardware et software — pour extraire des symboles, du sens. Si un isomorphisme est très simple (ou très familier), nous pouvons être tentés de dire que le sens de ce qu’il nous permet de voir est explicite. Nous voyons le sens sans voir l’isomorphisme. L’exemple le plus flagrant de ceci est le langage humain, où les gens attribuent du sens aux mots en eux-mêmes sans avoir la moindre conscience du très complexe “isomorphisme” qui le leur insuffle. C’est une erreur très facile à commettre : attribuer tout le sens à un objet (le mot) plutôt qu’au lien entre les objets et le monde réel.

Je ne parle pas de problème de communication dans le couple. Je parle de réussir à acheter son pain. Alors un jour, je me suis souvenue de ce Wittgenstein dont j’avais de très loin entendu parler. Un mathématicien philosophe qui se serait intéressé aux fondements du langage ? mais vite, vite, une réponse, il détient certainement une réponse ! De la certitude, c’était tellement exactement mon besoin, de la certitude du monde en dehors de ma tête, après le bord de mes lèvres qui articulaient les mots avec tant de peine. J’ai très rapidement compris qu’il valait mieux pour ma santé mentale que j’enfouisse ce bouquin quelque part très loin.
Enfin, peut-être par nécéssité, vint l’habitude du saut. Le saut des mots hors de la bouche, un léger vertige parce que l’on sait que la certitude n’est rien de plus qu’une croyance, un mythe, une superstition, j’ai appris à profiter du vertige, même parfois à m’en enivrer sans faire attention et à accepter cela.
signaljd.jpg
(photo jd clic pour la voir en grand)
Dans les choses lues récemment, j’ai aussi accroché à une citation de David Foster Wallace dans Everything and More, a compact history of Infinity comparant les équtions différentielles à du calcul intégral sous hallucinogène de classe 4. Ouais, d’ailleurs c’était mon truc ça plutôt. Réciproquement, Wittgenstein aurait pris des drogues psychedeliques qu’il n’aurait pas été si triste dans la vie. Moi j’ai peut-être maintenant suffisament d’ancrages dans la mienne pour le lire. Wallace parle aussi du personnage de mathématicien fou comme figure récurrente de la pop culture. C’est vrai, et le romantisme avec lequel c’est souvent montré m’horripile, la folie ça n’a rien de glamour. J’avais bien aimé le Pi de Darren Aronofsky pour avoir évité cela justement.

De l’hypothèse du continu(um) au concept du continuum… c’est le drame, le miracle, l’intense frustration et l’incommensurable joie de mes 10 dernières années.

patterns = motifs

Wednesday, September 2nd, 2009

Il y a peu, j’ai élucidé la traduction d’un terme que j’employais depuis longtemps presqu’exclusivement en VO : pattern. J’hésitais parfois : structure, dessin, mais le plus souvent je ne prenais même pas la peine de traduire, tant pattern en soi portait un sens bien plus fin que l’un et l’autre. J’ai fini par regarder dans le dictionnaire, j’ai trouvé motif. Et c’est parfait motif.
surville11_450.jpg
J’avais rencontré pattern pour nommer ces choses si spécifiques ( voir par exemple pattern formation / self-organisation sur scholarpedia ), entre ordre et hasard, issus de la turbulence ou du chaos, structure sous-jascente à découvrir, émerveillée. Tout cela est tellement loin, je n’ai plus désormais qu’à en saisir les apparitions dans la vie réele.
alguesbz2.jpgPlus haut à gauche, l’empreinte du courant de marées dans le sable d’un havre. C’est l’équation de Navier Stokes qui modélise cela.
A droite, une algue qui s’étend sur une autre, ou les ailes du papillon (photo de l’homme (pff), clic pour voir en grand, ça en vaut la peine ). papillon.pngCe sont des équations de réaction diffusion qui modélisent ces graphismes.
Quelques lignes de symboles mathématiques, une infinité de motifs contenus dedans.
C’est quelque chose de tout à fait transcendant, je veux dire par là que si je voulais évoquer l’idée du divin, c’est peut-être une des métaphores que j’emploierais pour l’illustrer ; pas tant pour le coté auto-organisation que plus globalement l’abstraction mathématique qui contient l’infinité des réalités. (ou une infinité d’approximations)
Allez, peut-être profiter de la rentrée pour refaire des maths.