Réconcilier mathématicien et physiciens

Une (très) brève introduction aux distributions

a marqué ce sujet comme résolu.

En construction. Les avis sont les bienvenus et feront, je n'en doute pas, accroître considérablement la qualité de ce petit texte sans prétention.

Ce sujet est un sujet participatif, un peu comme un atelier. Il ne s'agit pas d'un cours, pas d'un article mais d'une brève présentation qui je l'espère vous donnera l'envie de découvrir les distributions. Aucune démonstration n'est donnée, si ce n'est une historique pour la dirac. Aussi, par participatif j'entends que chacun peut prendre une propriété non-démontrée du sujet initial et en faire la démonstration, ou simplement proposer d'autres propriétés qu'il aura démontré de son propre chef ou des exemples de problèmes que vous avez résolu en utilisant l'outil présenté. Il est également le lieu pour poser vos questions sur le domaine, en plus des critiques du sujet initial (et critique de cette forme de sujet participatif).

On entend souvent les mathématiciens ou plutôt les étudiants en mathématiques s'esclaffer avec dédain du manque de rigueur de nos amis et confrères physiciens voire de leur reprocher de « sauter » des étapes que l'on considérerait essentielles en mathématiques et de fait, invalidant leurs calculs.

Ce petit article est là pour essayer de réconcilier les puristes chevronnés et les utilisateurs pas forcément au fait des fondements mathématiques sur lesquels reposent leurs outils. Il ne s'agit cependant pas de faire un cours sur la théorie des distributions mais de présenter l'outil et quelques caractéristiques essentielles pour les applications, justifiant bon nombre de comportements du physicien. Aussi, on finira par une application directe à la résolution de systèmes différentiels loin d'être évidents, justifiant au passage une approche dite par « calcul symbolique » développé par les physiciens avant la justification mathématique.

L'objectif de cette très brève introduction est donc plutôt de vous inciter à en apprendre davantage sur cette fabuleuse notion qu'est la distribution en mettant à la lumière du jour à la fois des propriétés qui simplifient la vie de tous, et des applications à des problèmes non-triviaux qui deviennent d'une simplicité enfantine.

L'objet de toutes les convoitises

Paul Dirac, grand physicien et mathématicien, célèbre entre autre pour sa prévision de l'existence de l'antimatière, utilisant, pour les besoins de son sujet de prédilection, la mécanique quantique, un bien curieux objet que l'on appelle aujourd'hui distribution de dirac du côté des mathématiciens ou impulsion ou masse de Dirac du côté des physiciens1. Cet objet, noté $\delta$, est défini de la manière suivante :

$$\begin{aligned}[t] \delta(0) = +\infty \\ \forall t\in \mathbb{R} \setminus \{0\},~~ \delta(t) = 0 \\ \int_\mathbb{R} \delta(t)dt = 1 \end{aligned}$$

Ceux d'entre vous, chers lecteurs, qui possèdent quelques notions de mathématiques et d'intégration, sauterons au plafond de voir un tel objet ! Comment une telle fonction peut-elle exister ? En effet, la théorie de l'intégration de Lebesgue (qui englobe celle de Riemann pour ceux qui ne la connaisse pas), montre qu'une fonction nulle presque partout2 est d'intégrale nulle ! Aussi, l'intégrale devrait ici être nulle ce qui n'est pas le cas.

Cette affaire aurait pu s'arrêter au statut de délire de physicien mais en réalité, les travaux utilisant cette fonction se révélèrent tous très fructueux dans la pratique, tout en restant non-fondés du point de vue mathématique. C'est alors que Laurent Schwartz s'intéressa au problème, qui ne cessa de le remuer durant de longs mois et fini par conduire à la naissance de la théorie des distributions pour réconcilier physiciens et mathématiciens.

Il n'obtint pas le prix nobel de la paix pour cela, mais pourra tout de même se consoler d'une très belle médaille Fields pour cette théorie des distributions.

Qu'on se le dise tout de suite, la dirac n'est pas une fonction, c'est une distribution. Le concept de distribution est une généralisation de l'analyse classique en étendant la notion de fonctions.

Dans un premier temps, il nous faudra aborder brièvement l'espace des fonctions tests avant de pouvoir définir une distribution. Dans un second temps on donnera rapidement quelques propriétés spectaculaires des distributions.

L'espace des fonctions tests

L'idée des distributions est qu'une distribution est caractérisée par l'effet qu'elle peut avoir sur certaines fonctions. Pour pouvoir travailler sur l'ensemble de toutes les distributions, il nous faut un domaine commun que l'on note $\cal D$ et qui s'appelle l'ensemble des fonctions tests.

Cet ensemble contient les fonctions de $\mathbb{R}$ dans $\mathbb{C}$ qui sont infiniment dérivable et à support compact. Pour simplifier mon propos, ici un support compact signifie que pour chaque fonction de $\cal D$ il existe un intervalle $[a,b]$, différent pour chaque fonction évidemment, tel que la fonction est nulle en dehors de cet intervalle.

Une fonction $\phi \in \cal D$ est appelée une fonction test. On associe alors à cet ensemble une relation extrêmement forte de convergence :

$$ \begin{aligned}[t] \phi_n \underset{\cal D}{\to} \phi &\Leftrightarrow & \exists[a,b], ~ \forall n, ~~ & \phi_n = 0~~\text{hors de } [a,b]\\ & & & \phi = 0~~\text{hors de } [a,b] \\ & & \forall k, ~~ \phi_n^{(k)} \underset{u}{\to} \phi^{k}& \end{aligned} $$

En d'autres termes, une suite de fonctions tests converge dans $\cal D$ si et seulement il existe un intervalle hors duquel tous les éléments de la suite sont nuls, que la fonction limite est nulle en dehors de cet intervalle et que toute suite dérivée converge vers la dérivée de la limite.

L'espace des distributions

Nous voila au coeur du sujet. On appelle distribution toute forme linéaire continue sur l'espace $\cal D$. On dit que l'espace des distributions est le dual topologique de $\cal D$ et on le note en conséquence $\cal{D}'$.

Ainsi, une distribution se définit comme suit :

$$T \colon \begin{aligned}[t] \cal{D} &\to \mathbb{C}\\ \phi & \to <T,\phi> \end{aligned}$$

Avec les propriétés de linéarité et de continuité :

  • $<T, a\phi + b\varphi> = a<T, \phi> + b<T,\varphi>$
  • Si $\phi_n \to \phi$ alors $<T, \phi_n> \to <T, \phi>$

On dit que $T_n \overset{\cal{D}'}{\to} T$ si et seulement si $\forall \phi \in \cal{D}, ~~ <T_n, \phi> \to <T,\phi>$.

Les raisons de la notation entre chevrons dépassent le cadre de ce petit article frivole mais il faut cependant insister sur le fait que $<T,\phi> = T(\phi)$ c'est à dire l'évaluation de la distribution $T$ en la fonction $\phi$.

Ces définitions sont très jolies mais ne permettent pas de resituer la dirac et encore moins de comprendre en quoi est-ce qu'une distribution généralise les fonctions usuelles. C'est pourquoi on va étudier une classe particulière de distribution appelée l'espace des distribution régulière.

Distribution régulières et singulières

Rappelons que l'on dénote par $L^1_{\text{loc}}$ l'ensemble des fonction de $\mathbb{R}$ dans $\mathbb{C}$ qui sont mesurables et localement intégrables, c'est à dire que $\forall a < b \in \mathbb{R},~~ \int_a^b|f(x)|dx < \infty$ (qui est un critère suffisant d'intégrabilité au sens de Lebesgue).

Il est relativement aisé de voir que si $f \in L^1_{\text{loc}}$ et $\phi \in \cal D$ alors le produit $f\phi$ est intégrable. Alors, toute fonction $f \in L^1_{\text{loc}}$ définit une distribution que l'on peut noter $f$ (pour des raisons techniques d'identification passées sous silence ici), de la façon suivante :

$$f \colon \phi \in \cal{D} \to <f,\phi> \overset{def}{=} \int_{-\infty}^{+\infty} f(x)\phi(x)dx$$

On peut ainsi identifier $L^1_{\text{loc}}$ à un sous ensemble de l'espace des distributions $\cal{D}'$. Ce sous-ensemble définit l'espace des distributions régulières. Par excès d'originalité, toute distribution qui n'est pas régulière est singulière !

Venons en maintenant aux choses intéressantes : les propriétés de ces fameuses distributions.

Ce qui va vous faire aimer les distributions

La dérivée d'une distribution ? Pas de soucis, elle existe toujours et est donnée par la formule suivante, assez simple à démontrer dans le cas de distributions régulières :

Soit $T$ une distribution, alors, $\forall \phi \in \cal D,~~ <T', \phi> = - <T, \phi'>$. On peut même généraliser très facilement à la dérivée d'ordre $k$ : $<T^{k}, \phi> = (-1)^k <T, \phi^{k}>$.

Notons que la dérivée de $T$ est toujours une distribution, ce qui justifie par récurrence l'existence de la dérivée à tout ordre. Une seconde remarque serait de dire que si $T$ est dérivable au sens des fonctions, alors la dérivée au sens des fonctions et la dérivée au sens des distributions coïncident. En ce sens les distributions généralisent les fonctions en donnant une notion de dérivée plus faible que celle des fonctions. En effet, une fonction non-dérivable au sens classique peut admettre une dérivée au sens des distributions.

Enchainons sur les propriétés remarquables :

  • Une suite dérivées de distribution converge vers la dérivée de la limite, ce qui s'exprime par : Si
    $$T_n \to T$$
    alors $T'_n \to T'$
  • Corollaire de la propriété précédente : la dérivée de la somme est la somme des dérivées :
    $$(\sum T_n)' = \sum T'_n$$
  • Toute limite simple de distribution est une distribution !

Cela n'a l'air de rien mais cela implique de manière très naturelle tout ce qui peut faire sauter un plafond un mathématicien non initié aux distributions lorsqu'il voit un physicien travailler : inversion de somme et intégrale, inversion de limite et intégrale, etc. Le tout sans aucune justification préalable si ce n'est que $T$ est une distribution.

Et les couacs dans tout ça ?

Évidemment, il existe un petit inconvénient aux distributions. On peut démontrer qu'il n'y a pas de définition générale possible pour la multiplication de distributions. Comme nous le verrons, en pratique cela n'a pas beaucoup d'importance puisqu'une autre opération s'apparente à la multiplication.

On peut cependant dire qu'il est possible de multiplier une distribution par une fonction infiniment dérivable. Cela se passe tout simplement et naturellement de la manière suivante :

Soit $\rho \in C^{\infty}$ et $T \in \cal{D}'$ alors $\rho T$ est une distribution et $< \rho T, \phi> < T, \rho \phi>$.

Remarquons que c'est évident si $T$ est une distribution régulière, mais cela ne l'est pas nécessairement pour une distribution singulière.

Vous reprendez bien un peu de dirac ?

La démonstration qui suit est une démonstration « historique » qui ne s'applique qu'à la dirac dans le sens où l'on considère $\phi$ simplement continue et non pas appartenant à l'espace des fonctions tests (c'est à dire à support compact, infiniment dérivable). Elle n'utilise aucune notation et notion que l'on a explicité plus haut dans l'article. Pour une version sensiblement plus courte et plus générale (car elle englobe toutes les distribution), vous pouvez vous référer à ce message de Freedom : Démonstration générale.

Avant de pouvoir définir la convolution, que l'on pourrait voir comme la multiplication de distributions, il est important de revenir sur la dirac. C'est l'exemple historique et essentiel de distribution singulière et également ce qui fera office d'élément neutre pour la convolution, comme $1$ est neutre pour la multiplication dans le corps des scalaire.

On commencera par la démonstration un peu technique mais d'intérêt historique qui montre que la dirac est une distribution.

Commençons par prendre une suite de fonctions $f_n$ positives telle que $\int_{-\infty}^{+\infty}f_n(x)dx = 1$ et soit nulle en dehors d'un intervalle $[a_n,b_n]$ avec $a_n$ et $b_n$ qui tendent vers $0$. Prenons également une fonction $\phi$ positive et continue.

Ainsi, on a $\int_{-\infty}^{+\infty}\phi(x)f_n(x)dx = \int_{a_n}^{b_n}\phi(x)f_n(x)dx$.

Notons $m_n = min(\phi(x) ~|~ x\in [a_n,b_n])$ et $M_n = max(\phi(x)~|~x\in [a_n,b_n])$.

Par définition, nous avons :

$$m_n \int_{a_n}^{b_n}f_n(x)dx \leq \int_{a_n}^{b_n}\phi(x)f_n(x)dx \leq M_n \int_{a_n}^{b_n}f_n(x)dx$$

Comme $\int_{-\infty}^{+\infty}f_n(x)dx = \int_{a_n}^{b_n}f_n(x)dx = 1$, car le support de $f_n$ est $[a_n,b_n]$, on a alors :

$$m_n \leq \int_{a_n}^{b_n}\phi(x)f_n(x)dx \leq M_n$$

D'après le théorème de la moyenne, on peut trouver un $c_n \in [a_n, b_n]$ tel $\int_{a_n}^{b_n}\phi(x)f_n(x)dx = \phi(c_n)\int_{a_n}^{b_n}f_n(x)dx$, mais comme on a $a_n \leq c_n \leq b_n$ et que $a_n \to 0$ et $b_n \to 0$, cela implique que $c_n \to 0$ et donc, après passage à la limite, on obtient $\int_{-\infty}^{+\infty}\phi(x)f_n(x)dx = \phi(0)$.

On retrouve donc une définition de la dirac cohérente avec son utilisation. L'effet de la dirac sur une fonction continue $\phi$ est de retourner cette fonction évaluée en $0$ : $\delta(\phi) = \phi(0)$, que l'on préfère noter en mathématiques $<\delta, \phi>$.

De fait, même si l'on ne dispose pas d'une définition analytique au sens usuel du terme pour la dirac, on peut en définir sa dérivée :

$$<\delta', \phi> = -<\delta, \phi'> = -\phi'(0)$$

Pour éviter toute confusion, il nous faut introduire une notation pratique nous permettant d'indiquer la variable muette qui lie la distribution et la fonction test. On notera ainsi $<S_x, \phi(x)>$ pour expliciter le fait que $S$ va influer sur $\phi$ au travers de la variable $x$. $x$ est évidemment muette : $<S_x, \phi(x)> = <S_y, \phi(y)>$.

Cependant, on peut également définir la translatée d'une distribution de manière très simple. Si l'on translate de $\tau$ la distribution $T$ : $<\tau T, \phi> = <T, -\tau \phi>$. Comme ce n'est pas très visuelle et pratique, on note plutôt la translatée par $a$ : $<T_{x-a}, \phi(x+a)>$. Aussi dans le cas de la dirac, translater par $a$ revient à évaluer la fonction $\phi$ au point $-a$ mais par abus commode de notation, on note $\delta_a = \phi(a)$.

Montrons à présent l'intérêt de la dérivation au sens des distributions. Prenons une fonction continue par morceaux en présentant des « sauts » au niveau de l'ensemble des points $\{a_i\}$, c'est à dire que la limite à droite et à gauche d'un point existe et sera notée respectivement $f(a_i^+)$ et $f(a_i^-)$. Et on notera $\Delta a_i = f(a_i^+) - f(a_i^-)$. Enfin, on note $\{f\}'$ la dérivée de la fonction $f$ au sens des fonctions. On peut donc écrire cette fonction $f(x)=\sum_i f(x)1_{\{a_i < x \leq a_{i+1}\}}(x)$.

La fonction $f$ est bien intégrable localement, et donc elle définit une distribution (régulière). On peut la dériver au sens des distributions :

$$\begin{aligned} <f',\phi> & = -<f,\phi'> \\ & = -\int_{-\infty}^{+\infty}\sum_i f(x)1_{\{a_i < x \leq a_{i+1}\}}(x) \phi'(x) dx \\ & = -\sum_i -\int_{a_i}^{a_{i+1}}f(x)\phi'(x)\\ & = -\sum_i([f(x)\phi(x)]_{a_i}^{a_{i+1}} - int_{a_i}^{a_{i+1}} \{f\}'\phi(x)dx)~~~ \text{Par une intégration par parties}\\ & = \int_{-\infty}^{+\infty} \{f\}'\phi(x) dx + \sum_i \delta f(a_i)\phi(a_i) \end{aligned}$$

C'est à dire que $<f',\phi> = <\{f\}',\phi> + \sum_i\delta f(a_i)<\delta_{a_i},\phi>$, que l'on peut écrire plus simplement au sens des distributions : $f' = \{f\}' + \sum_i\delta f(a_i)\delta_{a_i}$.

Si l'on prend l'exemple simple d'une fonction étagée, c'est à dire constante par morceaux avec limite à gauche et à droite, on voit bien la dérivée au sens classique est nulle alors que la dérivée au sens des distributions ne l'est pas et porte l'information sur les discontinuités : une masse de dirac en chaque point de discontinuité facteur du « saut ».

Une autre question importante à laquelle cette dérivation permet de répondre est : quelle est donc la primitive de la dirac ? On peut vérifier très facilement qu'il s'agit de la fonction de Heaviside, notée $H$, qui vaut $0$ pour un argument négatif et $1$ pour un argument positif. De fait, il s'agit d'une fonction constante par morceaux et l'on obtient $H' = \delta$, ce qui sera très utile pour le calcul symbolique que l'on présentera en fin d'article.

La convolution, la « multiplication » des distributions

Il faut évidemment faire un petit rappel du produit de convolution de fonctions. Soit $f$ et $g$ deux fonctions mesurables, alors $f$ et $g$ sont convolables si et seulement si pour presque tout $x$ :

$$h(x) = \int|f(u)g(x-u)|du < +\infty$$

On définit alors le produit de convolution :

$$f \star g(x) = \int f(u)g(x-u) du, \text{presque partout} $$

Le produit de convolution est évidemment commutatif. Il possède des propriétés régularisantes sur la fonction $f$. Ainsi, par exemple, si l'on prend $g(x) = \frac 1 {2h} 1_{[-h,h]}(x)$, $f \star g$ représente les moyennes mobiles de $f$, très utilisées pour obtenir la tendance de courbes bruitées (par exemple d'évolution de taux bancaires).

Comme toujours en mathématiques lorsque l'on généralise une notion, on va essayer de généraliser les opérations qui s'applique à l'objet d'origine. En l'occurrence, on va essayer de généraliser la notion de produit de convolution pour les distributions.

Sans donner de démonstration, on dira que $S$ et $T$ sont convolables, si et seulement si, $\forall \phi \in \cal D$, l'expression $<S_x, <T_y, \phi(x+y)>>$ est bien définie.

La convolution de distribution est donc l'analogue à la composition de fonctions en quelque sorte. Sauf que la définit est quelque peut imprécise : quand est-ce qu'une telle expression est bien définie ? Cela nous amènerait malheureusement des considérations un peu plus techniques que jusqu'à présent et de fait, on donnera vaguement, de manière imprécise les quelques éléments suivants :

$\epsilon'$ est l'ensemble des distributions à suppose compact et $D_+'$ est l'ensemble des distribution à support positif, c'est à dire inclu dans $[0,+\infty[$. De manière assez simpliste, cela signifie que votre distribution sera nulle en dehors de ce support, pour n'importe quelle fonction $\phi$.

En réalité, ce cas correspond à une majorité si ce n'est la totalité des applications physiques où le temps commence à $0$ (on parle de phénomène causale).

La bonne nouvelle est que si $S$ ou $T$ est à support compact, alors le produit de convolution entre $S$ et $T$ existe !

Notons également l'importance de la dirac pour le produit de convolution. En effet, la dirac est l'élement neutre de pour l'opération $\star$. En voici la démonstration :

$$<\delta \star T, \phi> = <\delta_x, <T_y, \phi(x+y)>> = <T_y, \phi(0+y)> = <T,\phi>$$

L'autre sens se fait très facilement (ou en justifiant la commutativité de l'opération).

Encore mieux ! Regardons l'effet de la dérivée de la dirac par produit de convolution :

$$<T\star \delta', \phi> = <T_x,<\delta'_y, \phi(x+y)>> = <T_x, -<\delta_y, \phi'(x+y)>> = <T', \phi> $$

C'est à dire que $T\star \delta' = T'$ et par extension $T \star \delta^{(k)} = T^{(k)}$ !

Initiation au calcul symbolique

Nous sommes désormais prêt à nous attaquer au calcul symbolique ! En fait, pas tout à fait. Pour justifier l'utilisation du calcul symbolique, il nous faut énoncer un petit théorème très facile à vérifier :

$(D_+', +, \times, \star)$ est une algèbre associative, commutative et unitaire. $\times$ dénote la multiplication scalaire. C'est important car cela nous permettra de créer un isomorphisme entre les fractions rationnelles en $\delta'$ et les fraction rationnelles « usuelles ». On notera la composée $n$ fois de la convolution de $T$ par lui même, par $T^{\star n}$.

Avant de se lancer corps et âme, étudions juste une petite équation de convolution toute mignonne, et l'inverse des polynômes en $\delta'$.

Soit $A,B \in D_+'$, on cherche $X\in D_+'$ tel que $A\star X = B$, ou pour simplifier, $A\star X = \delta$. C'est à dire répondre à la question : est-ce que toute distribution de $D_+'$ admet un inverse pour l'opération de convolution ? La réponse est oui : cet inverse existe et est unique !

Remarquons que $\delta'' = \delta' \star \delta' = (\delta')^{\star^2}$ et aussi qu'un polynome en $\delta'$ est défini par $P(\delta') = \delta^{(n)} + a_{n-1}\delta^{(n-1)}+\ldots+a_0\delta$. Ainsi, si $T\in D_+'$ alors $P(\delta')\star T = T^{(n)}+ a_{n-1}T^{(n-1)}+\ldots+a_0T$.

Pour faciliter nos calculs, on introduit le calcul symbolique :

$$\begin{array}{c c c} \star & \leftrightarrow & \times\\ \delta & \leftrightarrow & 1\\ c\delta & \leftrightarrow & c \\ \delta' & \leftrightarrow & p \\ \delta^{(n)} & \leftrightarrow & p^n\\ P(\delta') & \leftrightarrow & P(p) \end{array}$$

On peut montrer facilement (exercice pour le lecteur) que $P(\delta')^{\star -1} \leftrightarrow \frac 1 {P(p)}$ et de fait $Q(\delta')\star P(\delta')^{\star -1} \leftrightarrow \frac {Q(p)} {P(p)}$.

On donnera également cette relation qui se montre extrêmement facilement :

$$He^{\lambda t} \leftrightarrow (\delta'-\lambda \delta)^{\star -1} \leftrightarrow \frac 1 {p - \lambda}$$

C'est, disons le, la seule relation à connaître vulgairement par coeur, même si l'on peut la retrouver facilement. À partir de celle-ci on peut retrouver l'ensemble des exemples que je donne juste après.

Quelques exemples de correspondances

$$H\frac {t^{n-1}}{(n-1)!} e^{\lambda t} \leftrightarrow \frac 1 {(p - \lambda)^n}$$

Et en particulier pour $\lambda = 0$ : $H\frac {t^{n-1}}{(n-1)!} \leftrightarrow \frac 1 {p^n}$

Évidemment, avec la décomposition de l'exponentielle, on peut obtenir toutes les relations entre les fonctions trigonométriques :

$$H \frac {sin (\omega t)}{\omega } \leftrightarrow \frac 1 {p^2 + \omega^2}$$
$$H cos (\omega t) \leftrightarrow \frac p {p^2 + \omega^2}$$
$$H \frac {sh (\omega t)}{\omega } \leftrightarrow \frac 1 {p^2 - \omega^2}$$
$$H ch (\omega t) \leftrightarrow \frac p {p^2 - \omega^2}$$

Je vous invite vivement à essayer de trouver vous même les équivalents à partir de $He^{\lambda t}$ et son équivalent sypbolique pour constater de la simplicité enfantine de laquelle ils résultent.

Application à la résolution de systèmes différentiels de Cauchy

Jusqu'ici le calcul symbolique s'est apparenté à un casse tête pour aucun bénéfice. Pourquoi donc faire correspondre à un polynôme en $\delta'$ un polynome en $p$ ou tout simplement l'opération de convolution avec le produit usuel ?

La réponse est très simple : cela permet de résoudre des systèmes différentiels compliqués à l'aide d'opérations algébriques très simples sur les polynômes !

Rentrons dans le vif du sujet.

$$\left\{\begin{aligned} x'+y' = f\\ x+y''=g \end{aligned}\right.$$

Avec $f$ et $g$ appartenant à $L^1_{\text{loc}}$, données, et les conditions initiales $x(0)$,$y(0)$ et $y'(0)$ donnés.

Il s'agit donc de déterminer une fonction $x$ et $y$ satisfaisant ces contraintes. Cela se passe en plusieurs étapes. La première, pour pouvoir travailler avec notre calcul symbolique, est de transformer notre système dans $D_+'$. Pour cela, il s'agit simplement de poser $X = Hx$, $Y=Hy$,$F=Hf$ et $G=Hg$$H$ est la distribution de Heaviside 3, définie par $0$ sur $\mathbb{R}^{-}$ et $1$ sur $\mathbb{R}^{+}$.

De fait, pour réécrire le système il nous faut $X'$ ainsi que $Y'$ et $Y''$. Par application de la dérivée sur la distribution de Heaviside, on obtient $X'=Hx'+x(0)\delta$ et de la même manière $Y'=Hy'+y(0)\delta$. On applique la même chose à $Y'$ : $Y''=Hy''+y'(0)\delta + y(0)\delta'$.

Et donc, notre système est équivalent dans $D_+'$ à :

$$\left\{\begin{aligned} X'+Y'= F + (x(0)+y(0)\delta\\ X+Y''= G + y(0)\delta'+y'(0)\delta \end{aligned}\right.$$

La seconde étape est de transcrire ce système symboliquement :

$$\left\{\begin{aligned} pX + pY= F + x(0)+y(0)\\ X+p^2Y= G + y(0)p+y'(0) \end{aligned}\right.$$

Ce qui donne en écriture matricielle :

$$\begin{aligned}[t] \begin{pmatrix} p & p\\ 1 & p^2 \end{pmatrix} & \begin{pmatrix} X \\ Y \end{pmatrix} & = & \begin{pmatrix} F + x(0)+y(0) \\ G + y(0)p+y'(0) \end{pmatrix} \end{aligned}$$

Ce qui est en fait un système linéaire équivalent à $AZ = B$.

Le déterminant de $A(p)$ est $det(A(p)) = p(p^2-1)$ et de fait, on peut calculer l'inverse de $A$ et résoudre ce système très facilement.

$$A(p)^{-1} = \frac 1 {p(p^2-1)} \begin{pmatrix} p^2 & -p\\ -1 & p \end{pmatrix}$$

Et ainsi,

$$\begin{aligned}[t] \begin{pmatrix} X \\ Y \end{pmatrix} $ = & \frac 1 {p(p^2-1)} \begin{pmatrix} p^2 & -p\\ -1 & p \end{pmatrix} & \begin{pmatrix} F + x(0)+y(0) \\ G + y(0)p+y'(0) \end{pmatrix} \end{aligned}$$

Ains, on pour obtenir $X$ et $Y$ très facilement, et la solution au problème initiale on faisant l'étape inverse de correspondance. Voici l'exemple détaillé pour $x$ et on donnera la solution directement pour $y$.

$X = (x(0)+y(0))\frac p {p(p^2-1)} - y(0)\frac p {p^2 -1} - y'(0)\frac 1 {p^2 -1} + F \frac p {p^2 -1} - G \frac 1 {p^2 -1}$

Pour $t>0$, on a alors $x(t) = x(0)ch(t) - y'(0)sh(t)+\int_0^tf(s)ch(t-s)-g(s)sh(t-s)ds$.

C'est un tout petit peu plus « délicat » pour obtenir $y$ car il faut faire une séparation en fractions simples et on obtient $y(t) = -x(0)(ch(t) -1)+y'(0)sh(t)+\int_0^tg(s)sh(t-s)-f(s)(ch(t-s)-1)ds$

Il est évidemment possible de faire une vérification d'usage avec $t=0$ et l'on retrouve bien nos conditions initiales.

En résumé, la méthode consiste à réécrire le problème dans $D_+'$ (on peut évidemment s'attaquer à des problèmes pour une variable a valeur négative, il suffit de « retourner » le temps et de séparer le problème en deux parties), puis à écrire le problème sous forme symbolique. De fait, on se ramène à la résolution d'un système linéaire. Une fois la solution exprimée en fonction de $p$, on repasse dans l'espace initial grâce à nos correspondances bien utiles !

Cela vous semble compliqué pour résoudre ce genre de problèmes ? Essayez-donc de résoudre ce problème par des méthodes plus traditionnelles et vous verrez le gain immédiatement. Il suffit ici de manipuler des polynomes, un calcul de déterminant et d'inverse d'une matrice, ainsi qu'éventuellement une décomposition en fractions simples, ce qui est au programme de L1 d'algèbre. On ne manipule JAMAIS directement d'intégrale et de calcul compliqué. Cerise sur le gateau, cette méthode permet de trouver des solutions qu'une approche classique ne permet pas de trouver, notamment grâce à la propriété étonnante de la dirac qui est de conserver les points de discontinuité en passant à la dérivée.

Le mot de la fin

Un petit mot de la fin pour citer encore plus de bienfaits des distributions. Elles ont permis notamment d'unifier de nombreuses notions de dérivées, plus faibles que la dérivée usuelles dans un tas d'applications physiques. Ces applications physiques sont d'une extrême utilité, notamment pour la résolution d'équation différentielle linéaires, non-linéaires, stationnaire ou d'évolution.

C'est ainsi que pour résoudre un problème du type diffusion de la chaleur : $\frac {\delta u} \delta t - \Delta u = 0$ avec $u(0,t) = 0$ et $u(x,0) = u_0$ (problème d'évolution, avec limite de dirichlet (chaleur nulle sur le bord du domaine) et une condition de Cauchy (une certaine distribution de chaleur au temp initial), alors au lieu de résoudre directement le problème et obtenir ce que l'on appelle une solution forte, on passe par une formulation dite faible, plus simple à résoudre, qui donne une solution dite faible. A partir de la solution faible on montre très facilement (avec les distributions) l'unicité entre la solution faible et forte !

Pour ceux que cela intéresse, la formulation forme est une formulation du type :

$$a(u,v) = L(v)$$
Sous certaines hypothèses (bilinéarité, continuité et ellipticité de la forme $a$, et continuité et linéairité pour $L$) on peut appliquer le théorème de Lax-Milgram, dérivant de Riesz, qui garanti l'existence et l'unicité de la solution à cette formulation.

Un grand merci à tous les contributeurs et relecteurs pour leur participation et leur temps.


  1. On entend également parler de « fonction de Dirac » mais ce terme n'est pas exact même s'il peut se comprendre historiquement, avant la découverte des distributions. 

  2. Attention, la notion de « presque partout » est clairement définie et parfaitement mathématique. Grosso modo, il s'agit d'une propriété qui est vraie sauf pour un ensemble non-mesurable. On renvoie à la théorie de la mesure. 

  3. Si le produit de deux distributions n'est pas faisable en générale, le produit d'une distribution et d'une fonction $C^{\infty}$, comme l'est l'exponentielle, ne pose aucun soucis. 

+3 -0

Joli exposé jusque là :)

J'attends de voir la suite avec curiosité :)

La physique c'est sympa, dommage qu'il faille faire le "ménage" après (pas fait avant) mais bon je peux comprendre la tentation … C'est juste que de mon point de vue le résultat est aussi important que la route.

@Holosmos: Tu as raison, Dirac aurait du attendre 20 ans avant de publier ses travaux …

@Hod: On utilise aussi le terme de distribution de Dirac en physique. Je ne sais pas comment ça se passe pour l'ensemble des étudiants en physique, mais dans mon cas j'ai eu un cours sur les distributions et donc les différents abus d’appellation sont fait en connaissance de cause.

D'ailleurs je me demande d'où vient l'abus de langage : de Dirac et l'utilisation qu'il faisait de son $\delta$, de la terminologie anglaise (generalized function s'utilise aussi si j'en crois Wikipedia) ou alors parce que une distribution c'est quand même bien une fonction de $\mathcal{D}\mapsto\mathcal{C}$ ?

+0 -0

Ah super, j'avais jamais compris la théorie des distributions (mais je les utilisais "comme des fonctions" en traitement du signal et en MQ et ça marchait :P )

Par contre j'interviens surtout pour demander pourquoi tu en fais un article et pas un mini-tuto. Il y a une discussion en ce moment sur la pertinence de cette distinction (ici). Je verrais plutôt ça comme un mini-tuto (je réserverais les articles aux news de ZdS et actualités, mais ce n'est que mon avis). C'est une question à se poser parce qu'il sera impossible de faire une transformation automatique de l'un à l'autre.

Même si les distributions étaient à mon programme de maths de l'année dernière, ça fait du bien de revoir tout ça rapidement, merci !

Puis-je simplement te suggérer d'ajouter quelques exemples ? C'est toujours difficile d'imaginer "une fonction de $\mathbb{R}$ dans $\mathbb{C}$ infiniment dérivable et à support compact" quand on en n'a jamais croisée une de sa vie. :D

~2ohm

+2 -0

Joli exposé Hod. j'attends la suite !

@Looping. Sans trop m'avancer, c'est peut être un effet de mes message sur le sujet d'exercice de Hod. A lui de confirmer/infirmer.

HS

La physique c'est sympa, dommage qu'il faille faire le "ménage" après (pas fait avant) mais bon je peux comprendre la tentation … C'est juste que de mon point de vue le résultat est aussi important que la route.

Holosmos

Comment tu fais quand les outils mathématiques n'existent pas et qu'ils sont crées pour la physique ? Typiquement, les distributions.

Comment tu fais quand les maths sont incapables de répondre à ton problème (résolution exacte de Navier-Stokes par exemple) ? Tu attends patiemment que des matheux trouvent et tu t'assois sur la physique ? (Btw, ya une potentielle résolution exacte des équations de NS 150 ans après création).

Soyons clair tout de suite : ce que raconte la physique est dans l'absolu faux, aucune des situations décrites par la physique n'existe. On élabore des modèles où on simplifie et néglige des milliers de choses car tu ne peux pas tout prendre en compte. De toute façon, quel serait l’intérêt d'avoir un modèle qui prend tout en compte ? C'est comme avoir un plan de Paris à l’échelle 1:1. C'est tout ce qu'il y a de plus juste, juste absolument pas pratique.

Ce qui compte, c'est quel degré de corroboration y'a t il entre mon modèle et mes expériences. Tant que celui est satisfaisant et réussi a expliquer ce qu'on observe, tout va pour le mieux. Mais alors pourquoi le physicien devrait s’embêter avec une rigueur mathématique quand il ne s’embête déjà pas avec la complexité du réel ? Alors que c'est justement de trouver une explication à ce réel qui le motive.

PS : Si le staff veut splitter la discussion sur un thread séparé, ca me pose pas de soucis.

+1 -0

J'ai édité et presque fini. Il manque certainement un passage sur Heavyside pour mieux comprendre le calcul symbolique et son application. Je suis évidemment ouvert à toute remarque ou critique.

@Hod: On utilise aussi le terme de distribution de Dirac en physique. Je ne sais pas comment ça se passe pour l'ensemble des étudiants en physique, mais dans mon cas j'ai eu un cours sur les distributions et donc les différents abus d’appellation sont fait en connaissance de cause.

Je me doute qu'on doit utiliser aussi bien à peu près tous les mots dans tous les domaines. En théorie du signal j'utilisais plus souvent « impulsion de dirac », ce qui n'a qu'une valeur « physique » si j'ose dire. Souvent en physique j'ai aussi entendu distribution de dirac pour le « peigne de dirac » ce qui n'est pas la même chose. Après la remarque n'était pas là pour stigmatiser un camp ou un autre mais juste pour donner l'ensemble du vocabulaire que l'on peut rencontrer, sans chercher à savoir lequel est le « bon », pour autant que cela existe. Je rejette juste l'appellation fonction de dirac.

D'ailleurs je me demande d'où vient l'abus de langage : de Dirac et l'utilisation qu'il faisait de son $\delta$, de la terminologie anglaise (generalized function s'utilise aussi si j'en crois Wikipedia) ou alors parce que une distribution c'est quand même bien une fonction de $\mathcal{D}\mapsto\mathcal{C}$ ?

Freedom

Dans tous les cas, c'est une forme linéaire continue de $\mathcal{D}\mapsto\mathcal{C}$. C'est le cas de la $\dirac$. Ce qui a gêné historiquement ce sont les propriétés qui définissent la dirac. En anglais on ne se pose pas la question effectivement puisqu'on dit fonction généralisée, qui doit donner lieu, par flemme, à fonction de dirac plutôt que fonction généralisée de dirac. Il y a pourtant, d'après moi, lieu à crier au scandale dans ce cas, en tout cas du point de vu mathématique. Après je ne partirai pas en croisade pour ça. :-)

Par contre j'interviens surtout pour demander pourquoi tu en fais un article et pas un mini-tuto. Il y a une discussion en ce moment sur la pertinence de cette distinction (ici). Je verrais plutôt ça comme un mini-tuto (je réserverais les articles aux news de ZdS et actualités, mais ce n'est que mon avis). C'est une question à se poser parce qu'il sera impossible de faire une transformation automatique de l'un à l'autre.

Looping

Je n'ai pas la volonté de publier sur ZdS mais juste de participer au forum. Si ce poste coule au fin fond du forum, cela m'est égal. Il n'est pas assez sérieux et profond pour en faire un article et je hais le concept même de tutoriel, donc à vrai dire, sa légitimité est tout au plus d'être un message de forum un peu plus étoffé que la moyenne.

Puis-je simplement te suggérer d'ajouter quelques exemples ? C'est toujours difficile d'imaginer "une fonction de $\mathbb{R}$ dans $\mathbb{C}$ infiniment dérivable et à support compact" quand on en n'a jamais croisée une de sa vie. :D

2ohm

Très bonne remarque. J'en ajouterais dès que possible. Et tu as tout à fait raison, l'existence de telles fonctions, hors la fonction identiquement nulle, n'est pas trivial du tout. On peut citer l'indicatrice de $[a,b]$ qui revient souvent en pratique pour des démonstrations par argument de densité.

Je suis en train de lire cette suite, cependant déjà j'ai tiqué sur :

Notons $m_n = min(\phi(x),~x\in [a_n,b_n])$ et $M_n = max(\phi(x),~x\in [a_n,b_n])$.

Par définition, nous avons :

$$m_n \int_{a_n}^{b_n}f_n(x)dx \leq \int_{a_n}^{b_n}\phi(x)f_n(x)dx \leq M_n \int_{a_n}^{b_n}f_n(x)dx$$

Si $\int_{a_n}^{b_n}f_n(x)dx \neq 1$, on a alors :

Höd

Peut-être qu'il faudrait écrire différemment les min et max, on pourrait croire (à tord !) qu'on regarde le max entre $x$ et $\phi(x)$. Du moins, je pense qu'une écriture en termes d'ensembles "tel que" pourrait être plus clair.

M'enfin surtout, ce que je voulais rapporter, c'est la dernière ligne. Tu voulais dire "non nul" plutôt pour pouvoir diviser gentiment, non ?

+0 -0

Sur le dernier point relevé par Holosmos, on a de toute façon $\int_{a_n}^{b_n}f_n(x)\mathrm dx=1$, non ?

Sinon, même chose que d'autres, on nous a bien appris ça sous l'appellation "distribution", d'une façon très proche de ce qu'il y a dans ton post (très bien fait par ailleurs, vraiment dommage que tu veuilles pas en faire un article…). Et on n'a jamais utilisé le terme de fonction de dirac (on nous a présenté l'appellation, en nous expliquant pourquoi elle n'était pas pertinente).

Quelques retours :

Ce qui va vous faire aimer les distributions

Je pense que tu devrais préciser que la démonstration se fait pour les distributions régulières et qu'on généralise aux distributions singulières par définition. Ou alors préciser qu'il faut introduire la notion de translation d'une distribution avant de pouvoir faire une démonstration générale.

Vous reprendez bien un peu de dirac ?

Je ne comprends pas trop ce que tu fais exactement dans ta démonstration, on ne peut pas directement faire :

Soit $n\in\mathbb{N}$,
$\left<f_n,\phi\right>=\int_\mathbb{R}\phi f_n=\int_{[a_n,b_n]}\phi f_n$
Puis par le théorème de la moyenne :
$\exists c_n\in\left[ a_n,b_n\right],\int_{[a_n,b_n]}\phi f_n=\phi\left( c_n\right)\int_{[a_n,b_n]}f_n$
Or $\int_{[a_n,b_n]}f_n=\int_\mathbb{R}f_n=1$ d'où :
$\forall n\in\mathbb{N},\exists c_n\in\left[ a_n,b_n\right],\left<f_n,\phi\right>=\phi\left( c_n\right)$
Puis finalement par passage à la limite :
$\left<f_n,\phi\right>\longrightarrow\phi\left( c_n\right)=\left<\delta,\phi\right>$ ie $f_n\overset{\mathcal{D}^\prime}{\longrightarrow}\delta$
avec $\delta : \phi\in\mathcal{D}\mapsto\phi\left( 0\right)\in\mathbb{C}$

+0 -0

Je suis en train de lire cette suite, cependant déjà j'ai tiqué sur :

Peut-être qu'il faudrait écrire différemment les min et max, on pourrait croire (à tord !) qu'on regarde le max entre $x$ et $\phi(x)$. Du moins, je pense qu'une écriture en termes d'ensembles "tel que" pourrait être plus clair.

C'est vrai. J'ai modifié pour avoir une notion un peu plus ensembliste mais je ne voulais passer les contraintes sans l'opérateur minimum ou maximum pour attirer l'attention sur ces contraintes (et par soucis de lisibilité, c'est tout petit après).

M'enfin surtout, ce que je voulais rapporter, c'est la dernière ligne. Tu voulais dire "non nul" plutôt pour pouvoir diviser gentiment, non ?

Holosmos

C'est nécessairement non-nul par construction mais je voulais bien dire différent de $1$ juste pour attirer l'attention sur le fait que cette intégrale ne vaut pas toujours 1 !

Ce qui m'amène à la remarque de @dri1 :

Sur le dernier point relevé par Holosmos, on a de toute façon $\int_{a_n}^{b_n}f_n(x)\mathrm dx=1$, non ?

Ceci est faux en général : $\int_{a_n}^{b_n}f_n(x)\mathrm dx=1$. C'est $\int_{-\infty}^{+\infty}f_n(x)\mathrm dx=1$. Et selon $a_n$ et $b_n$, l'intégrale va valoir nécessairement moins (ou peut être exactement 1 mais ce n'est pas une généralité). Comme l'inégalité tient toujours dans le cas où l'intégrale ne vaut pas 1 j'ai voulu le préciser. Le cas où cette intégrale vaut 0 ne nous intéresse car on peut montrer qu'on peut choisir un $a_n$ et $b_n$ tels que l'intégrale ne soit pas nulle (et si ce n'est pas le cas alors on montre que $f_n$ est identiquement nulle par identification à $L^1_{\text{loc}}$).

C'est le produit $\phi f$ qui permet de réduire les bornes d'intégration à $a_n$ et $b_n$.

Sinon, même chose que d'autres, on nous a bien appris ça sous l'appellation "distribution", d'une façon très proche de ce qu'il y a dans ton post (très bien fait par ailleurs, vraiment dommage que tu veuilles pas en faire un article…). Et on n'a jamais utilisé le terme de fonction de dirac (on nous a présenté l'appellation, en nous expliquant pourquoi elle n'était pas pertinente).

@dri1

C'est cool que cela soit bien enseigné même dans des filières non-mathématiques. :)

@Freedom, ta démonstration est fausse à la ligne « Or $\int_{a_n}^{b_n}f_n(x)\mathrm dx=1$. C'est $\int_{-\infty}^{+\infty}f_n(x)\mathrm dx = 1$. À priori, rien ne te dit que la fonction $f$ a un support contenu dans $[a_n, b_n]$. C'est le cas pour la dirac, en centrant sur 0 et en prenant par exemple $a_n = -\frac 1 n$ et $b_n = \frac 1 n$ mais n'est pas vrai dans le cas général. Mais sinon, l'idée est exactement la même (juste que je n'utilise aucune notation des distributions, car c'est normalement la démonstration historique que j'utilise pour introduire ce cours).

Par contre, je ne vois pas l'intérêt de préciser qu'on définit d'abord la dérivée pour les distributions régulières pour ensuite l'étendre aux singulières dans la mesure où je ne donne pas la démonstration pour les régulières, qui je suis d'accord est la façon « correcte » de faire. Ici je donne juste la définition qui embrasse les deux types de distributions, n'est-ce pas suffisant ? Et qu'apporterait cette information supplémentaire au lecteur (le but n'était vraiment pas de faire un cours) ?

+0 -0

Commençons par prendre une suite de fonctions $f_n$ positives telle que $\int_{-\infty}^{+\infty}f_n(x)dx = 1$ et soit nulle en dehors d'un intervalle $[a_n,b_n]$ avec $a_n$ et $b_n$ qui tendent vers $0$. Prenons également une fonction $\phi$ positive et continue.

Ainsi, on a $\int_{-\infty}^{+\infty}\phi(x)f_n(x)dx = \int_{a_n}^{b_n}\phi(x)f_n(x)dx$.

Höd

Si on prend $\phi:x\mapsto 1$ , elle est bien positive est continue, et on a forcément $$\int_{-\infty}^{+\infty}\phi(x)f_n(x)dx = \int_{a_n}^{b_n}\phi(x)f_n(x)dx \Rightarrow \int_{a_n}^{b_n}f_n(x)dx=1$$ Je dois surement me gourer quelque part, mais je vois pas où.

+0 -0

En fait je suis pas là, $f_n$ est bien définie à support sur $[a_n,b_n]$ non ? Alors pourquoi les deux évaluations $\int_\mathbf{R}$ et $\int_{[a_n,b_n]}$ seraient-elles différentes ? À moins que tu regardes $f$$f$ est la limite de la suite $f_n$ je vois pas pourquoi y a cette supposition qui est toujours fausse.

edit : @dri1 est d'accord avec moi, croix de plus sur le calendrier :D

+0 -0

Okay on est d'accord :)

Je me demande au passage si travailler sur une variété compacte comme $\mathbf{R}\mathbf{P} \cong \mathbf{S}^1$ ne pourrait pas apporter plus de légèreté au développement. Est-ce que tu as eu l'occasion de la manipuler de cette façon ? Peut-être qu'on sortirait du "style" analyse très typique et que ça te plairait moins aussi, c'est mon côté projectif qui déborde mais ça pourrait avoir le mérite de clarifier les notations "infinies".

edit : j'ai mis $\mathbf{R}\mathbf{P}$ puisque visiblement on travaille sur $\mathbf{R}$ et pas $\mathbf{C}$ :p

+0 -0

Pour la dérivée, c'est la mention démonstration assez simple associé à distribution, sans distinction, qui me gène. Ça suggère que je peux réussir à la faire en découvrant le sujet, or si la démonstration dans le cas régulière est simple, rien ne me dit que pour le cas singulière c'est juste par définition. Du coup j'aurais tendance à préféré l'absence de la mention démonstration assez simple ou alors l'avoir sous la forme démonstration assez simple pour les distributions régulières. Ceci dit, ce n'est qu'un point de détail.

Vous reprendez bien un peu de dirac ?

Quel est l'intérêt d'effectuer l'encadrement ? Il est réellement nécessaire à la démonstration ?
Quand tu passes à la limite, tu n'aurais pas mis un $=$ à la place d'un $\longrightarrow$ ? (Après et donc à la limite)

La convolution, la « multiplication » des distributions

Je pense que les notations que tu utilises pour la définition de la convolution des distributions n'est pas clair pour quelqu'un qui découvre le sujet.

Tu as écris $\left< S_x,\left< T_y,\phi\left(x+y\right)\right>\right>$, je pense qu'il est difficile de savoir à quoi correspondent ces $x$ et $y$ si on ne sait pas déjà de quoi il est question. Ou tout du moins il faut comprendre que $\phi\left(x+y\right)$ ne désigne pas un scalaire mais un fonction dont la variable est $y$ et que $\left< T_y,\phi\left(x+y\right)\right>$ ne désigne plus un scalaire comme au début du message, mais un fonction test dont la variable est $x$. Ce qui permet donc de comprendre pourquoi $S$ et $T$ sont indexé par $x$ et $y$.

Je pense que la notation $\left< S,x\in\mathbb{R}\mapsto\left< T,\phi_{-x}\right>\right>$ est plus verbeuse mais aussi plus clair.

L'idée des distributions est qu'une distribution est caractérisée par l'effet qu'elle peut avoir sur certaines fonctions.

Höd

Je pense que cette idée est la meilleurs façon d'expliquer à quelqu'un que distribution et fonction, ce n'est pas pareil. Du coup, lorsque tu présentes les propriétés des distributions (dérivées, …) et de $\delta$, ça pourrait être bien de reformuler tes explications pour qu'elles martèlent discrètement mais sûrement ce point de vue.

Plutôt que …

On retrouve donc une définition de la dirac cohérente avec son utilisation, à savoir que pour une fonction continue, la dirac de cette fonction est la fonction évaluée en 0 : $\delta(\phi) = \phi(0)$

Höd

… quelque chose comme

On retrouve donc une définition de la dirac cohérente avec son utilisation. L'effet qu'a la dirac sur une fonction est de retourner la valeur de la fonction en 0 : $\delta(\phi) = \phi(0)$.

(Oui, oui, c'est du chipotage :-° )

Aussi, ce serait bien d'expliciter la notation $(T)^{\star2}$ (où $T$ est une distribution). J'ai fini par comprendre que c'était la notation des puissances pour le produit de convolution, mais comme elle arrive d'un coup, cachée dans une remarque sur $\delta''$, je me suis presque demandé si je n'avais pas manqué quelque chose !

[Et puis, puisqu'on parle d’abus de notations de physiciens, est ce que par magie $(T)^{\star n} = \exp(\star n\ln T)$ :D ?!]

Et puis, j'ai aussi 3 questions qui me démangent :

  1. Le polynôme $P$ porte sur $\delta'$ mais ne fait intervenir que $\delta$ dans son expression, pourquoi pourquoi !?
  2. Dans les règles de correspondance de calcul symbolique : qui est $p$ ?
  3. Et qui est $H$ ? (Heaviside je pense, mais je ne comprends plus très bien les notations ensuite .. )

Encore merci pour ce super post !

~2ohm

PS. D'ailleurs, d'après wikipedia, c'est Heaviside avec un i au milieu ;)

+0 -0
Connectez-vous pour pouvoir poster un message.
Connexion

Pas encore membre ?

Créez un compte en une minute pour profiter pleinement de toutes les fonctionnalités de Zeste de Savoir. Ici, tout est gratuit et sans publicité.
Créer un compte