1/ J’ai hésite pour les formes elliptiques. Mais si tu me dis que je peux en parler un peu plus, pourquoi pas, ça mettrait en perspective les polynômes homogènes qui sont vraimens pas utiles dans ce que j’imagine pour la suite.
Ah donc tu veux définir les courbes elliptiques avec le modèle projectif ? C’est une bonne idée, mais un peu plus avancée que ce que j’avais en tête. Dans mon esprit tu pouvais décrire une famille spécifique de polynômes remarquables (P(x,y)=y2+x3+ax+b)a,b (ultra « simples », 2 variables, degré 3), et sans même décrire la structure de groupe qu’il y a derrière, juste laisser entendre que la géométrie des racines sur un corps fini d’un de ces trucs-là est déjà très difficile à comprendre — ne serait-ce que la cardinalité, après tout c’est une brique de base dans les équivalences avec les formes modulaires. Mais c’est vrai qu’il y a beaucoup de choses à dire sur les racines de polynômes et que ça rentrerait mieux dans ta partie 2.
Pour le coup, je pense que c’est assez difficile de motiver l’apparition des polynômes homogènes ; la question au fond c’est « pourquoi on préfère faire de la géométrie dans des espaces projectifs ? ». Pour reprendre un exemple que je connais mieux (l’info théorique), les polynômes homogènes « apparaissent » quand on considère la forme algébrique associée à un k-tenseur symétrique en complexité/quantique/ML x↦∑i∈[n]kTixi (la généralisation à k dimensions de la forme quadratique associée à une matrice symétrique x↦xTMx). Mais je ne crois pas que toute la théorie algébrique qu’il y a autour de ces objets ait vraiment trouvé une application là-dedans jusqu’à présent (en ce moment, la tendance est même à l’inverse de démontrer des résultats de maths fonda avec des outils de complexité développés initialement pour l’info — cf. la résolution de la conjecture de Connes sur les algèbres de von Neumann le mois dernier).
En fait, on pourrait dire la même chose pour la « famille de polynômes remarquables » dont tu parles juste en-dessous, les polynômes symétriques. Par exemple, toute la théorie des invariants consiste à remplacer l’action de Sn par une action de groupe plus compliquée et d’établir un résultat analogue aux décomposition de polynômes symétriques en polynômes symétriques élémentaires (peut-être que tu vas en parler de celui-là, il me semble que c’est vaguement au programme de prépa ?). Mais là encore, difficile de vraiment motiver la raison profonde de l’étude de ce genre d’objets.
2/ Je n’avais jamais entendu parler de "bases de Gröbner" auparavant. Cependant, pour être tout à fait honnête, je pense faire une annexe à ce cours, où je fais la théorie des polynômes sur un anneau intègre commutatif. D’une part, ça m’amuse, d’autre part, si des gens sont vraiment intéressés par ce cours après la théorie, ils y trouveront leur compte
Juste pour préciser l’aspect des bases de Gröbner qui correspond à ce que tu dis dans ta partie sur l’arithmétique des polynômes à plusieurs variables : étant donné un ordre sur les monômes, on peut définir un algorithme de division de p par p1,…,pk dans K[x1,…,xn] comme p=∑iqipi+r où les qi sont des polynômes et pour tout i, aucun des monômes de r n’est divisible par le monôme dominant de pi. A priori le « reste » r qu’on obtient à la fin n’est pas unique, mais il l’est si p1,…,pk forment une base de Gröbner de l’idéal qu’ils génèrent (en particulier pour k=1 on retrouve Euclide). Si ça t’intéresse la référence en géométrie algébrique appliquée c’est Ideals, Varieties and Algorithms (Cox, Little, O’Shea).
Toute la partie analyse, je la voyais dans le chapitre 4, où je comptais parler de l’approximation polynômiale des fonctions en long en large et en travers. Mais je vais peut être ramener ça au chapitre 3.
C’est quoi l’approximation polynomiale ? Si tu parles des histoires de densité en analyse fonctionnelle, moi je pensais tout bêtement à de l’analyse réelle (p.ex. en fonction du degré, trouver un polynôme stable par [−1,1] qui maximise la dérivée en 0), qui sont des trucs qui apparaissent souvent en maths appliquées (voir ça en ML par exemple). Pour rester dans des souvenirs de prépa, un truc qui m’avait pas mal marqué c’était les histoires de continuité de racines de polynômes pour des topologies bien choisies (cf. exercice 3 ici).
I mean ,je suis pas spécialiste en info, donc pourrais-tu préciser un chouïa quelles conneries j’ai dites dans mon apparté ?
En vrai ce que tu dis n’est pas complètement faux, je dirais que c’est juste exagéré/pas clair pour les raisons suivantes :
(1) « Factoriser des entiers c’est extrêmement compliqué » : d’un point de vue complexité la factorisation d’entiers c’est un problème plus « facile » que n’importe quel problème d’optimisation un peu tordu que tu pourrais inventer (au sens où on pense très fortement que c’est pas un problème NP-complet), et on a des algorithmes « pratiques » en temps sous-exponentiel pour depuis longtemps (p.ex. ECM, QS, NFS, etc.). Et d’un point de vue purement pratique, on sait factoriser des clés RSA franchement gigantesques (le dernier résultat en date de décembre c’est 10240). Évidemment, les clés qu’on utilise en pratique sont encore plus grandes (typiquement 2048 bits), mais c’est un peu le jeu du chat et de la souris. Bon et vu que c’est redevenu à la mode l’année dernière, rappelons qu’on sait factoriser des entiers en temps polynomial sur un ordinateur quantique. Après, effectivement, sur un ordinateur classique, ça reste probablement plus difficile que Euclide !
(2) « RSA est sûr parce que factoriser des entiers c’est difficile » : on sait pas si RSA est équivalent à la factorisation (si on sait factoriser des entiers rapidement, alors on a cassé RSA, mais l’inverse n’est pas forcément vrai — il est possible qu’il y ait d’autres attaques, et d’ailleurs historiquement les principales sont de ce type). De manière générale RSA c’est bien car historique (sûr car « il a résisté à l’épreuve du temps ») mais mathématiquement assez peu satisfaisant.
Par ailleurs, dans la crypto post-quantique (qui consiste faire de la crypto à clé publique sûre contre des adversaires quantiques, en gros le but c’est de remplacer RSA), il y a beaucoup de polynômes (cf. par exemple les candidats à NIST).