Je ne sais pas quel est l'agorithme exact utilisé par Excel (pour ça que je m'en sers pas d'ailleurs ), mais l'idée générale de ce genre d'algo est toujours la même. Je vais retenter une explication un peu différente de celle d'adndebanane.
Tu as certain nombre de données $(X_i, Y_i)$. Tu as une théorie qui te dit que tes données $(X_i, Y_i)$ sont représentables par une sigmoïde paramétrée par $\mathbf m=(a,b,c,d,e,f)$. $\mathbf m$ (appelé modèle) appartient donc à un espace à 6 dimensions, par exemple $\mathbb R^6$.
Le jeu va donc être de trouver le vecteur $\mathbf m$ de l'espace des modèles qui te permet d'avoir la sigmoïde qui colle le mieux à tes données. Pour savoir si une sigmoïde paramétrée par un vecteur $\mathbf m$ colle ou pas à tes données, on calcule la somme sur $i$ des écarts au carré entre $Y_i$ et le $Y_s$ qui serait prédit par la sigmoïde $s(\mathbf m)$ au point $X_i$. Plus la somme est faible, plus on considère que la sigmoïde colle aux données.
Excel contient un algo capable d'explorer l'espace des modèles de façon à trouver le vecteur $\mathbf m$ qui donne la meilleur sigmoïdes.
Évidemment, de manière générale dans ces problèmes d'inversion il n'y a pas une seule façon de se balader dans l'espace des modèles pour trouver le meilleur, ni une seule façon de calculer la distance entre la sigmoïde (ou de manière générale les prédicitions faite à partir d'un modèle) et les données que l'on a. Il y a même des méthodes d'inversion qui nous donnent en sortie des densités de probabilité associée à chaque sigmoïde que l'on peut obtenir en se baladant dans l'espace des modèles. Pour te dire, c'est carrément une branche des maths appelée "inverse problem".