Bonjour à tous,
lorsque j'ai donné mon TD1 au groupe 2, j'ai initialement commis une petite erreur concernant le comptage du nombre de chiffres significatifs. J'utilisais une définition erronée. Je vous propose dans ce message de reprendre l'explication pour clarifier la méthode.
La définition des chiffres significatifs d'une valeur numérique est la suivante : "Lorsqu'on manipule une valeur numérique potentiellement affectée par une erreur, les chiffres significatifs sont tous les chiffres ayant une garantie d'être exacts, plus le premier potentiellement erroné."
Pour les calculer, il suffit de trouver une majoration de l'erreur de la forme abs{err} <= 0.5*10^m. Ainsi, le chiffre en position m est le dernier chiffre significatif. Pour rappel, le chiffre des unités est en position m=0, celui des dizaines est en position m=1, et celui des dixièmes en position m=-1.
J'avais de plus donné une explication informelle de la raison pour laquelle cette méthode fonctionne : prenons une valeur f=4609.10 et abs{delta f} <= 0.5*10^3. La vraie valeur de f, notée f_exact, est quelque part dans l'intervalle f_exact \in [f-delta f, f+delta f]. Or, si on calcule les bornes de cet intervalle, on obtient [4109.10, 5109.10]. On voit qu'aucun chiffre ne reste constant sur tout l'intervalle et que le "4" est le premier potentiellement erroné. Donc il y a un seul chiffre significatif, le "4". Si le abs{delta f} était <= 0.5*10^1, l'intervalle serait [4604.10, 4614.10]. Il y aurait 3 chiffres significatifs, "460", car on voit que le 9 est le premier potentiellement erroné (le premier qui ne reste pas constant sur tout l'intervalle). La méthode ci-dessus fonctionne sur ce principe, et c'est pour ça que je proposais de revenir à l'écriture décimale de f pour analyser sa précision numérique.
Désolé pour le petit imbroglio, j'espère que ce message clarifie les choses. Bonne semaine et bonne étude !