Devoir 3, régression linéaire sans estimés initiaux

Devoir 3, régression linéaire sans estimés initiaux

par Carole-Anne Daunais,
Nombre de réponses : 2

Bonjour!

J'ai un peu de mal a adapter l'énoncé au problème de régression linéaire, puisqu'en calculant l'approximation avec les premiers termes du développement de Taylor, on retrouve que les estimés initiaux s'annulent, et on retrouve la forme d'origine. Alors je me demande, doit-on ne pas simplifier et ainsi conserver les estimés initiaux dans la formule? 

Aussi, ne doit-on pas trouver l'algorithme de résolution avant d'écrire la matrice?

Merci et bonne journée,

Carole-Anne

En réponse à Carole-Anne Daunais

Re: Devoir 3, régression linéaire sans estimés initiaux

par Jérôme Allard,

Tu es tombée sur la bonne réponse. C'est-à-dire que le développement de l'approximation de Taylor nous ramène à la forme d'origine de K*. Le problème à résoudre n'est donc plus fonction des paramètres étoilés et la solution est trouvée directement et non itérativement. 

L'algorithme de résolution est nécessaire quand la matrice Jacobienne de minimisation de l'erreur carré dépend des paramètres étoilés dans quel cas on retrouve une mise à jour de la matrice (itérations) pour trouver la solution optimale au problème de régression au sens des moindres carrés. Quand la matrice se pose directement sans dépendre des paramètres étoilés, comme c'est le cas ici. On retrouve la forme :

J*[a,b,c,d]=[g_1(K,phi),g_2(K,phi),g_3(K,phi),g_4(K,phi)]

Il est possible ensuite d'utiliser l'inverse de la matrice J pour trouver les paramètres a, b, c et d qui minimise l'erreur au carré.