Leçon 0: Rappel d'Algèbre Linéaire, d'Optimisation, de Probabilités, de Statistique et de Python
Section outline
-
-
Bonjour à tous,
Le devoir 1 est désormais disponible sur Moodle. Vous trouverez dans le document toutes les consignes ainsi que les exercices à résoudre.
Date limite de soumission : Lundi 24 Février à 03h00
Modalités de soumission :
- Vous pouvez soumettre vos réponses sous forme de document pdf contenant toutes les réponses y compris le code source. Vous pouvez aussi soumettre vos documents sous forme de document manuscrit (scanné).
- Certaines questions nécessitent des visualisations et du code source. Pour ces questions, merci d’inclure les graphiques et les scripts correspondants dans votre soumission.
Thèmes abordés dans le devoir :
- Estimation par la méthode du maximum de vraisemblance (MLE)
- Dérivées Partielles
- Propriétés des estimateurs (biais, variance, consistance)
- Tests statistiques et intervalles de confiance
- Visualisation des lois des grands nombres et du théorème central limite
Je vous encourage à utiliser les notes de cours et les exercices comme support. Un forum de discussion est ouvert sur Moodle si vous avez des questions ou besoin de clarifications.
Bon travail à toutes et à tous.
-
Annonce : Correction de la série d’exercices en classe
Bonjour à toutes et à tous,
Lors de la prochaine séance, nous corrigerons ensemble la série d’exercices MTH8302 - Exercices 1. Cette série a pour objectif de vous préparer au Devoir 1, tout en introduisant des concepts que nous verrons en régression linéaire.
Nous aborderons notamment :
- L’estimation par maximum de vraisemblance (MLE) pour les lois exponentielle et binomiale,
- Le test t en régression linéaire,
- La loi des grands nombres et le théorème central limite, avec des visualisations.
Je vous encourage vivement à tenter de résoudre ces exercices, ou au moins à les parcourir et à y réfléchir avant la séance, afin de profiter pleinement de la correction et de poser vos questions sur les points qui vous semblent moins clairs.
N’oubliez pas d’apporter vos notes, vos calculs et, si possible, votre ordinateur pour les exercices nécessitant des visualisations ou des calculs numériques en Python.
À bientôt en classe !
-
Bonjour à toutes et à tous,
Voici les documents et références utilisés pour la Leçon 0, qui couvre les fondements mathématiques et statistiques nécessaires pour la suite du cours. Ces ressources vous aideront à consolider votre compréhension de l’algèbre linéaire, des probabilités, des statistiques et des concepts en deep learning.
Algèbre Linéaire et Optimisation
- Linear Algebra Review
Ce document est tiré du cours introductif au Machine Learning de Roger Grosse à l'Université de Toronto en 2021. - CS229 - Linear Algebra Notes
Notes sur l'algèbre linéaire et l'optimisation du cours CS229 à Stanford.
Disponible sur le site officiel : CS 229 Stanford
Rappels en Probabilités et Statistiques
- Rappel en Probabilités
- Rappel en Statistiques
- Rappel des Tests Statistiques
Ces documents sont issus du site Wikistat.fr, une référence utilisée dans la version précédente du cours.
Calcul Numérique et Optimisation en Deep Learning
- Deep Learning Book - Chapter 4
Le chapitre 4 du livre "Deep Learning" couvre le calcul numérique et l'optimisation.
Disponible en ligne : Deep Learning Book
Probabilités et Optimisation
- Deep Learning Foundations and Concepts
Ce nouveau livre couvre les bases des probabilités et de l'optimisation en deep learning.
Accès libre : Bishop Book
Solutions des exercices (chapitres 2-10) : Solutions Officielles
Je vous encourage à consulter ces ressources pour approfondir votre compréhension des concepts abordés en cours.
À bientôt en classe.
- Linear Algebra Review
-
Bonjour à toutes et à tous,
Comme discuté au début de la séance précédente, la dérivée de la forme quadratique doit être de la forme et non .
De plus, les propositions de la question 6 du problème 1 ont été rectifiées afin de correspondre aux dérivées secondes potentielles de la fonction étudiée.
Vous trouverez ici Devoir 1 avec ces rectifications. Veuillez télécharger la nouvelle version et en prendre compte dans votre travail.
N’hésitez pas à poser vos questions si nécessaire.
-
Bonjour à toutes et à tous,
Je mets à votre disposition des clarifications concernant les quatre premières questions du Problème 1 de la Série d'Exercices 1, ainsi que les détails relatifs au calcul des Hessiennes à partir des gradients des fonctions étudiées.
Ces explications incluent l’utilisation du produit extérieur, qui permet d’obtenir une représentation matricielle à partir d’une représentation vectorielle.
Par ailleurs, la solution de la question 2 du Problème 1 a été rectifiée en conséquence. La bonne solution à la Hessienne est :
Veuillez consulter le document mis à votre disposition ici et qui contient ces clarifications.
N’hésitez pas à poser vos questions si nécessaire.
Bonne étude
-
Bonjour à toutes et à tous,
Vous trouverez ici le notebook Jupyter ainsi que le script Python associés aux figures générées pour la partie du rappel mathématique portant sur :
- Les distributions de probabilités
- Les tests d'hypothèse
- Le calcul des intervalles de confiance
Ces ressources vous aideront à mieux répondre à certaines questions du devoir 1, notamment celles nécessitant la visualisation et la génération de code.
Bonne étude et bon travail à tous.
-
Bonjour à toutes et à tous,
Vous trouverez ici le notebook Jupyter ainsi que le script Python associés aux notions suivantes :
- Covariance
- Gaussienne Multivariée
- Loi des Grands Nombres
- Théorème Central Limite
Ces ressources vous permettront d'explorer ces concepts en profondeur et de mieux comprendre leur application, en particulier dans le cadre des exercices et du devoir 1.
Bonne étude et bon travail à tous.