Les inscriptions sont closes
  • Fin d'inscription
  • Inscription close
  • Début du Cours
  • 12 mar 2018
  • Fin du cours
  • 22 avr 2018
  • Effort estimé
  • 03:30 h/semaine
  • Langue
  • Français

À propos du cours

Vous êtes passionnés d’Intelligence Artificielle, et attirés par les succès spectaculaires récemment obtenus par le « deep learning » (reconnaissance vocale, classification d’image, jeu de GO, etc) : ce Mooc est pour vous !

Ce Mooc présente les réseaux de neurones profonds, qui constituent les fondements du « deep learning», et leur utilisation pour des problèmes de reconnaissance et classification de données. Un accent particulier sera porté aux données pauvres en sémantique comme les images.

Avec ce Mooc :

  • vous comprendrez le fonctionnement et l’apprentissage des réseaux de neurones profonds, ainsi que l’importance de la convolution,
  • vous comprendrez les raisons historiques de leur succès récent, ainsi que les évolutions récentes du domaine,
  • vous maîtriserez les enjeux pour le déploiement massifs des algorithmes de deep learning, ainsi que les outils logiciels modernes
  • vous saurez comment appliquer les méthodes de deep learning avec peu de données d’apprentissage, et comprendrez les questions ouvertes actuelles.

Format

Chaque module se compose de 5 à 6 séquences vidéos, de 10 minutes chacune en moyenne, suivies d'une ou deux questions qui permettent aux apprenants de faire le point sur leurs acquis.

Le professeur parle en français sur des supports de cours anglais.

Pour chaque séquence, des discussions sont ouvertes sur le forum. Les retours hebdomadaires aux principales questions posées sur les forums se feront en direct par hangout.

Les inscrits auront accès à tous les contenus (vidéos, documents et quizz) dès l’ouverture du Mooc et conserveront l’accès même après sa fermeture.

Prérequis

Ce cours requiert des connaissances de bases en calcul différentiel et en statistiques, de niveau premier cycle universitaire scientifique.

L'enseignant

Nicolas Thome

Nicolas Thome est professeur des universités au Conservatoire national des arts et métiers, et chercheur au laboratoire CEDRIC dans l’équipe MSDMA. Ces travaux portent sur l’apprentissage statistique appliqué à des problèmes de compréhension de données multimédia. Il est actuellement impliqué dans de nombreux projets collaboratifs français et internationaux sur le deep learning.

Plan du cours

Semaine 1

  • Introduction and Context
  • The Formal Neuron
  • Neural Networks
  • Supervised Machine Learning.
  • Gradient Error Backpropagation Algorithm
  • Training Issues

Semaine 2

  • Introduction to Convolutionnal Neural Networks
  • Convolution
  • Convolution Properties
  • Pooling
  • Convolution Layer
  • Convolution Hierarchies and Convolutional Neural Networks

Semaine 3

  • Modeling Capacities
  • Representation Learning with ConvNets
  • Manifold Untangling and Visualization
  • Deep Learning Weaknesses
  • Success Deep Learning History
  • Deep Learning Winter History

Semaine 4

  • Deep Learning Renewal
  • Modern Convolutional Neural Network Modules
  • Modern Training and Regularization
  • Modern Convolutional Neural Network Architectures
  • Residual Architectures
  • Other Modern Deep Learning Components

Semaine 5

  • Optimization Issues
  • Advanced Optimization
  • Implementations Issues
  • Deep Learning Resources
  • Deep Learning Resources: Keras

Semaine 6

  • Deep Features
  • Transfer Learning
  • Localization and Segmentation
  • Unsupervised Learning
  • Vision and Langage
  • Deep Learning Theory

Évaluation

Des épreuves hebdomadaires et une épreuve terminale de type QCM, permettent l’obtention de l’attestation de suivi avec succès.