← Back to Courses

Deep Learning et Intelligence Artificielle

Du deep learning en machine learning supervisée aux architectures complexes de type Transformers

Deep Learning et Intelligence Artificielle

Bienvenue dans le cours. Cette introduction présente les objectifs, le plan du cours et les prérequis.

Plan du cours

Introduction au machine learning

  • classification vs régression
  • calcul de sqrt(2), erreur, fonction de cout
  • régression linéaire et régression logistique
  • stochastic gradient descent
  • biais et overfitting

Le perceptron

  • le perceptron (1957)
  • fonctions d'activation
  • perceptron multicouche
  • backpropagation
  • exploding et vanishing gradients
  • réseaux de neurones feedforward
  • regularization et dropout
  • Keras, Tensorflow, Pytorch

Réseaux de neurones à convolution

  • convolution
  • pooling
  • normalization

Réseaux de neurones récurrents

  • LSTM
  • GRU
  • Transformers
  • attention mechanism
  • self-attention
  • multi-head attention
  • positional encoding

VAE - variational autoencoder

  • Compresse des données complexes (images, texte, etc.) en une représentation latente continue et structurée.
  • Génère de nouveaux exemples similaires en échantillonnant depuis cette représentation latente

Use cases: Génération d'images réalistes, Interpolation entre exemples, Détection d'anomalies

Comme dit CLaude:

Contrairement à un autoencoder classique, le VAE ajoute une régularisation probabiliste (divergence KL) qui force l'espace latent à suivre une distribution normale, ce qui le rend "explorable" pour générer de nouvelles données cohérentes. 🤣🤣🤣

GANs - Generative Adversarial Networks Deux réseaux en compétition :

  • Générateur : crée des images fake à partir de bruit aléatoire
  • Discriminateur : apprend à distinguer fake vs réel

Le générateur s'améliore pour tromper le discriminateur, qui s'améliore pour détecter les fakes. Cette compétition produit des images de plus en plus réalistes.

  • Résultat : génération d'images très haute qualité et photréalistes (visages, paysages, etc.)
  • Applications : deepfakes, synthèse d'images, style transfer, super-résolution...

LSTM - Modeles autoregressifs

Réseau de neurones récurrent conçu pour capturer les dépendances long-terme dans les séquences.

  • NLP
  • Time series

Diffusion models

  • Modèles génératifs qui créent des images en inversant un processus de bruit.
  • DALL-E 3, Midjourney, Stable Diffusion - text-to-image - Imagen

Attention & Transformers

  • chaque token "regarde" tous les autres tokens pour comprendre le contexte, en parallèle.

  • foundation pour tous les language models modernes (GPT, Claude, BERT, LLaMA, etc.)

Modeles multi modaux

  • audio, images, etc

Reinforcement Learning (RL)

  • Un agent apprend par essai-erreur en interagissant avec un environnement, guidé par des récompenses.
  • Jeux (AlphaGo, jeux vidéo), Robotique (apprentissage moteur), Recommandation (optimiser engagement), Contrôle (thermostat, drones)

Evaluation

à definir

  • projet final
  • quiz