toute personne intéressée par les data-sciences, et l'utilisation de modèles performants , ou l'adaptation ou la création de modèles.
Savoir identifier les modèles pertinents selon les cas d'usage, maitriser les outils et méthodes pour améliorer des modèles existants et en créer.
Posséder des notions de probabilités et statistiques et les bases du machine learning.
|
| Fondements et positionnement de l'intelligence artificielle |
Durée : 3h30 Méthodes pédagogiques : alternance de théorie et de travaux pratiques Matériels et moyens : vidéo-projecteur en présentiel, tableau partagé en classe virtuelle, infrastructure distribuée serveurs Linux | Définitions et positionnement : IA, apprentissage profond et apprentissage automatique. Les apports du deep learning, état de l'art. Outils disponibles. Exemples de projets concrets. Exemples, domaines d'application. Présentation de deepmind Outils DeepLearning de haut niveau : Keras/TensorFlow, Caffe/PyTorch.Atelier : Mise en oeuvre sur cloud AutoML : traitement du langage naturel, traduction, reconnaissance d'images, ...
|
|
| Convergence des réseaux de neurones |
Durée : 3h30 Méthodes pédagogiques : alternance de théorie et de travaux pratiques Matériels et moyens : vidéo-projecteur en présentiel, tableau partagé en classe virtuelle, infrastructure distribuée serveurs Linux | Comprendre la rétropropagation de l'erreur et la convergence. Maîtriser la descente de gradient. Les fonctions d'erreur : MSE (erreur quadratique moyenne), entropie croisée binaire, et les optimiseurs SGD (descente de gradient stochastique), RMSprop, Adam. Définitions : couche, epochs, batch size, itérations, loss, learning rate, momentum. Optimiser un entraînement par découpage d'entraînements progressifs. Comprendre le principe des hyperparamètres. Choix des hyperparamètres.Atelier : construire un réseau capable de reconnaître une courbe.
|
|
| Modèles avancés : auto-encodeurs, réseaux antagonistes génératifs (gans), apprentissage par renforcement |
Durée : 3h Méthodes pédagogiques : alternance de théorie et de travaux pratiques Matériels et moyens : vidéo-projecteur en présentiel, tableau partagé en classe virtuelle, infrastructure distribuée serveurs Linux | Représentations des données. Bruits. Couches d'encodage : codage entier, One-hot, embedding layer. Notion d'autoencodeur. Autoencodeurs empilés, convolutifs, récurrents. Comprendre les réseaux antagonistes génératifs (GANS) et leur limites de convergences. Apprentissage par transfert. Évolutions vers les GRU (Gated Recurrent Units) et LSTM (Long Short Term Memory). Traitement du langage naturel (NLP): encodage des caractères et des mots, traduction.Atelier : entraînement d'un autoencodeur variationnel sur un jeu d'images
|
|
| Exploitation, création de modèles |
Durée : 3h Méthodes pédagogiques : alternance de théorie et de travaux pratiques Matériels et moyens : vidéo-projecteur en présentiel, tableau partagé en classe virtuelle, infrastructure distribuée serveurs Linux | Préparation des données, régularisation, normalisation, extraction des caractéristiques. Optimisation de la politique d'apprentissage. Exploitation des modèles, mise en production. TensorFlow Hub. Serving. Visualiser les reconstructions.Atelier : mise en place d'un serveur de modèles et d'une application tf-lite pour mobile
|
|
| Comprendre les points forts et les limites de ces outils |
Durée : 1h30 Méthodes pédagogiques : exposé/échanges Matériels et moyens : video-projecteur en présentiel, tableau partagé en classe virtuelle | Mise en évidence des problèmes de convergence et du vanishing gradient. Les erreurs d'architecture. Comment distribuer un réseau de neurones? Les limites du DeepLearning : imiter/créer. Cas concrets d'utilisation. Introduction aux machines quantiques.
|