Analyse vidéo

Cette section de l’application repose sur un pipeline complet de traitement vidéo destiné à analyser les émotions des intervenants à partir d’enregistrements.



Fonctionnalités principales :
L’analyse commence par une lecture image par image de la vidéo. Afin d’alléger le traitement, le système ne traite qu’une image sur dix, ce qui correspond à un échantillonnage raisonnable tout en conservant une bonne précision. Lorsqu’un visage est suffisamment grand et bien visible, une analyse des émotions est déclenchée. Les deux émotions dominantes sont alors identifiées et directement annotées sur la vidéo. En parallèle, une timeline CSV est générée, retraçant pour chaque minute les émotions détectées, ce qui facilite leur visualisation et leur exploitation.




Pipeline technique (Azure + Databricks) :
Le pipeline repose sur l’infrastructure Azure et Databricks, assurant automatisation et scalabilité. Le système récupère automatiquement la dernière vidéo disponible sur Azure Blob Storage, déclenche le traitement IA (détection des visages, émotions, annotation), puis enregistre en sortie la vidéo annotée et sa timeline CSV dans le même espace de stockage. Enfin, les données de timeline sont sauvegardées dans une base de données PostgreSQL, permettant une analyse graphique via cette page web.


Modèles d’IA utilisés :

Évaluation des performances :

Les modèles ont été évalués sur le dataset suivant : Kaggle FER Dataset

ÉmotionPrécision
Angry0.772
Disgust1.000
Fear0.838
Happy0.822
Neutral0.740
Sad0.943
Surprise0.928
Précision globale : 0.847

Évolution des émotions détectées par minute :
  • happy
  • neutral
  • angry
  • sad
  • surprise