Veuillez utiliser cette adresse pour citer ce document :
http://repository.enp.edu.dz/jspui/handle/123456789/1990
Titre: | Traitement par les méthodes d’apprentissage profond de signaux physiologiques pour la détection des stades de sommeil |
Auteur(s): | Soukeur, Oussama Ait Mesbah, Mehdi Adnane, Mourad, Directeur de thèse |
Mots-clés: | Machine Learning Etude du sommeil Deep Learning Classification Détection de la somnolence Détection des stades de sommeil |
Date de publication: | 2020 |
Résumé: | La reconnaissance automatique des stades de sommeil est un sujet de recherche qui fait son chemin dans de nombreux domaines y compris l’apprentissage profond. Cette tache reste problématique étant donnée l’utilisation d’un matériel encombrant et coûteux nécessitant la présence du patient dans l’hôpital. Au cours de ces dernières années de nombreuses approches ont été proposé pour la classification des états de sommeil à partir de signaux ECG, enregistrer par des appareils portatifs à domicile beaucoup moins encombrant. Cependant dans le but d’améliorer la classification des états de sommeil nous avons été menés à établir une étude approfondie des approches les plus utilisée dans la classification en apprentissage profond. Cette étude a abouti à la mise en œuvre d’une méthode de classification utilisant un modèle hybride composé de réseaux de neurones récurent à mémoire courte et long terme LSTM, réseaux de neurones convolutives CNN et modèle de Markov caché HMM. Afin de valider nos approches nous avons utilisé des bases de données MIT-BIH disponible sur physionet. |
Description: | émoire de Projet de Fin d’Études : Électronique : Alger, École Nationale Polytechnique : 2020 |
URI/URL: | http://repository.enp.edu.dz/xmlui/handle/123456789/1990 |
Collection(s) : | Département Electronique |
Fichier(s) constituant ce document :
Fichier | Description | Taille | Format | |
---|---|---|---|---|
AIT-MESBAH.Mehdi_SOUKEUR.Oussama.pdf | PN00120 | 3.65 MB | Adobe PDF | Voir/Ouvrir |
Tous les documents dans DSpace sont protégés par copyright, avec tous droits réservés.