Veuillez utiliser cette adresse pour citer ce document : http://repository.enp.edu.dz/jspui/handle/123456789/10537
Affichage complet
Élément Dublin CoreValeurLangue
dc.contributor.authorDahmani, Salah-Eddine-
dc.contributor.otherBouadjenek, Nesrine, Directeur de thèse-
dc.date.accessioned2022-09-13T10:23:12Z-
dc.date.available2022-09-13T10:23:12Z-
dc.date.issued2022-
dc.identifier.otherEP00412-
dc.identifier.urihttp://repository.enp.edu.dz/jspui/handle/123456789/10537-
dc.descriptionMémoire de Projet de Fin d’Études : Électronique : Alger, École Nationale Polytechnique : 2022fr_FR
dc.description.abstractLa dégradation de la quantité et de la qualité de la production entraîne des pertes économiques. Ainsi, reconnaître les maladies des plantes est très important. Les symptômes de maladies apparaissent dans différentes parties des plantes. Cependant, ce sont les feuilles qui sont le plus couramment utilisées pour détecter l’infection. De nombreux chercheurs utilisent des techniques de vision par ordinateur pour détecter les maladies à l’aide d’images de feuilles. Notre étude diagnostique les maladies des plantes à l’aide de la méthode des réseaux de neurones profonds (DNN) basée sur ces symptômes précoces. Plusieurs modèles de réseaux de neurones convolutifs (CNN) tels que AlexNet, VGG16 et ResNet ont été utilisés en plus d’un modèle que nous proposerons plus tard pour identifier 17 classes avec 14 maladies. Ensuite, nous avons construit une interface Web pour le diagnostic de ces maladies en utilisant l’un de ces modèles.fr_FR
dc.language.isofrfr_FR
dc.subjectVision par ordinateurfr_FR
dc.subjectDiagnostic des maladies des plantesfr_FR
dc.subjectCNNfr_FR
dc.titleConception d’une interface Web pour le diagnostic des maladies des plantes par apprentissage profondfr_FR
dc.typeThesisfr_FR
Collection(s) :Département Electronique

Fichier(s) constituant ce document :
Fichier Description TailleFormat 
DAHMANI.Salah-Eddine.pdfPN0012213.72 MBAdobe PDFVoir/Ouvrir


Tous les documents dans DSpace sont protégés par copyright, avec tous droits réservés.