University Sétif 1 FERHAT ABBAS Faculty of Sciences
Détail de l'indexation
Ouvrages de la bibliothèque en indexation 004 - Informatique
Ajouter le résultat dans votre panier Affiner la recherche
Data mining et statistique décisionnelle / Stéphane Tuffery
Titre : Data mining et statistique décisionnelle : L'intelligence des données Type de document : texte imprimé Auteurs : Stéphane Tuffery Mention d'édition : 4e éd Editeur : Paris : Technip Année de publication : 2012 Importance : 1 vol. (826 p.) Format : 24cm ISBN/ISSN/EAN : 978-2-7108-1017-9 Note générale : 978-2-7108-1017-9 Langues : Français (fre) Langues originales : Français (fre) Catégories : Informatique Mots-clés : Informatique
Exploration de données
Systèmes d'aide à la décision
Prise de décision (statistique)Index. décimale : 004 - Informatique Résumé :
Le data mining et la statistique sont de plus en plus répandus dans les entreprises et les organisations soucieuses d'extraire l'information pertinente de leurs bases de données, qu'elles peuvent utiliser pour expliquer et prévoir les phénomènes qui les concernent (risques, consommation, fidélisation...). Cette quatrième édition, actualisée et augmentée de 120 pages, fait le point sur le data mining, ses fondements théoriques, ses méthodes, ses outils et ses applications, qui vont du scoring jusqu'au web mining et au text mining. Nombre de ses outils appartiennent à l'analyse des données et à la statistique "classique" (analyse factorielle, classification automatique, analyse discriminante, régression logistique, modèles linéaires généralisés, régression pénalisée...), mais certains sont plus spécifiques au data mining, comme les arbres de décision, les réseaux de neurones, les SVM, l'agrégation de modèles et la détection des règles d'associations.Ces outils sont disponibles dans des logiciels de plus en plus puissants et conviviaux, aptes à exécuter de nombreux algorithmes sur de grands volumes de données. Un chapitre de l'ouvrage aide le lecteur à se diriger dans cette offre logicielle et détaille les fonctionnalités des trois principaux logiciels : R, SAS et IBM SPSS. Ces logiciels sont aussi utilisés pour illustrer par des exemples de nombreuses explications théoriques. Une partie de 50 pages est consacrée à une étude de cas complète de credit scoring, qui va de l'exploration des données jusqu'à l'élaboration de la grille de score. Les aspects méthodologiques vont de la conduite des projets jusqu'aux facteurs de réussite et aux pièges à éviter, en passant par l'évaluation et la comparaison des modèles, leur intégration dans les processus opérationnels, sans oublier les contraintes juridiques dès que l'on traite des données à caractère personnel". [Source : 4e de couv.]
Note de contenu :
Sommaire
Panorama du data mining
Le déroulement d'une étude de data mining
L'exploration et la préparation des données
L'utilisation des données commerciales et géodémographiques
Les logiciels de statistique et de data mining
Panorama des méthodes de data mining
L'analyse factorielle
Les réseaux de neurones
Les techniques de classification automatique
La recherche des règles d'associations
Les techniques de classement et de prédiction
L'analyse discriminante linéaire et ses généralisations
Le modèle linéaire et ses généralisations
Le modèle logistique et ses généralisations
Les autres modèles prédictifs
L'agrégation de modèles
Une application du data mining : le scoring
Les facteurs de succès d'un projet de data mining
Le text mining
Le web mining
Annexe : rappels de statistique ; data mining, informatique et libertés
Côte titre : Fs/12513,Fs/11568-11571,Fs/13106-13107 Data mining et statistique décisionnelle : L'intelligence des données [texte imprimé] / Stéphane Tuffery . - 4e éd . - Paris : Technip, 2012 . - 1 vol. (826 p.) ; 24cm.
ISBN : 978-2-7108-1017-9
978-2-7108-1017-9
Langues : Français (fre) Langues originales : Français (fre)
Catégories : Informatique Mots-clés : Informatique
Exploration de données
Systèmes d'aide à la décision
Prise de décision (statistique)Index. décimale : 004 - Informatique Résumé :
Le data mining et la statistique sont de plus en plus répandus dans les entreprises et les organisations soucieuses d'extraire l'information pertinente de leurs bases de données, qu'elles peuvent utiliser pour expliquer et prévoir les phénomènes qui les concernent (risques, consommation, fidélisation...). Cette quatrième édition, actualisée et augmentée de 120 pages, fait le point sur le data mining, ses fondements théoriques, ses méthodes, ses outils et ses applications, qui vont du scoring jusqu'au web mining et au text mining. Nombre de ses outils appartiennent à l'analyse des données et à la statistique "classique" (analyse factorielle, classification automatique, analyse discriminante, régression logistique, modèles linéaires généralisés, régression pénalisée...), mais certains sont plus spécifiques au data mining, comme les arbres de décision, les réseaux de neurones, les SVM, l'agrégation de modèles et la détection des règles d'associations.Ces outils sont disponibles dans des logiciels de plus en plus puissants et conviviaux, aptes à exécuter de nombreux algorithmes sur de grands volumes de données. Un chapitre de l'ouvrage aide le lecteur à se diriger dans cette offre logicielle et détaille les fonctionnalités des trois principaux logiciels : R, SAS et IBM SPSS. Ces logiciels sont aussi utilisés pour illustrer par des exemples de nombreuses explications théoriques. Une partie de 50 pages est consacrée à une étude de cas complète de credit scoring, qui va de l'exploration des données jusqu'à l'élaboration de la grille de score. Les aspects méthodologiques vont de la conduite des projets jusqu'aux facteurs de réussite et aux pièges à éviter, en passant par l'évaluation et la comparaison des modèles, leur intégration dans les processus opérationnels, sans oublier les contraintes juridiques dès que l'on traite des données à caractère personnel". [Source : 4e de couv.]
Note de contenu :
Sommaire
Panorama du data mining
Le déroulement d'une étude de data mining
L'exploration et la préparation des données
L'utilisation des données commerciales et géodémographiques
Les logiciels de statistique et de data mining
Panorama des méthodes de data mining
L'analyse factorielle
Les réseaux de neurones
Les techniques de classification automatique
La recherche des règles d'associations
Les techniques de classement et de prédiction
L'analyse discriminante linéaire et ses généralisations
Le modèle linéaire et ses généralisations
Le modèle logistique et ses généralisations
Les autres modèles prédictifs
L'agrégation de modèles
Une application du data mining : le scoring
Les facteurs de succès d'un projet de data mining
Le text mining
Le web mining
Annexe : rappels de statistique ; data mining, informatique et libertés
Côte titre : Fs/12513,Fs/11568-11571,Fs/13106-13107 Exemplaires (7)
Code-barres Cote Support Localisation Section Disponibilité Fs/11568 Fs/11568-11571 livre Bibliothéque des sciences Français Disponible
DisponibleFs/11569 Fs/11568-11571 livre Bibliothéque des sciences Français Disponible
DisponibleFs/11570 Fs/11568-11571 livre Bibliothéque des sciences Français Disponible
DisponibleFs/11571 Fs/11568-11571 livre Bibliothéque des sciences Français Disponible
DisponibleFs/12513 Fs/12513 livre Bibliothéque des sciences Français Disponible
DisponibleFs/13106 Fs/13106-13107 livre Bibliothéque des sciences Français Disponible
DisponibleFs/13107 Fs/13106-13107 livre Bibliothéque des sciences Français Disponible
DisponibleData science / Massih-Reza Amini
Titre : Data science : Cours et exercices Type de document : texte imprimé Auteurs : Massih-Reza Amini, ; Renaud Blanch, ; Clausel, Marianne, ; Durand, Jean-Baptiste, ; ric Gaussier, ; Malick, J©r´me, ; Picard, Christophe, ; Qu©ma, Vivien, ; Qu©not, Georges, Editeur : Paris : Eyrolles Année de publication : 2018 Importance : 1 vol. (254 p.) Présentation : graph., fig., couv. ill. en coul. Format : 23 cm. ISBN/ISSN/EAN : 978-2-212-67410-1 Note générale : 978-2-212-67410-1 Langues : Français (fre) Catégories : Informatique Mots-clés : Informatique Index. décimale : 004 - Informatique Résumé :
L'ouvrage Data Science : cours et exercices a pour ambition de traiter tous les aspects du métier de data scientist. Du prétraitement et la gestion des données en passant par l'analyse, la modélisation et la (data) visualisation. Ne se contenant pas de s'attarder sur les fondamentaux, il propose également et surtout de nombreux cours et exercices pour les mettre en pratiquNote de contenu :
Sommaire
Introduction
Prétraitement des données
Gestion de données large-échelle et systèmes distribués
Calcul haute performance
Optimisation pour l'analyse de données
Décomposition matricielle/tensorielle
Modèles génératifs
Modèles discriminants
Deep learning
Visualisation interactive d'informationCôte titre : Fs/23302 Data science : Cours et exercices [texte imprimé] / Massih-Reza Amini, ; Renaud Blanch, ; Clausel, Marianne, ; Durand, Jean-Baptiste, ; ric Gaussier, ; Malick, J©r´me, ; Picard, Christophe, ; Qu©ma, Vivien, ; Qu©not, Georges, . - Paris : Eyrolles, 2018 . - 1 vol. (254 p.) : graph., fig., couv. ill. en coul. ; 23 cm.
ISBN : 978-2-212-67410-1
978-2-212-67410-1
Langues : Français (fre)
Catégories : Informatique Mots-clés : Informatique Index. décimale : 004 - Informatique Résumé :
L'ouvrage Data Science : cours et exercices a pour ambition de traiter tous les aspects du métier de data scientist. Du prétraitement et la gestion des données en passant par l'analyse, la modélisation et la (data) visualisation. Ne se contenant pas de s'attarder sur les fondamentaux, il propose également et surtout de nombreux cours et exercices pour les mettre en pratiquNote de contenu :
Sommaire
Introduction
Prétraitement des données
Gestion de données large-échelle et systèmes distribués
Calcul haute performance
Optimisation pour l'analyse de données
Décomposition matricielle/tensorielle
Modèles génératifs
Modèles discriminants
Deep learning
Visualisation interactive d'informationCôte titre : Fs/23302 Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité Fs/23302 Fs/23302 livre Bibliothéque des sciences Français Disponible
DisponibleData science from scratch / Grus,Joel
Titre : Data science from scratch : First principles with Python Type de document : texte imprimé Auteurs : Grus,Joel, Auteur Editeur : Sebastopol : O'Reilly Année de publication : 2015 Importance : 1 vol. (311 p.) Format : 29 cm ISBN/ISSN/EAN : 978-1-4919-0142-7 Note générale : 978-1-4919-0142-7 Langues : Français (fre) Catégories : Informatique Mots-clés : Python (Computer program language)
Database managementIndex. décimale : 004 - Informatique Résumé :
Data science libraries, frameworks, modules, and toolkits are great for doing data science, but they’re also a good way to dive into the discipline without actually understanding data science. In this book, you’ll learn how many of the most fundamental data science tools and algorithms work by implementing them from scratch.
If you have an aptitude for mathematics and some programming skills, author Joel Grus will help you get comfortable with the math and statistics at the core of data science, and with hacking skills you need to get started as a data scientist. Today’s messy glut of data holds answers to questions no one’s even thought to ask. This book provides you with the know how to dig those answers out.
Get a crash course in Python
Learn the basics of linear algebra, statistics, and probability—and understand how and when they're used in data science
Collect, explore, clean, munge, and manipulate data
Dive into the fundamentals of machine learning
Implement models such as k nearest Neighbors, Naive Bayes, linear and logistic regression, decision trees, neural networks, and clustering
Explore recommender systems, natural language processing, network analysis, MapReduce, and databasesCôte titre : Fs/23304 Data science from scratch : First principles with Python [texte imprimé] / Grus,Joel, Auteur . - [S.l.] : Sebastopol : O'Reilly, 2015 . - 1 vol. (311 p.) ; 29 cm.
ISBN : 978-1-4919-0142-7
978-1-4919-0142-7
Langues : Français (fre)
Catégories : Informatique Mots-clés : Python (Computer program language)
Database managementIndex. décimale : 004 - Informatique Résumé :
Data science libraries, frameworks, modules, and toolkits are great for doing data science, but they’re also a good way to dive into the discipline without actually understanding data science. In this book, you’ll learn how many of the most fundamental data science tools and algorithms work by implementing them from scratch.
If you have an aptitude for mathematics and some programming skills, author Joel Grus will help you get comfortable with the math and statistics at the core of data science, and with hacking skills you need to get started as a data scientist. Today’s messy glut of data holds answers to questions no one’s even thought to ask. This book provides you with the know how to dig those answers out.
Get a crash course in Python
Learn the basics of linear algebra, statistics, and probability—and understand how and when they're used in data science
Collect, explore, clean, munge, and manipulate data
Dive into the fundamentals of machine learning
Implement models such as k nearest Neighbors, Naive Bayes, linear and logistic regression, decision trees, neural networks, and clustering
Explore recommender systems, natural language processing, network analysis, MapReduce, and databasesCôte titre : Fs/23304 Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité Fs/23304 Fs/23304 livre Bibliothéque des sciences Français Disponible
Sorti jusqu'au 18/10/2022Data scientist et langage R : guide d'autoformation à l'exploitation des Big Data / Henri Laude
Titre : Data scientist et langage R : guide d'autoformation à l'exploitation des Big Data Type de document : texte imprimé Auteurs : Henri Laude, Auteur Editeur : Saint-Herblain : Éd. ENI Année de publication : 2016 Collection : Epsilon ISBN/ISSN/EAN : 978-2-409-00043-0 Langues : Français (fre) Catégories : Informatique Mots-clés : Données massives
Apprentissage automatique
Exploration de donnéesIndex. décimale : 004 - Informatique Résumé :
La quatrième de couverture indique : "Tous les experts s'accordent à dire que 90% des usages du Big Data proviennent de l'utilisation des data sciences. L'objectif de ce livre est de proposer une formation complète et opérationnelle sur les data-sciences qui permet de délivrer des solutions via l'usage du langage R. Ainsi, l'auteur propose un parcours didactique et professionnalisant qui, sans autre pré-requis qu'un niveau Bac en mathématiques et une grande curiosité, permet aux lecteurs : - de s'intégrer à une équipe de data-scientists, - d'aborder des articles de recherche possédant une haute teneur en mathématiques, - le cas échéant de développer en langage R, y compris des algorithmes nouveaux et de beaux graphiques, - ou tout simplement de manager une équipe projet comprenant des data scientists, en étant à même de dialoguer avec eux de façon efficace. L'ouvrage ne se cantonne pas aux algorithmes du "machine learning", il aborde divers sujets importants comme le traitement du langage naturel, les séries temporelles, la logique floue, la manipulation des images. La dynamique de l'ouvrage soutient le lecteur pas à pas dans sa découverte des data sciences, l'évolution de ses compétences théoriques et pratiques. Le praticien en exercice y découvrira également de nombreux savoir-faire à acquérir et le manager pourra surfer sur l'ouvrage après avoir lu attentivement le bestiaire des data-sciences de l'introduction, qui sans inexactitude ou vulgarisation excessive aborde le thème en faisant l'économie de mathématiques ou de formalismes dissuasifs. L'ensemble du code de tous les exemples de l'ouvrage et toutes les données traitées dans le code sont en téléchargement sur le site www.editions-eni.fr."
Note de contenu :
Sommaire
Chapitre 1 Introduction
P. 15. 1. Data scientist, un métier à la mode
P. 16. 2. Les data-sciences
P. 17. 3. Le Big Data
P. 18. 4. La dynamique de cet ouvrage
P. 24. 5. Petit bestiaire des data-services
P. 70. 6. Informatique professionnelle et data-sciences
P. 76. 7. Notations
P. 81. 8. À vous de jouer !
Chapitre 2 Premiers pas avec R
P. 83. 1. Installation des composants
P. 90. 2. Prise en main de R
P. 179. 3. Manipulation des données
Chapitre 3 Maîtriser les bases
P. 215. 1. Se mettre en harmonie avec les données
P. 249. 2. Matrices et vecteurs
P. 279. 3. Estimations
P. 302. 4. Mise en pratique : apprentissage supervisé
Chapitre 4 Techniques et algorithmes incontournables
P. 325. 1. Constituer sa boîte à outils
P. 326. 2. Représentation graphique des données
P. 346. 3. Machine learning : pratiques courantes
P. 393. 4. Où en sommes-nous dans notre apprentissage ?
Chapitre 5 Cadre méthodologique du data scientist
P. 395. 1. Le problème méthodologique au niveau du projet
P. 399. 2. Le cycle interne des data-sciences
P. 411. 3. Compléments méthodologiques
Chapitre 6 Traitement du langage naturel
P. 415. 1. Positionnement du problème
P. 416. 2. Analyse sémantique latente et SVD
Chapitre 7 Graphes et réseaux
P. 431. 1. Introduction
P. 431. 2. Premiers pas
P. 449. 3. Graphes et réseaux (sociaux)
Chapitre 8 Autres problèmes, autres solutions
P. 465. 1. Séries temporelles
P. 499. 2. Systèmes flous
P. 509. 3. Essaim (swarm)
Chapitre 9 Feature Engineering
P. 517. 1. Feature Engineering, les bases
P. 541. 2. PCA classique, éléments mathématiques
P. 544. 3. Réduction des données (data reduction)
P. 545. 4. Réduction de la dimensionnalité et entropie
Chapitre 10 Compléments utiles
P. 557. 1. GAM : généralisation de LMGLM
P. 559. 2. Manipulation d'images
P. 575. 3. Comment créer un échantillon : LHS (hypercube latin)
P. 577. 4. Travailler sur des données spatiales
P. 590. 5. Savoir-faire utiles
P. 598. 6. Gradients Boosting et Generalized Boosted Regression
Annexes
P. 605. 1. De l'utilité de ces annexes
P. 605. 2. Formulas
P. 607. 3. Stratégies suivant la nature des données
P. 611. 4. Filtres (sur images)
P. 614. 5. Distances
P. 618. 6. Astuces et petits conseils
P. 620. 7. Packages et thèmes à étudier
P. 622. 8. Vocabulaire et « tricks of the trade »
P. 626. 9. Algorithmes à étudier
P. 627. 10. Quelques formulations d'algèbre linéaire
P. 629. Conclusion
P. 631. IndexCôte titre : Fs/22879-22880 Data scientist et langage R : guide d'autoformation à l'exploitation des Big Data [texte imprimé] / Henri Laude, Auteur . - Saint-Herblain : Éd. ENI, 2016. - (Epsilon) .
ISBN : 978-2-409-00043-0
Langues : Français (fre)
Catégories : Informatique Mots-clés : Données massives
Apprentissage automatique
Exploration de donnéesIndex. décimale : 004 - Informatique Résumé :
La quatrième de couverture indique : "Tous les experts s'accordent à dire que 90% des usages du Big Data proviennent de l'utilisation des data sciences. L'objectif de ce livre est de proposer une formation complète et opérationnelle sur les data-sciences qui permet de délivrer des solutions via l'usage du langage R. Ainsi, l'auteur propose un parcours didactique et professionnalisant qui, sans autre pré-requis qu'un niveau Bac en mathématiques et une grande curiosité, permet aux lecteurs : - de s'intégrer à une équipe de data-scientists, - d'aborder des articles de recherche possédant une haute teneur en mathématiques, - le cas échéant de développer en langage R, y compris des algorithmes nouveaux et de beaux graphiques, - ou tout simplement de manager une équipe projet comprenant des data scientists, en étant à même de dialoguer avec eux de façon efficace. L'ouvrage ne se cantonne pas aux algorithmes du "machine learning", il aborde divers sujets importants comme le traitement du langage naturel, les séries temporelles, la logique floue, la manipulation des images. La dynamique de l'ouvrage soutient le lecteur pas à pas dans sa découverte des data sciences, l'évolution de ses compétences théoriques et pratiques. Le praticien en exercice y découvrira également de nombreux savoir-faire à acquérir et le manager pourra surfer sur l'ouvrage après avoir lu attentivement le bestiaire des data-sciences de l'introduction, qui sans inexactitude ou vulgarisation excessive aborde le thème en faisant l'économie de mathématiques ou de formalismes dissuasifs. L'ensemble du code de tous les exemples de l'ouvrage et toutes les données traitées dans le code sont en téléchargement sur le site www.editions-eni.fr."
Note de contenu :
Sommaire
Chapitre 1 Introduction
P. 15. 1. Data scientist, un métier à la mode
P. 16. 2. Les data-sciences
P. 17. 3. Le Big Data
P. 18. 4. La dynamique de cet ouvrage
P. 24. 5. Petit bestiaire des data-services
P. 70. 6. Informatique professionnelle et data-sciences
P. 76. 7. Notations
P. 81. 8. À vous de jouer !
Chapitre 2 Premiers pas avec R
P. 83. 1. Installation des composants
P. 90. 2. Prise en main de R
P. 179. 3. Manipulation des données
Chapitre 3 Maîtriser les bases
P. 215. 1. Se mettre en harmonie avec les données
P. 249. 2. Matrices et vecteurs
P. 279. 3. Estimations
P. 302. 4. Mise en pratique : apprentissage supervisé
Chapitre 4 Techniques et algorithmes incontournables
P. 325. 1. Constituer sa boîte à outils
P. 326. 2. Représentation graphique des données
P. 346. 3. Machine learning : pratiques courantes
P. 393. 4. Où en sommes-nous dans notre apprentissage ?
Chapitre 5 Cadre méthodologique du data scientist
P. 395. 1. Le problème méthodologique au niveau du projet
P. 399. 2. Le cycle interne des data-sciences
P. 411. 3. Compléments méthodologiques
Chapitre 6 Traitement du langage naturel
P. 415. 1. Positionnement du problème
P. 416. 2. Analyse sémantique latente et SVD
Chapitre 7 Graphes et réseaux
P. 431. 1. Introduction
P. 431. 2. Premiers pas
P. 449. 3. Graphes et réseaux (sociaux)
Chapitre 8 Autres problèmes, autres solutions
P. 465. 1. Séries temporelles
P. 499. 2. Systèmes flous
P. 509. 3. Essaim (swarm)
Chapitre 9 Feature Engineering
P. 517. 1. Feature Engineering, les bases
P. 541. 2. PCA classique, éléments mathématiques
P. 544. 3. Réduction des données (data reduction)
P. 545. 4. Réduction de la dimensionnalité et entropie
Chapitre 10 Compléments utiles
P. 557. 1. GAM : généralisation de LMGLM
P. 559. 2. Manipulation d'images
P. 575. 3. Comment créer un échantillon : LHS (hypercube latin)
P. 577. 4. Travailler sur des données spatiales
P. 590. 5. Savoir-faire utiles
P. 598. 6. Gradients Boosting et Generalized Boosted Regression
Annexes
P. 605. 1. De l'utilité de ces annexes
P. 605. 2. Formulas
P. 607. 3. Stratégies suivant la nature des données
P. 611. 4. Filtres (sur images)
P. 614. 5. Distances
P. 618. 6. Astuces et petits conseils
P. 620. 7. Packages et thèmes à étudier
P. 622. 8. Vocabulaire et « tricks of the trade »
P. 626. 9. Algorithmes à étudier
P. 627. 10. Quelques formulations d'algèbre linéaire
P. 629. Conclusion
P. 631. IndexCôte titre : Fs/22879-22880 Exemplaires (2)
Code-barres Cote Support Localisation Section Disponibilité Fs/22879 Fs/22879-22880 livre Bibliothéque des sciences Français Disponible
DisponibleFs/22880 Fs/22879-22880 livre Bibliothéque des sciences Français Disponible
Disponible
Titre : Dead Trees Detection Based on Machine Learning and Remote Sensing Type de document : texte imprimé Auteurs : Manelle Benarbia, Auteur ; Nabila Chergui, Auteur Editeur : Setif:UFA Année de publication : 2023 Importance : 1 vol (51 f .) Format : 29 cm Langues : Anglais (eng) Catégories : Thèses & Mémoires:Informatique Mots-clés : Dead tree detection Artificial Intelligence Machine
Learning Deep Learning Remote Sensing Vegetation Indices Classification Détection des arbres morts Intelligence Artificielle Apprentissage
Automatique Apprentissage Approfondu télédétection Indices de VegetationsIndex. décimale : 004 - Informatique Résumé : Dead tree detection utilising machine learning and remote sensing
holds significance in efficient and scalable monitoring, early disturbance
detection, assessing ecosystem health, managing resources, and planning
conservation efforts. This approach facilitates timely interventions, enhances
forest management practices, and contributes to environmental
monitoring, ensuring the sustainability and resilience of forest ecosystems.
In this thesis, we focus on classifying dead trees using remote sensing
images obtained from the Sentinel 2 satellite and Vegetation Indices
(VIS). We initially extracted three VIs: the Normalised Difference Vegetation
Index (NDVI), Enhanced Vegetation Index (EVI2), and the Soil
Adjusted Vegetation Index. Subsequently, we selected three prominent
classification algorithms for Machine Learning (ML): Decision Tree (DT),
Random Forest (RF), and Support Vector Machine (SVM). Additionally,
we compared their performances with the Deep Learning Neural Network
(DNN). Notably, the Random Forest algorithm attained the highest
accuracy in dead tree classification, achieving an accuracy of 0.73 = La détection des arbres morts basée sur l’intelligence artificielle et la
télédétection revêt une grande importance pour une surveillance efficace
et évolutive, la détection précoce des perturbations, l’évaluation de la
santé des écosystèmes, la gestion des ressources et la planification de
la conservation. Elle permet des interventions rapides, améliore les
pratiques de gestion forestière et contribue aux efforts de surveillance
environnementale, garantissant ainsi la durabilité et la résilience des
écosystèmes forestiers.
Dans ce mémoire, nous avons classifié les arbres morts en utilisant
des images de télédétection acquises à partir du satellite Sentinel 2
et desindices de végétation (VIS). Nous avons tout d’abord extrait
trois indices de végétation, à savoir l’indice de végétation par différence
normalisée (NDVI), l’indice de végétation amélioré (EVI2) et l’indice
devégétation ajusté au sol. Ensuite, nous avons sélectionné trois des
principaux algorithmes d’apprentissage automatique pour effectuer la
classificationarbres de décision (DT), les forêts aléatoires (RF), les machines
à vecteurs de support (SVM) en plus du réseau de neurons (DNN).
Les résultats ont montré que l’algorithme de forêt aléatoire a obtenu
la meilleure précision dans la classification des arbres morts, atteignant
une précision de 0,73.
Côte titre : MAI/0755 En ligne : https://drive.google.com/file/d/1pK3ThW0ig-RHAQLEFvJNh0fkEU6fBSzZ/view?usp=drive [...] Format de la ressource électronique : Dead Trees Detection Based on Machine Learning and Remote Sensing [texte imprimé] / Manelle Benarbia, Auteur ; Nabila Chergui, Auteur . - [S.l.] : Setif:UFA, 2023 . - 1 vol (51 f .) ; 29 cm.
Langues : Anglais (eng)
Catégories : Thèses & Mémoires:Informatique Mots-clés : Dead tree detection Artificial Intelligence Machine
Learning Deep Learning Remote Sensing Vegetation Indices Classification Détection des arbres morts Intelligence Artificielle Apprentissage
Automatique Apprentissage Approfondu télédétection Indices de VegetationsIndex. décimale : 004 - Informatique Résumé : Dead tree detection utilising machine learning and remote sensing
holds significance in efficient and scalable monitoring, early disturbance
detection, assessing ecosystem health, managing resources, and planning
conservation efforts. This approach facilitates timely interventions, enhances
forest management practices, and contributes to environmental
monitoring, ensuring the sustainability and resilience of forest ecosystems.
In this thesis, we focus on classifying dead trees using remote sensing
images obtained from the Sentinel 2 satellite and Vegetation Indices
(VIS). We initially extracted three VIs: the Normalised Difference Vegetation
Index (NDVI), Enhanced Vegetation Index (EVI2), and the Soil
Adjusted Vegetation Index. Subsequently, we selected three prominent
classification algorithms for Machine Learning (ML): Decision Tree (DT),
Random Forest (RF), and Support Vector Machine (SVM). Additionally,
we compared their performances with the Deep Learning Neural Network
(DNN). Notably, the Random Forest algorithm attained the highest
accuracy in dead tree classification, achieving an accuracy of 0.73 = La détection des arbres morts basée sur l’intelligence artificielle et la
télédétection revêt une grande importance pour une surveillance efficace
et évolutive, la détection précoce des perturbations, l’évaluation de la
santé des écosystèmes, la gestion des ressources et la planification de
la conservation. Elle permet des interventions rapides, améliore les
pratiques de gestion forestière et contribue aux efforts de surveillance
environnementale, garantissant ainsi la durabilité et la résilience des
écosystèmes forestiers.
Dans ce mémoire, nous avons classifié les arbres morts en utilisant
des images de télédétection acquises à partir du satellite Sentinel 2
et desindices de végétation (VIS). Nous avons tout d’abord extrait
trois indices de végétation, à savoir l’indice de végétation par différence
normalisée (NDVI), l’indice de végétation amélioré (EVI2) et l’indice
devégétation ajusté au sol. Ensuite, nous avons sélectionné trois des
principaux algorithmes d’apprentissage automatique pour effectuer la
classificationarbres de décision (DT), les forêts aléatoires (RF), les machines
à vecteurs de support (SVM) en plus du réseau de neurons (DNN).
Les résultats ont montré que l’algorithme de forêt aléatoire a obtenu
la meilleure précision dans la classification des arbres morts, atteignant
une précision de 0,73.
Côte titre : MAI/0755 En ligne : https://drive.google.com/file/d/1pK3ThW0ig-RHAQLEFvJNh0fkEU6fBSzZ/view?usp=drive [...] Format de la ressource électronique : Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité MAI/0755 MAI/0755 Mémoire Bibliothéque des sciences Anglais Disponible
DisponibleDebian GNULinux : services réseaux (Bind DNS, Apache, NFS, Samba, Messagerie...) / Pierre Fauquembergue
PermalinkDeep-Convolution-Neural-Network-and-Autoencoders- Based-Unsupervised-Feature-Learning-of-EEG / Krachni,Rayane
PermalinkPermalinkPermalinkPermalinkPermalinkPermalinkPermalinkPermalinkPermalink